KR101909140B1 - Mobile terminal and method for controlling of the same - Google Patents

Mobile terminal and method for controlling of the same Download PDF

Info

Publication number
KR101909140B1
KR101909140B1 KR1020120083045A KR20120083045A KR101909140B1 KR 101909140 B1 KR101909140 B1 KR 101909140B1 KR 1020120083045 A KR1020120083045 A KR 1020120083045A KR 20120083045 A KR20120083045 A KR 20120083045A KR 101909140 B1 KR101909140 B1 KR 101909140B1
Authority
KR
South Korea
Prior art keywords
bar
frame
progress bar
touch screen
mobile terminal
Prior art date
Application number
KR1020120083045A
Other languages
Korean (ko)
Other versions
KR20140016497A (en
Inventor
노형석
전태영
나성채
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120083045A priority Critical patent/KR101909140B1/en
Priority to EP13176431.8A priority patent/EP2690879B1/en
Priority to US13/947,318 priority patent/US9710136B2/en
Priority to CN201310311468.8A priority patent/CN103577063B/en
Publication of KR20140016497A publication Critical patent/KR20140016497A/en
Application granted granted Critical
Publication of KR101909140B1 publication Critical patent/KR101909140B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

이동 단말기가 개시된다. 상기 이동 단말기는, 적어도 하나의 객체를 포함하는 동영상 콘텐츠로부터 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 독립적으로 제어할 수 있는 객체 프로그레스 바 디스플레이할 수 있다. 또한, 상기 객체 프로그레스 바를 미리 정해진 패턴으로 조작함으로써, 동영상 콘텐츠의 전체 프레임 중 상기 객체 프로그레스 바에 대응되는 객체를 포함하는 프레임을 보다 용이하게 편집하여 저장할 수 있다.A mobile terminal is disclosed. The mobile terminal may recognize at least one object from the moving image content including at least one object and may display an object progress bar capable of independently controlling a frame including the recognized object. Also, by manipulating the object progress bar in a predetermined pattern, a frame including an object corresponding to the object progress bar among all the frames of the moving image contents can be more easily edited and stored.

Description

이동 단말기 및 이동 단말기의 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING OF THE SAME}TECHNICAL FIELD [0001] The present invention relates to a mobile terminal and a control method of the mobile terminal,

본 발명은 동영상에 포함된 객체(object)를 이용하여 동영상의 재생을 제어하기 위한 사용자 인터페이스를 제공하는 이동 단말기 및 이동 단말기의 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile terminal providing a user interface for controlling playback of a moving image by using an object included in the moving image, and a control method of the mobile terminal.

이동 단말기를 포함한 각종 전자 기기와 관련된 하드웨어 기술 및 소프트웨어 기술이 비약적으로 발전함에 따라, 전자 기기는 매우 다양한 기능들과 정보들을 제공하거나 저장할 수 있게 되었다. 이에 따라 전자 기기에 구비된 화면에는 이와 같이 다양한 정보들을 제공하게 되었다.BACKGROUND OF THE INVENTION As hardware and software technologies related to various electronic apparatuses including a mobile terminal have developed remarkably, electronic apparatuses can provide or store a wide variety of functions and information. Accordingly, various kinds of information are provided on the screen provided in the electronic device.

또한 터치스크린을 구비하는 이동 단말기의 경우, 사용자의 터치 조작만으로 터치스크린에 제공되는 다양한 정보들에 대해 억세스할 수 있다.In addition, in the case of a mobile terminal having a touch screen, various information provided on the touch screen can be accessed only by a user's touch operation.

최근, 상기 전자 기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치 스크린을 구비하는 이동 단말기에서 동영상을 재생하는 중에 동영상을 제어하려면, 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작하는 것이 일반적이다.In recent years, the electronic devices have been provided with a function for easily viewing and listening to a moving image anytime and anywhere. However, in order to control the moving picture during the reproduction of the moving picture on the mobile terminal equipped with the touch screen, it is common to operate the moving picture in a state where the corresponding menu or icon is displayed on the screen.

특히, 상기 동영상에서 특정 프레임만을 선별하여 감상하고자 하는 경우, 상기 동영상 프레임 전체에서 원하는 프레임을 직접 검색하는 과정을 거쳐야 하는 불편함이 있다.In particular, when a user wants to view only a specific frame in the moving picture, it is inconvenient to directly search a desired frame in the entire moving picture frame.

이에 따라, 재생 중인 동영상을 보다 직관적으로 제어할 수 있는 사용자 인터페이스의 개발이 필요한 실정이다.Accordingly, there is a need to develop a user interface that can more intuitively control the video being played back.

본 발명이 해결하고자 하는 과제는, 동영상 콘텐츠에서 보다 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있는 이동 단말기 및 이동 단말기의 제어 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile terminal and a control method of a mobile terminal capable of selectively viewing frames including a specific object through an intuitive user interface in moving image contents.

특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바 또는 스크롤 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.Particularly, it is possible to recognize a predetermined object in the moving image content, to generate a progress bar or a scroll bar peculiar to the recognized object, and to provide a frame containing the desired object through a simple user operation on the progress bar or scroll bar And to provide a mobile terminal and a mobile terminal that can selectively provide the mobile terminal and the mobile terminal.

또한, 본 발명의 일 실시예에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.
According to an embodiment of the present invention, there is provided a mobile terminal and a mobile terminal capable of more easily editing a frame of the moving picture content based on a recognized object in moving picture contents including at least one object will be.

본 발명의 일 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.A mobile terminal according to an aspect of the present invention includes: a touch screen displaying a playback screen of moving image content and a first bar for controlling playback of the moving image content; And stopping the playback of the moving image content as the input for stopping the playback of the moving image content is received, recognizing a specific object included in the screen on which the playback has been stopped, And a controller for displaying a second bar associated with at least one frame on the touch screen.

상기 제2 바는, 상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함할 수 있다.The second bar may include a bar indexed by grouping a plurality of frames including the specific object according to a playback order.

상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The first bar may include a progress icon indicating a current position in the moving image content.

상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The second bar may include a progress icon indicating a current position in the moving image content, the frame including the specific object.

상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.The control unit may display a frame corresponding to the position of the touch input on the touch screen when receiving an input for moving a touch input to the progress bar of the second bar in a predetermined direction.

상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동할 수 있다.The predetermined direction can be moved in the lateral direction along the second bar.

상기 제어부는, 상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경할 수 있다.As the frame displayed on the touch screen is changed, the control unit may change the position of the progress icon included in the first bar for indicating the current position in the moving image content.

상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시할 수 있다.Wherein the control unit recognizes at least one object included in the frame displayed on the touch screen when the touch input to the progress bar of the second bar is released and displays a second bar corresponding to the recognized object on the touch screen Can be displayed.

상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함할 수 있다.The predetermined input may include an input to the stop motion icon displayed in the first bar, or a voice command to stop playback of the moving picture content.

상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다.The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.

상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함할 수 있고, 이 때,상기 제어부는, 제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시할 수 있다.The recognized specific object may include at least two objects, wherein the control unit moves the second bar corresponding to the first object to the second object corresponding to the second object so that at least two second bars In the case of overlapping, a user interface for generating a third bar corresponding to a new frame set generated by combining the first object and the second object may be displayed on the touch screen.

상기 사용자 인터페이스는,Wherein the user interface comprises:

상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,A first frame region including any one of the first object and the second object, a second frame region including the first object and the second object,

상기 제어부는, 상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정할 수 있다.Wherein the control unit receives an input for moving a second bar corresponding to the first object to one of the first and second frame areas and maps the second bar corresponding to the first object to a third bar according to the area where the second bar is located Can be set differently.

상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우, 상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응될 수 있다.When a second bar corresponding to the first object is located in the first frame region, the generated third bar is a frame including a first object or a second object among the video contents .

상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,When a second bar corresponding to the first object is located in the second frame area,

상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응될 수 있다.The generated third bar may correspond to a frame including the first object and the second object among the moving image contents.

상기 제어부는, 상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경할 수 있다.Wherein when the second bar corresponding to the first object enters one of the first frame region and the second frame region, the controller displays the display characteristics of the frame region in which the second bar enters, Can be changed.

상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함할 수 있다.The third bar may include identification information for distinguishing the combined form of the first object and the second object.

상기 제어부는, 상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시할 수 있다.The controller may display and vary the display characteristic of the first bar so that the frame period corresponding to the third bar among the frames corresponding to the first bar is distinguished from the other frame periods.

상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거할 수 있다.When receiving a touch input that causes the second bar to deviate from the touch screen, a frame including an object corresponding to the second bar may be removed from the video content.

상기 제어부는, 상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시할 수 있다.The control unit may display identification information for identifying that a frame including the object corresponding to the second bar has been removed from the moving image content, on the touch screen.

본 발명의 다른 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바(progress bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, there is provided a mobile terminal including: a touch screen for displaying a playback screen of moving image content and a progress bar for controlling playback of the moving image content; And a control unit for recognizing at least one object when the reproduction of the moving picture content is interrupted and indexing the at least one frame including the recognized object according to the reproduction order, And a controller for displaying the at least one object on the touch screen in association with the at least one object.

상기 제어부는, 상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.The control unit may display a frame corresponding to the specific point among the grouped frames on the touch screen when receiving an input for selecting a specific point of the bar.

본 발명의 또 다른 면에 따른 이동 단말기의 제어 방법은, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 상기 터치 스크린에 표시하는 단계; 상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계; 상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계; 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a mobile terminal, the method comprising: displaying a playback screen of a moving image content and a first bar for controlling playback of the moving image content on the touch screen; Receiving a predetermined input for the touch screen; Stopping playback of the moving picture content in response to the predetermined input; Recognizing a specific object included in the screen in which the reproduction is stopped; And displaying a second bar on the touch screen, the second bar being capable of controlling at least one frame including the specific object among all the frames of the moving picture content independently of the moving picture content. have.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명의 일 실시예에 따른 이동 단말기 및 이동 단말기의 제어 방법은 다음과 같은 효과가 있다.The control method of the mobile terminal and the mobile terminal according to an embodiment of the present invention has the following effects.

본 발명에 의하면, 동영상 콘텐츠에서 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있다.According to the present invention, a frame including a specific object can be selected and viewed through an intuitive user interface in a moving image content.

특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있다.Particularly, a predetermined object is recognized in the video content, a progress bar specific to the recognized object is generated, and a frame containing an object desired by the user is selected and provided through a simple user operation on the object-specific progress bar or scroll bar can do.

또한, 본 발명에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있다.In addition, according to the present invention, it is possible to more easily edit the frame of the moving picture content based on the recognized object in the moving picture content including at least one object.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention.
3 to 5 are diagrams for explaining a control method of a mobile terminal according to a first embodiment of the present invention.
6 is a flowchart of a method of controlling a mobile terminal according to a second embodiment of the present invention.
7 to 10 are diagrams for explaining a control method of a mobile terminal according to a second embodiment of the present invention.
11 is a flowchart of a method of controlling a mobile terminal according to a third embodiment of the present invention.
12 to 14 are diagrams for explaining a control method of a mobile terminal according to a third embodiment of the present invention.
FIG. 15 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention.
16 to 20 are diagrams for explaining a control method of a mobile terminal according to a third embodiment of the present invention.
21 is a flowchart of a method of controlling a mobile terminal according to a fourth embodiment of the present invention.
22 to 28 are diagrams for explaining a control method of a mobile terminal according to a fourth embodiment of the present invention.
29 is a flowchart of a method of controlling a mobile terminal according to a fifth embodiment of the present invention.
30 to 31 are diagrams for explaining a control method of a mobile terminal according to a fifth embodiment of the present invention.
32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 더욱 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서고 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and "part" for constituent elements used in the following description are given or mixed in consideration only of ease of specification, and do not have their own standing or distinguishing meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말기 등이 포함될 수 있다.
The mobile terminal described in this specification may include a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation terminal and the like.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory unit 160, An interface unit 170, a control unit 180, a power supply unit 190, and the like. The components shown in Fig. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 receives broadcasting signals using various broadcasting systems. In particular, the broadcasting receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) Only Digital Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory unit 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile terminal 100 or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The location information module 115 is a module for confirming or obtaining the location of the mobile terminal. A typical example of the location information module is a GPS (Global Position System) module. According to the current technology, the GPS module 115 calculates information on a distance (distance) from three or more satellites to one point (entity), information on the time when the distance information is measured, , Three-dimensional position information according to latitude, longitude, and altitude of one point (individual) in one hour can be calculated. Further, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module 115 continues to calculate the current position in real time and uses it to calculate speed information.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory unit 160 or may be transmitted to the outside through the wireless communication unit 110. [ The camera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. In addition, it may be responsible for a sensing function related to whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154, for example, for generating output related to visual, auditory, have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This may be referred to as a transparent display. A typical example of the transparent display is a transparent LCD or the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The display unit 151 is connected to a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') having a mutual layer structure It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory unit 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 outputs an acoustic signal related to a function (e.g., a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like. Also, the sound output module 152 may output sound through the earphone jack 116. The user can connect the earphone to the earphone jack 116 to hear the sound output.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may also be output through the display unit 151 or the audio output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may be configured to perform various functions such as an effect of stimulation by a pin arrangement vertically moving with respect to a contact skin surface, an effect of stimulation by air spraying force or suction force through a jet opening or a suction opening, A variety of tactile effects such as an effect of stimulation through contact of an electrode, an effect of stimulation by an electrostatic force, and an effect of reproducing a cold sensation using a heat absorbing or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to feel the tactile effect through the muscles of the user's finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the portable terminal 100.

메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory unit 160 may store data related to vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or receives power from the external device to transfer the data to each component in the mobile terminal 100 or to transmit data in the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the control unit 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the memory unit 160 and executed by the control unit 180. [

이하 본 발명의 실시예들을 설명하기로 한다.Hereinafter, embodiments of the present invention will be described.

본 발명에서는 설명의 편의를 위해 상기 디스플레이부(151)를 터치스크린(151)으로 가정한다. 전술한 바와 같이, 상기 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다. 또한 본 문서에서 언급되는 터치는, 접촉 터치와 근접 터치를 모두 포함할 수 있다.In the present invention, the display unit 151 is assumed to be the touch screen 151 for convenience of explanation. As described above, the touch screen 151 can perform both the information display function and the information input function. However, it should be clearly understood that the present invention is not limited thereto. Also, the touch mentioned in this document can include both touch and proximity touch.

한편, 본 발명의 실시예에 따르면, 동영상 클립들을 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스는 예컨대, 사용자가 사용자인터페이스에서 동영상 클립을 업로딩함으로써, 동영상을 감상, 편집 또는 그외의 처리를 할 수 있는 컴퓨터 시스템에 설치된 동영상 편집 소프트웨어 애플리케이션에 의해 제공될 수 있다. 동영상 클립은, 동영상 편집 소프트웨어 애플리케이션이 설치된 컴퓨터 시스템에 저장된 동영상 파일 또는 상기 컴퓨터 시스템에서 동작 가능하도록 결합되는 소정의 저장 장치에 저장된 동영상 파일을 포함할 수 있다. 또한 상기 동영상 파일은 동영상 파일 전체 또는 상기 동영상 파일의 일부를 포함할 수 있다.
According to an embodiment of the present invention, a user interface for editing video clips can be provided. The user interface may be provided by a video editing software application installed in a computer system capable of viewing, editing, or otherwise processing a video, for example, by a user uploading a movie clip in the user interface. The movie clip may include a moving picture file stored in a computer system in which the moving picture editing software application is installed or a moving picture file stored in a predetermined storage device operatively coupled to the computer system. The moving picture file may include the entire moving picture file or a part of the moving picture file.

도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다. 상기 제어 방법은 도 1에서 설명한 이동 단말기(100)의 제어부(180)의 제어하에 구현될 수 있다.FIG. 2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention, and FIGS. 3 to 5 illustrate a method of controlling the mobile terminal according to the first embodiment of the present invention. The control method may be implemented under the control of the control unit 180 of the mobile terminal 100 illustrated in FIG.

도 2를 참조하면, 이동 단말기(100)의 제어부(180)는 동영상 콘텐츠를 재생할 수 있다(S110).Referring to FIG. 2, the controller 180 of the mobile terminal 100 may play the moving image content (S110).

상기 동영상(moving picture) 콘텐츠는 이동 단말기(100)의 메모리(160)에 저장되어 있는 파일 혹은 외부 서버로부터 스트리밍되어 제공되는 영상 파일을 포함할 수 있다.The moving picture contents may include a file stored in the memory 160 of the mobile terminal 100 or an image file streamed from an external server.

상기 동영상 콘텐츠는 다양한 형식으로 제공될 수 있다. 예를 들어, MPEG(Moving Picture Expert Group), MOCV(Quic Time Movie), RealVideo, Avi 등의 형식으로 제공될 수 있다.The video content may be provided in various formats. For example, Moving Picture Expert Group (MPEG), Quic Time Movie (MOCV), RealVideo, and Avi.

상기 동영상 콘텐츠는, 영화, 드라마 등의 영상 콘텐츠, 단순 뮤직 콘텐츠가 영상과 함께 표시되는 뮤직 콘텐츠를 포함할 수 있다.The video content may include video content such as a movie or a drama, or music content in which simple music content is displayed together with a video.

상기 동영상 콘텐츠가 재생되면, 제어부(180)는 상기 동영상 콘텐츠의 재생 화면을 터치 스크린(151)에 표시할 수 있다.When the moving picture content is played back, the controller 180 can display the playing screen of the moving picture content on the touch screen 151.

한편, 제어부(180)는 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar)를 상기 동영상 콘텐츠의 재생 화면에 표시할 수 있다(S120).Meanwhile, the controller 180 may display a first bar for controlling the playback of the moving image content on the playback screen of the moving image content (S120).

상기 제1 바는, 동영상 콘텐츠의 재생(playback)을 제어하기 위한 GUI(Graphic User Interface)로서, 바(bar) 형태로 표현될 수 있다. 상기 제1 바는, 현재 재생되고 있는 동영상 콘텐츠에 대한 위치 정보를 제공하는 기능을 가지므로 프로그레스 바(progress bar)로 호칭한다. The first bar is a graphical user interface (GUI) for controlling playback of moving picture contents, and can be expressed in a bar form. The first bar is referred to as a progress bar since it has a function of providing position information on the currently playing video content.

즉, 프로그레스 바는 사용자의 재생 명령에 의해 재생되는 연속된 콘텐츠의 전체 지점 중 현재 재생되는 지점에 대한 위치 정보를 사용자에게 제공한다. 이러한 위치 정보는 프로그레스 바의 다른 부분과 구별되도록 표시되어 사용자에게 제공될 수 있다. 예를 들어, 상기 현재 재생되는 지점에 재생 헤더(playing header)를 위치시키고, 상기 프로그레스 바의 전체 구간 중 상기 재생 헤더의 상대적인 위치에 따라 동영상 콘텐츠의 현재 재생 위치 정보를 식별할 수 있다.That is, the progress bar provides the user with positional information about the current playback point among the whole points of the continuous content reproduced by the user's playback command. This location information may be displayed to the user to be distinguished from other parts of the progress bar. For example, a playing header may be positioned at the currently reproduced point, and the current reproduction position information of the moving picture content may be identified according to the relative position of the reproduction header among the entire sections of the progress bar.

한편, 상기 프로그레스 바는 동영상 콘텐츠의 재생(Playback), 중지(Pause), 빨리 감기(Fast Forward), 빨리 되 감기(Fast Rewind) 기능 등 적어도 하나의 기능에 각각 대응하는 적어도 하나의 소프트 버튼을 포함할 수 있다. 이동 단말기(100)는, 상기 적어도 하나의 소프트 버튼에 대한 입력을 통해 상기 동영상 콘텐츠의 재생을 제어할 수 있다.Meanwhile, the progress bar may include at least one soft button corresponding to at least one function such as a playback, a pause, a fast forward, and a fast rewind . The mobile terminal 100 may control the reproduction of the moving picture content through an input to the at least one soft button.

한편, 이동 단말기(100)는 상기 동영상 콘텐츠의 재생 화면이 터치 스크린(151)에 표시되는 중 상기 터치 스크린(151)에 대한 터치 입력이 수신되면 상기 프로그레스 바를 터치 스크린(151)의 일 영역에 표시할 수 있다.Meanwhile, when the mobile terminal 100 receives a touch input to the touch screen 151 while the playback screen of the moving picture content is displayed on the touch screen 151, the mobile terminal 100 displays the progress bar on one area of the touch screen 151 Can be displayed.

제어부(180)는 동영상 콘텐츠의 재생 화면이 표시되는 터치 스크린(151)의 미리 정해진 영역에 대하여 미리 정해진 입력을 수신하는 경우, 상기 동영상 콘텐츠의 재생을 중단시킬 수 있다(S130).If the control unit 180 receives a predetermined input for a predetermined area of the touch screen 151 on which the playback screen of the moving image content is displayed, the control unit 180 may stop the playback of the moving image content (S130).

예를 들어, 상기 미리 정해진 영역은 프로그레스 바에 포함된 중지(Pause) 버튼을 포함할 수 있다. 상기 중지 버튼에 대한 입력이 수신되면, 제어부(180)는, 콘텐츠 재생이 중단된 상태의 화면(프레임이라 호칭할 수 있음)을 터치 스크린(151)에 표시할 수 있다.For example, the predetermined area may include a pause button included in the progress bar. When the input to the stop button is received, the control unit 180 can display on the touch screen 151 a screen (which may be referred to as a frame) in which the content reproduction is interrupted.

제어부(180)는 상기 동영상 콘텐츠의 재생이 중단된 상태에서 화면 속에 포함되어 있는 적어도 하나의 객체를 인식할 수 있다(S140).The control unit 180 may recognize at least one object included in the screen in a state where the playback of the moving image content is interrupted (S140).

여기서, 상기 동영상 콘텐츠의 재생을 중단시키기 위한 입력은 상기 프로그레스 바에 포함된 중지(pause) 버튼에 대한 롱 터치 입력을 포함할 수 있다. 상기 버튼에 대한 롱 터치 입력이 수신됨에 따라 제어부(180)는 현재 재생 중인 프레임에 포함된 적어도 하나의 객체를 인식하기 위한 객체 인식 모드에 진입할 수 있다.The input for stopping the playback of the moving picture content may include a long touch input for a pause button included in the progress bar. As the long touch input for the button is received, the controller 180 may enter an object recognition mode for recognizing at least one object included in the currently playing frame.

한편, 상기 프로그레스 바에 포함된 중지(pause) 버튼을 단순 선택하기 위한 입력이 수신되는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 중지시키는 동작만 수행되도록 제어할 수 있다.Meanwhile, when an input for simply selecting a pause button included in the progress bar is received, the controller 180 may control to stop only the currently playing video content.

상기 동영상 콘텐츠는 적어도 하나의 객체(object)를 포함할 수 있다. 상기 객체는 사람, 인물이 아닌 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다. 한편, 상기 동영상 콘텐츠의 재생이 중단된 상태에서 인식될 객체는 미리 설정되어 있을 수 있다.The moving picture content may include at least one object. The object may include at least one of a person, a non-person, a background included in the video content, and at least one object included in the background. On the other hand, the object to be recognized in the state where the reproduction of the moving picture content is interrupted may be set in advance.

예를 들어, 동영상 콘텐츠가 제작될 때, 적어도 하나의 특정 객체에 대한 정보를 포함할 수 있다. 상기 특정 객체에 대한 정보는 상기 객체가 인물인 경우, 상기 동영상 콘텐츠에 등장하는 인물을 인식하기 위한 기준 객체(인물) 정보를 데이터 베이스에 저장하고, 동영상 콘텐츠의 재생이 중단된 화면에서 인식된 객체(인물)가 상기 데이터 베이스에 저장된 객체(인물) 정보와 동일한지를 판단한다. 그런 후, 동일한 객체(인물)정보가 존재하는 경우, 객체(인물) 인식 결과를 사용자에게 알려줄 수 있다.For example, when the video content is produced, it may include information about at least one specific object. The information about the specific object may include information about a reference object for recognizing a person appearing in the moving image content in the database when the object is a person, (Person) is the same as the object (person) information stored in the database. Then, when the same object (person) information exists, the user can be notified of the object (person) recognition result.

제어부(180)는 상기 재생이 중단된 화면에서 인식된 객체를 기준으로, 상기 동영상 콘텐츠에서 상기 인식된 객체를 포함하는 프레임과 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다(S150).The control unit 180 displays a second bar associated with the frame containing the recognized object on the touch screen 151 on the basis of the object recognized on the screen in which the playback is stopped (S150).

여기서, 상기 제2 바(a second bar)는 바(bar) 형태로서, 상기 동영상 콘텐츠에 포함된 프레임 중 상기 인식된 객체를 포함하는 프레임을 그룹화되어 인덱싱(indexing)된 상태 바(status bar) 혹은 스크롤 바(scroll bar)를 포함할 수 있다.Here, the second bar may be in the form of a bar, and a frame including the recognized object among the frames included in the moving image content may be grouped and indexed in a status bar or And may include a scroll bar.

또한, 상기 제2 바는, 프로그레스 바(progress bar)로서, 상기 프로그레스 바에 대하여 소정의 방향으로 터치 앤 드래그 입력이 입력되는 경우, 상기 터치 앤 드래그 입력에 의해 인지되는 상기 프로그레스 바 상의 특정 지점에 대응하는 프레임을 터치 스크린(151)에 표시할 수 있다. 상기 프레임은 상기 터치 스크린(151)의 전면에 표시될 수 있다.The second bar may be a progress bar. When a touch-and-drag input is input to the progress bar in a predetermined direction, the second bar may display a specific bar on the progress bar recognized by the touch- A frame corresponding to the point can be displayed on the touch screen 151. [ The frame may be displayed on the front of the touch screen 151.

즉, 상기 제2 바의 특정 지점은, 상기 특정 객체를 포함하는 하나의 프레임과 연관되어 있다. 따라서, 상기 제2 바의 제1 특정 지점은 상기 특정 객체를 포함하는 제1 프레임과 연관되고, 상기 제2 바의 제2 특정 지점은 상기 특정 객체를 포함하는 제2 프레임과 연관되고, 상기 제2 바의 제N 특정 지점은 상기 특정 객체를 포함하는 제N 프레임과 연관될 수 있다.That is, the specific point of the second bar is associated with one frame including the specific object. Thus, a first specific point of the second bar is associated with a first frame comprising the specific object, a second specific point of the second bar is associated with a second frame comprising the specific object, And the Nth specific point of 2 bars may be associated with the Nth frame containing the particular object.

이하, 도 3 내지 도 5를 참조하여, 재생중인 동영상 콘텐츠가 일시 정지되었을 때, 상기 동영상 콘텐츠에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시하는 과정을 보다 상세하게 설명한다.3 to 5, when the moving picture content to be reproduced is temporarily stopped, at least one object included in the moving picture content is recognized, and a second bar associated with the recognized object is touched The process of displaying on the screen 151 will be described in more detail.

도 3은 도 2의 S110 내지 S120 을 설명하기 위한 동영상 콘텐츠 재생 화면의 예이다.3 is an example of a moving image content playback screen for explaining S110 to S120 in FIG.

도 3을 참조하면, 제어부(180)는 동영상 콘텐츠의 재생 화면(C)을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 동영상 콘텐츠의 재생 화면(C)에 대하여 미리 정해진 입력(예를 들어, 상기 재생 화면에 대한 터치 입력)을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar: 프로그레스 바)(20)를 상기 동영상 콘텐츠의 재생 화면(C)의 일 영역에 표시할 수 있다. 여기서, 설명의 편의를 위하여 상기 제1 바를 제2 프로그레스 바로 호칭하기로 한다.Referring to FIG. 3, the controller 180 may display the playback screen C of the moving image content on the touch screen 151. FIG. When receiving a predetermined input (e.g., a touch input to the playback screen) with respect to the playback screen C of the moving image content, the control unit 180 controls the first A first bar (progress bar) 20 can be displayed in one area of the reproduction screen C of the moving picture contents. Here, for convenience of explanation, the first bar will be referred to as a second progress bar.

제1 프로그레스 바(20)는 현재 재생되는 동영상 콘텐츠의 프레임이 전체 프레임 중 어느 위치에 해당되는지를 지시하는 프로그레스 아이콘(30)을 포함할 수 있다.The first progress bar 20 may include a progress icon 30 indicating a position of a current frame of the video content to be reproduced.

그리고, 제어부(180)는 상기 제1 프로그레스 바(200)와는 별도로 콘텐츠의 재생 버튼(11), Fast Rewind(FR) 버튼(12), Fast Forward(FF) 버튼(13)을 포함함으로써, 동영상 콘텐츠의 재생을 제어하기 위한 추가적인 제어 영역(10)을 터치 스크린(151)에 표시할 수 있다.The control unit 180 includes a content playback button 11, a fast rewind (FR) button 12 and a fast forward (FF) button 13 separately from the first progress bar 200, An additional control area 10 for controlling reproduction of the content can be displayed on the touch screen 151. [

도 4를 참조하면, 상기 제어 영역(10)에서 상기 재생 버튼(11)을 롱 터치하는 입력을 수신하는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 일시적으로 정지시키고, 정지된 동영상 콘텐츠의 프레임(C(f1))을 터치 스크린(151)에 표시한다.Referring to FIG. 4, in the case of receiving an input for long touching the play button 11 in the control area 10, the controller 180 temporarily stops the currently playing video content, And displays the frame C (f1) on the touch screen 151. [

제어부(180)는, 상기 롱 터치 입력이 수신됨에 따라 객체 인식 동작을 즉시 수행할 수 있다. 또한, 제어부(180)는 상기 재생 버튼(11)을 선택하여 동영상 콘텐츠를 일시적으로 정지시킨 후, 상기 동영상 콘텐츠를 표시하는 터치 스크린(151) 또는 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바에 대한 롱 터치 입력을 수신하는 경우, 객체 인식 동작을 수행할 수 있다.The control unit 180 can immediately perform the object recognition operation upon receipt of the long touch input. In addition, the control unit 180 may temporarily stop the video content by selecting the playback button 11, and then the control unit 180 controls the touch screen 151 to display the video content or the progress bar for controlling the playback of the video content When receiving the long touch input, the object recognition operation can be performed.

그리고, 제어부(180)는, 상기 동영상 콘텐츠의 프레임(C(f1))에서 적어도 하나의 객체(OB1,OB2,OB3,OB4)를 인식한다. 제어부(180)는 상기 객체(OB1,OB2,OB3,OB4)를 인식하기 위하여 적어도 하나의 객체 인식 알고리즘을 적용할 수 있으며, 이동 단말기(100)는, 상기 객체 인식 알고리즘 중 정지 영상에서 소정의 객체를 인식하기 위한 공지의 알고리즘을 사용할 수 있으며, 상기 객체 인식 알고리즘에 대한 상세한 설명은 생략하기로 한다.The control unit 180 recognizes at least one object OB1, OB2, OB3, and OB4 in the frame C (f1) of the moving image content. The control unit 180 may apply at least one object recognition algorithm to recognize the objects OB1, OB2, OB3 and OB4, and the mobile terminal 100 may determine whether the object And a detailed description of the object recognition algorithm will be omitted.

제어부(180)는 상기 공지의 객체 인식 알고리즘을 이용하여 재생이 중지된 프레임(C(f1))에서 객체(OB1,OB2,OB3,OB4)를 인식하고, 상기 객체(OB1,OB2,OB3,OB4)의 외곽을 점선 폐곡선으로 구분함으로써, 인식된 객체를 식별할 수 있도록 동영상 콘텐츠의 정지 화면의 표시를 제어할 수 있다.The control unit 180 recognizes the objects OB1, OB2, OB3 and OB4 in the frame C (f1) in which reproduction has been stopped by using the known object recognition algorithm and outputs the objects OB1, OB2, OB3, OB4 ) Is divided into a closed curve with a dotted line, so that the display of the still image of the video content can be controlled so that the recognized object can be identified.

도 5를 참조하면, 제어부(180)는, 인식된 객체(OB1,OB2,OB3,OB4)와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다. 상기 제2 바(a second bar)는 전술한 바와 같이, 프로그레스 바의 기능을 가지며, 특정 객체를 포함하는 프레임을 그룹화하여 재생 시간 순서에 따라 인덱싱한 상태 바(status bar)로서의 기능을 가질 수 있다. 설명의 편의를 위하여, 상기 제2 바(a second bar)를 객체 프로그레스 바(an object progress bar)로 호칭할 수 있다.5, the control unit 180 may display a second bar associated with the recognized objects OB1, OB2, OB3, and OB4 on the touch screen 151. FIG. The second bar has a function of a progress bar as described above. It can group frames including a specific object and have a function as a status bar indexed according to the playback time order. have. For convenience of explanation, the second bar may be referred to as an object progress bar.

한편, 상기 객체 프로그레스 바는 전술한 제1 프로그레스 바(20)와 구분된다. 제1 프로그레스 바(20)는 동영상 콘텐츠 전체의 재생을 제어하기 위한 바(bar)이고, 상기 객체 프로그레스 바는 인식된 특정 객체를 포함하는 프레임을 독립적으로 제어하기 위한 바(bar)이다.On the other hand, the object progress bar is distinguished from the first progress bar 20 described above. The first progress bar 20 is a bar for controlling reproduction of the entire moving image content, and the object progress bar is a bar for independently controlling a frame including the recognized specific object.

한편, 제어부(180)는 상기 객체 프로그레스 바와 함께, 인식된 객체를 식별할 수 있도록 인식된 객체의 식별 정보(예를 들어, 텍스트, 이미지 정보 포함)를 상기 터치 스크린(151)에 표시할 수 있다.On the other hand, the control unit 180 can display the identification information (including text and image information) of the recognized object on the touch screen 151 so as to identify the recognized object together with the object progress bar have.

상기 인식된 객체의 식별 정보는, 이동 단말기의 메모리(도 1의 160)에 저장된 동영상 콘텐츠의 메타 데이터를 통해 획득될 수 있다.The identification information of the recognized object can be obtained through the metadata of the moving picture content stored in the memory 160 of the mobile terminal (FIG. 1).

상기 인식된 객체의 식별 정보는, 특정 객체가 인식되었을 때, 인터넷 또는 외부 서버로부터 상기 특정 객체와 관련된 정보가 검색되어 터치 스크린(151)에 표시될 수 있다.When the specific object is recognized, the identification information of the recognized object may be displayed on the touch screen 151 by retrieving information related to the specific object from the Internet or an external server.

한편, 제어부(180)는 상기 인식된 객체의 식별 정보를 포함하는 음성 명령을 수신하고, 상기 음성 명령에 따른 제어 동작을 수행할 수 있다. 예를 들어, 상기 음성 명령은, 상기 인식된 객체들 중 제1 객체와 제2 객체를 합성하도록 하는 커맨드, 전체 동영상 콘텐츠에서 특정 객체를 포함하는 프레임이 삭제되도록 하는 커맨드 등을 포함할 수 있다.Meanwhile, the control unit 180 may receive a voice command including identification information of the recognized object, and may perform a control operation according to the voice command. For example, the voice command may include a command to synthesize a first object and a second object among the recognized objects, a command to delete a frame including a specific object in the entire moving image content, and the like.

제어부(180)는 각 객체(OB1,OB2,OB3,OB4)에 대응하는 객체 프로그레스 바(31,32,33,34)를 객체(OB1,OB2,OB3,OB4) 근방에 각각 표시할 수 있다. 예를 들어, 제어부(180)는 인식된 제1 객체(OB1)를 포함하는 프레임들에 대응하는 제1 객체 프로그레스 바(31)를 제1 객체(OB1) 상부에 표시할 수 있다. 제어부(180)는 인식된 제2 객체(OB2)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(32)를 제2 객체(OB2) 상부에 표시하고, 인식된 제3 객체(OB3)를 포함하는 프레임들에 대응하는 제3 객체 프로그레스 바(33)를 제2 객체(OB3) 상부에 표시하고, 인식된 제4 객체(OB4)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(34)를 제2 객체(OB4) 상부에 표시할 수 있다.The control unit 180 can display the object progress bars 31, 32, 33 and 34 corresponding to the respective objects OB1, OB2, OB3 and OB4 in the vicinity of the objects OB1, OB2, OB3 and OB4 . For example, the control unit 180 may display the first object progress bar 31 corresponding to the frames including the recognized first object OB1 on the first object OB1. The control unit 180 displays the second object progress bar 32 corresponding to the frames including the recognized second object OB2 on the second object OB2 and displays the recognized third object OB3, A third object progress bar 33 corresponding to the frames including the first object OB3 and the second object progress bar 33 corresponding to the frames including the recognized fourth object OB4, The bar 34 can be displayed above the second object OB4.

한편, 특정 객체에 대응하는 객체 프로그레스 바는 상기 특정 객체를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 상대적인 위치를 지시하기 위한 프로그레스 아이콘(41,42,43,44)을 포함할 수 있다.On the other hand, the object progress bar corresponding to the specific object has progress icons (41, 42, 43, 44) for indicating the relative position of the frame displayed on the touch screen 151 among the entire frames including the specific object .

예를 들어, 제1 객체 프로그레스 바(31)는 제1 객체(OB1)를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 위치를 지시하기 위한 프로그레스 아이콘(41)을 포함할 수 있다. 제2 내지 제4 객체 프로그레스 바(32,33,34)에 대해서도 마찬가지이다.For example, the first object progress bar 31 includes a progress icon 41 for indicating the position of the frame currently displayed on the touch screen 151 among the entire frames including the first object OB1 . The same is true for the second to fourth object progress bars 32, 33, and 34. [

전술한 바와 같이, 이동 단말기(100)의 제어부(180)는, 동영상 콘텐츠에서 특정 객체를 포함하는 프레임을 추출하고 해당 프레임들을 바(bar) 형태의 객체 프로그레스 바에 인덱싱(indexing)하여 터치 스크린에 표시할 수 있다. 그리고, 객체 프로그레스 바에 대한 사용자 조작을 통해 상기 특정 객체를 포함하는 프레임의 표시를 전체 동영상 콘텐츠와 독립적으로 제어할 수 있다.As described above, the control unit 180 of the mobile terminal 100 extracts a frame including a specific object from the moving image content, indexes the frames to an object progress bar in the form of a bar, Can be displayed. The display of the frame including the specific object can be controlled independently of the entire video content through a user operation on the object progress bar.

도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 6 is a flowchart illustrating a method of controlling a mobile terminal according to a second embodiment of the present invention. FIGS. 7 to 10 illustrate a method of controlling a mobile terminal according to a second embodiment of the present invention.

도 6을 참조하면, 전술한 제1 실시예에서 제어부(180)는, 터치 스크린(151)에 표시된 객체 프로그레스 바(제2 바)를 선택하는 입력을 수신할 수 있다(S210).Referring to FIG. 6, in the first embodiment, the control unit 180 may receive an input for selecting an object progress bar (second bar) displayed on the touch screen 151 (S210).

그리고, 제어부(180)는 상기 객체 프로그레스 바에 포함된 프로그레스 아이콘을 좌우 방향으로 이동시키는 입력을 수신할 수 있다(S220).The control unit 180 may receive an input for moving the progress icon included in the object progress bar in the horizontal direction (S220).

예를 들어, 도 7을 참조하면 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘(41(a))을 좌우 방향으로 이동하는 터치 입력을 수신할 수 있다. 제어부(180)는 제1 객체 프로그레스 바(31)에 대하여 롱 터치 입력을 수신하면, 상기 제1 객체 프로그레스 바(31)의 크기를 확대하여 표시할 수 있다. 이에 따라, 사용자는 확대된 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘 41(a)을 이동시키면서, 스크러빙(scrubing)할 수 있다.For example, referring to FIG. 7, a touch input for moving the progress icon 41 (a) in the left and right directions with respect to the first object progress bar 31 can be received. When the controller 180 receives the long touch input to the first object progress bar 31, the controller 180 may enlarge and display the size of the first object progress bar 31. Accordingly, the user can scrub the enlarged first object progress bar 31 while moving the progress icon 41 (a).

상기 스크러빙 입력에 응답하여 제어부(180)는 전체 동영상 콘텐츠 프레임 중 해당 객체를 포함하는 프레임을 검색하고, 검색 결과를 터치 스크린(151)에 표시할 수 있다. 즉, 제어부(180)는 상기 프로그레스 바(제2 바)의 프로그레스 아이콘의 위치에 대응되는 프레임을 터치 스크린(151)에 표시할 수 있다(S230).In response to the scrubbing input, the controller 180 may search for a frame including the corresponding object among the entire moving image content frames, and display the search result on the touch screen 151. That is, the controller 180 may display the frame corresponding to the position of the progress icon of the progress bar (the second bar) on the touch screen 151 (S230).

도 8을 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치를 41(a)에서 41(b)로 이동하는 터치 입력을 수신하는 경우, 제어부(180)는 위치 41(a)에 대응하는 프레임(도 5의 C(f1))을 위치 41(b)에 대응하는 프레임(도 8의 C(f2))으로 변경하여 터치 스크린(151)에 표시할 수 있다.8, when the touch input for moving the position of the progress icon of the first object progress bar 31 from 41 (a) to 41 (b) is received, (C (f1) in Fig. 5) corresponding to the position 41 (b) can be changed to the frame corresponding to the position 41 (b) (C (f2) in Fig. 8) and displayed on the touch screen 151.

한편, 제1 객체 프로그레스 바(31)는 동영상 콘텐츠의 재생을 제어하는 프로그레스 바(20)와 연동될 수 있다. 즉, 전술한 바와 같이 제1 객체 프로그레스 바(31)에 포함된 프로그레스 아이콘의 위치가 변경되면, 상기 변경된 위치를 프로그레스 바(20)에 반영하여, 프로그레스 바(20)에 포함된 프로그레스 아이콘의 위치를 30(a)에서 30(b)로 이동시킬 수 있다. 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(a)은 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(a)에 대응되고, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(b)는 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(b)에 대응된다.On the other hand, the first object progress bar 31 can be interlocked with the progress bar 20 for controlling reproduction of the moving picture contents. That is, when the position of the progress icon included in the first object progress bar 31 is changed as described above, the changed position is reflected on the progress bar 20, The position of the progress icon can be moved from 30 (a) to 30 (b). The position 40 (a) of the progress icon of the first object progress bar 31 corresponds to the position 30 (a) of the progress icon of the progress bar 20 and the position of the progress bar of the first object progress bar 31 The position 40 (b) of the progress icon corresponds to the position 30 (b) of the progress icon of the progress bar 20.

도 5 내지 도 8을 통해 설명한 실시예의 경우, 객체 프로그레스 바를 선택하여 소정 방향으로 스크러빙하는 입력을 수신하는 경우, 스크러빙 입력된 위치에 대응되는 프레임을 터치 스크린(151)의 전면에 표시하는 예를 설명하였다.5 to 8, when an input for selecting an object progress bar and scrubbing in a predetermined direction is received, an example of displaying a frame corresponding to the scrubbing input position on the front of the touch screen 151 .

그러나, 객체 프로그레스바에 대한 스크러빙 입력에 대하여 대응되는 프레임을 표시하는 예는 전술한 방법에 한정되지 않는다.However, the example of displaying the corresponding frame for the scrubbing input to the object progress bar is not limited to the above-mentioned method.

예를 들어, 도 9를 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘(41)을 소정의 방향으로 스크러빙하는 입력을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체를 포함하는 적어도 하나의 프레임을 썸 네일 이미지(Thumbnail image: Th)(1,2,3,4,…,n)로 표시할 수 있다.For example, referring to FIG. 9, when an input for scrubbing the progress icon 41 of the first object progress bar 31 in a predetermined direction is received, the control unit 180 displays the entire frame (1, 2, 3, 4, ..., n) of at least one frame including the first object among the plurality of thumbnails.

제어부(180)는 상기 제1 객체를 포함하는 프레임에 대응되는 썸 네일 이미지를 프로그레스 바(20)의 상부에 표시할 수 있다.The control unit 180 may display a thumbnail image corresponding to the frame including the first object on the progress bar 20. [

그리고, 제어부(180)는 상기 제1 객체 프로그레스 바(31)의 특정 지점이 스크러빙될 때마다, 상기 특정 지점에 대응하는 썸 네일 이미지를 하이라이트 처리하여 표시할 수 있다. 예를 들어, 도 9를 참조하면, 제어부(180)는, 프로그레스 아이콘의 위치 41에 대응하는 썸 네일 이미지 4를 강조하여 현재 선택된 프레임인 무엇인지를 나타낼 수 있다.The controller 180 may highlight the thumbnail image corresponding to the specific point whenever the specific point of the first object progress bar 31 is scrubbed. For example, referring to FIG. 9, the control unit 180 may highlight a thumbnail image 4 corresponding to the position 41 of the progress icon to indicate what is the currently selected frame.

제어부(180)는, 특정 객체에 대응하는 객체 프로그레스 바에 대한 사용자의 조작에 대응하여 상기 특정 객체를 포함하는 프레임을 전체 동영상 콘텐츠와 독립적으로 제어한다. 상기 객체 프로그레스 바에 대한 제어가 완료되면, 제어부(180)는 새로운 장면에 포함된 객체를 인식하고, 인식된 객체 프로그레스 바를 생성하여 터치 스크린(151)에 표시할 수 있다.The control unit 180 controls the frame including the specific object independently of the entire video content in response to the user's operation on the object progress bar corresponding to the specific object. When the control for the object progress bar is completed, the controller 180 recognizes the object included in the new scene, and can generate the recognized object progress bar and display the object progress bar on the touch screen 151. [

예를 들어, 도 10을 참조하면, 도 8에서 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바의 프로그레스 아이콘을 제1 지점 41(a)에서 제2 지점 41(b)으로 이동시키는 터치 입력을 입력받은 후, 상기 터치 입력을 해제하는 경우, 상기 제2 지점 41(b)에 대응하는 화면에 포함된 적어도 하나의 객체를 인식하는 동작을 수행할 수 있다.For example, referring to Fig. 10, the progress icon of the first object progress bar corresponding to the first object OB1 is moved from the first point 41 (a) to the second point 41 (b) The controller may recognize at least one object included in the screen corresponding to the second point 41 (b) when the touch input is released after receiving the touch input.

즉, 도 8에서 터치 스크린(151)에 표시된 프레임(C(f2))은 제1 객체(OB1)만 인식된 상태에서 상기 제1 객체(OB1)에 대응하는 프로그레스 바(31)에 대한 조작으로 상기 제1 객체(OB1)를 포함하는 프레임을 터치 스크린(151)에 표시한 것이다.That is, the frame C (f2) displayed on the touch screen 151 in FIG. 8 indicates that the operation for the progress bar 31 corresponding to the first object OB1 is performed while only the first object OB1 is recognized A frame including the first object OB1 is displayed on the touch screen 151. [

그러나, 도 10을 참조하면, 도 10에 도시된 화면에는 제5 객체(OB5) 외에 제6 객체(OB6)도 인식 가능한 객체로 가정한다.However, referring to FIG. 10, it is assumed that a sixth object OB6 in addition to the fifth object OB5 is also recognizable on the screen shown in FIG.

따라서, 제1 프레임(도 5의 C(f1))에서 제5 객체(OB5)에 대응하는 제1 객체 프로그레스 바(31)에 대한 터치 입력의 위치가 제1 지점(도 10의 41(a))에서 제2 지점(도 10의 41(b))으로 이동되는 경우, 상기 제5 객체(OB5)를 포함하는 프레임 중 제2 프레임(도 10의 C(f2))을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 제2 프레임(도 10의 C(f2))에서 상기 제2 지점(41(b))에 대한 터치 입력을 해제하는 경우, 제어부(180)는, 상기 제2 프레임 C(f2)에서 새로운 객체 인식 동작을 수행한다.Therefore, the position of the touch input to the first object progress bar 31 corresponding to the fifth object OB5 in the first frame (C (f1) in Fig. 5) The second frame (C (f2) in FIG. 10) of the frames including the fifth object OB5 is moved to the second point (41 (b) in FIG. 10) Can be displayed. When releasing the touch input to the second point 41 (b) in the second frame (C (f2) in FIG. 10), the control unit 180 determines that the second frame C (f2) Performs a new object recognition operation.

상기 객체 인식 동작이 수행됨에 따라, 제5 객체(OB5) 및 제6 객체(OB6)를 인식할 수 있다. 그런 후, 제어부(180)는 상기 제5 객체 (OB5) 및 제6 객체(OB6)에 각각 대응하는 제5 객체 프로그레스 바(51) 및 제6 객체 프로그레스 바(52)를 각각의 객체 상단부에 표시할 수 있다.As the object recognition operation is performed, the fifth object OB5 and the sixth object OB6 can be recognized. The control unit 180 then controls the fifth object progress bar 51 and the sixth object progress bar 52 corresponding to the fifth object OB5 and the sixth object OB6, Can be displayed.

전술한 바와 같이, 각각의 객체 프로그레스 바(51,52)는 해당 프레임의 현재 위치를 지시하기 위한 프로그레스 아이콘(61,62)을 포함할 수 있다.As described above, each of the object progress bars 51 and 52 may include progress icons 61 and 62 for indicating the current position of the corresponding frame.

그런 후, 전술한 예와 같이, 제5 객체 프로그레스 바(51) 또는 제6 객체 프로그레스 바(61)에 대한 사용자의 조작에 따라 각 객체를 포함하는 프레임의 표시를 제어할 수 있다.Then, the display of the frame including each object can be controlled according to the user's operation on the fifth object progress bar 51 or the sixth object progress bar 61, as in the above-described example.

이상에서는 제1 실시예 내지 제2 실시예를 통해, 동영상 콘텐츠를 재생하는 중 상기 재생중인 동영상을 일시 정지시키면, 일시 정지된 화면상에 포함되어 있는 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 추출하고, 상기 추출된 프레임을 인덱싱한(indexing) 객체 프로그레스 바(object progress bar)를 표시하고, 상기 객체 프로그레스 바를 통해 상기 동영상 콘텐츠 전체 프레임 중 상기 인식된 객체를 포함하는 프레임만을 화면상에 디스플레이하는 예를 살펴보았다.As described above, when the moving picture being played back is paused during the reproduction of the moving picture contents through the first and second embodiments, at least one object included in the paused screen is recognized, And displaying an object progress bar indexing the extracted frame, and displaying a frame including the recognized object among the entire video content contents through the object progress bar, Only on the screen.

이하에서는 도 11 내지 도 14를 통해, 전술한 객체 프로그레스 바를 통해 동영상 콘텐츠의 프레임을 편집하는 예를 설명한다.
Hereinafter, an example of editing a frame of moving picture content through the above-described object progress bar will be described with reference to FIG. 11 through FIG.

도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 11 is a flowchart of a method of controlling a mobile terminal according to a third embodiment of the present invention, and FIGS. 12 to 14 are diagrams for explaining a method of controlling the mobile terminal according to the third embodiment of the present invention.

도 11을 참조하면, 이동 단말기(100)의 제어부(180)는 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 그런 후 제어부(180)는 인식된 객체가 적어도 둘 이상인지 판단한다(310).Referring to FIG. 11, the controller 180 of the mobile terminal 100 recognizes at least one object on the screen in which reproduction is interrupted (S140). Then, the controller 180 determines whether there are at least two recognized objects (310).

제어부(180)는 인식된 둘 이상의 객체 중 제1 객체에 대응하는 제1 객체 프로그레스 바 및 제2 객체에 대응하는 제2 객체 프로그레스 바를 터치 스크린(151)에 표시할 수 있다(S320).The control unit 180 may display the first object progress bar corresponding to the first object and the second object progress bar corresponding to the second object on the touch screen 151 at step S320.

제어부(180)는 상기 제1 객체 프로그레스 바를 제2 객체 프로그레스바와 중첩시키는 터치 입력을 수신할 수 있다(S330). 상기 터치 입력은 상기 제1 객체 프로그레스 바를 선택하여, 제2 객체 프로그레스 바로 드래그하여 두 개의 객체 프로그레스바가 서로 중첩되도록 하는 입력을 포함할 수 있다.The control unit 180 may receive the touch input for superimposing the first object progress bar on the second object progress bar (S330). The touch input may include an input for selecting the first object progress bar and dragging the second object progress bar to overlap the two object progress bars.

그러면, 제어부(180)는 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로움 프레임 세트를 독립적으로 제어할 수 있는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다. Then, the controller 180 controls the touch screen 151 to display a user interface for generating a third bar that can independently control the new frame set generated by combining the first object and the second object, Can be displayed.

본 문서에서 제1 바(a first bar), 제2 바(a second bar), 제3 바(a third bar)는 속성이 서로 다른 상태 바(status bar)들이다. 즉, 제1 바는, 동영상 콘텐츠 전체의 재생(pkayback)을 제어하기 위한 프로그레스 바이고, 제2 바는, 하나의 객체에 대응하는 객체 프로그레스 바이고, 제3 바는 적어도 둘 이상의 객체가 합성하여 생성되는 프레임에 대응하는 객체 프로그레스 바로 정의될 수 있다.In this document, a first bar, a second bar, and a third bar are status bars with different attributes. That is, the first bar is a progressive video for controlling pkayback of the entire video content, the second bar is an object progressive corresponding to one object, the third bar is a composite of at least two objects The object progress bar corresponding to the generated frame can be defined.

도 12를 참조하면, 제어부(180)는,제1 객체 프로그레스 바(31)에 대한 롱 터치 입력 또는 더블 터치 입력을 수신하는 경우, 객체 프로그레스의 편집 모드에 진입할 수 있다.12, when the controller 180 receives the long touch input or the double touch input to the first object progress bar 31, the control unit 180 can enter the edit mode of the object progress.

도 13을 참조하면, 상기 롱 터치 입력에 응답하여 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바(31)를 다른 객체 프로그레스 바(32,33,34)로 이동시키거나, 터치 스크린(151) 화면 밖으로 이동 가능함을 알리는 가이드 정보(71,72,73,74,75)를 터치 스크린(151)에 표시할 수 있다.13, in response to the long touch input, the first object progress bar 31 corresponding to the first object OB1 is moved to another object progress bar 32, 33, Guide information (71, 72, 73, 74, 75) indicating that the screen 151 can be moved out of the screen can be displayed on the touch screen 151.

상기 가이드는, 제1 객체 프로그레스 바(31)의 이동 가능한 경로를 나타내는 화살표(71,72,73,74,75) 형식으로 표현될 수 있다.The guide may be represented in the form of arrows 71, 72, 73, 74, 75 indicating the movable path of the first object progress bar 31.

도 14를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)로 이동하여, 두 객체 프로그레스 바(31,32)가 서로 중첩될 수 있다. 상기 중첩에 의해 제1 객체와 제2 객체가 합성되고, 제1 객체 및/또는 제2 객체를 포함하는 프레임에 대응하는 객체 제3 바(a tihrd bar)를 생성하기 위한 사용자 인터페이스(User Interface)에 대해서는 이하에서 보다 상세히 설명한다.Referring to FIG. 14, the first object progress bar 31 is moved to the second object progress bar 32 so that the two object progress bars 31 and 32 may overlap with each other. A user interface for composing a first object and a second object by the superposition and generating an object third bar corresponding to a frame including the first object and / or the second object, Will be described in more detail below.

도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이고, 도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 15 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention. FIGS. 16 to 20 illustrate a method for controlling a mobile terminal according to a third embodiment of the present invention. Respectively.

도 15를 참조하면, 제어부(180)는 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역과, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역을 터치 스크린(151)에 표시할 수 있다(S350).Referring to FIG. 15, the controller 180 displays a first frame area including a first object and a second object as a union, and a second frame area including an intersection of the first object and the second object with a touch screen 151 (S350).

상기 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임 영역을 의미한다.The first frame area including the first object and the second object as a union is a frame area including any one of the first object and the second object among the entire frames of the moving image content.

또한, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 및 제2 객체 모두를 포함하는 프레임 영역을 의미한다.In addition, the second frame region including the first object and the second object as an intersection, means a frame region including both the first object and the second object among the entire frames of the moving image contents.

일 실시예에 따라, 서로 다른 객체 프로그레스 바를 중첩하여 새로운 프레임 세트에 대응하는 객체 프로그레스 바를 생성하기 위한 사용자 인터페이스는, 도 16 내지 도 17에 도시된 바와 같이 밴다이어 그램(Venn diagram) 형태를 가질 수 있다.According to one embodiment, a user interface for creating an object progress bar corresponding to a new set of frames by superimposing different object progress bars includes a Venn diagram form as shown in FIGS. 16 through 17 Lt; / RTI >

도 16을 참조하면, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되면, 밴다이어 그램(80) 형태의 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다.16, when the first object progress bar 31 and the second object progress bar 32 are overlapped, a user interface in the form of a vender diagram 80 can be displayed on the touch screen 151 .

상기 밴 다이어 그램 형식의 사용자 인터페이스는, 제1 객체를 포함하는 프레임에 대응하는 제1 프레임 영역(81,82), 제2 객체를 포함하는 프레임에 대응하는 제2 프레임 영역(32)을 포함할 수 있다.The Van Diagram type user interface includes a first frame area 81, 82 corresponding to a frame containing the first object, and a second frame area 32 corresponding to the frame including the second object .

상기 사용자 인터페이스가 터치 스크린(151)에 표시된 상태에서, 제어부(180)는, 제2 객체 프로그레스 바(32)와 중첩상태에 있는 제1 객체 프로그레스 바(31)를 제1 프레임 영역(81,82) 내지 제2 프레임 영역(83) 중 적어도 하나의 영역으로 이동시키는 입력을 수신할 수 있다.When the user interface is displayed on the touch screen 151, the controller 180 displays the first object progress bar 31 in the overlapping state with the second object progress bar 32 in the first frame area 81 , 82) to at least one of the second frame region (83).

그러면, 제어부(180)는 상기 제1 객체 프로그레스 바(31)가 이동된 영역에 따라 제1 객체와 제2 객체의 합성 방식을 결정할 수 있다.Then, the control unit 180 may determine a combining method of the first object and the second object according to the area in which the first object progress bar 31 is moved.

예를 들어, 도 17을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제2 프레임 영역(83)으로 이동되는 경우, 제어부(180)는 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.17, when the first object progress bar 31 is moved to the second frame region 83, the control unit 180 determines whether the first object and the second object You can create and display a new object progress bar that indexes frames containing all objects.

또한, 예를 들어, 도 18을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제1 프레임 영역(81 또는 82)으로 이동되는 경우, 제어부(180)는, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.18, when the first object progress bar 31 is moved to the first frame region 81 or 82, the control unit 180 determines whether or not the first object progress bar 31 is moved to the first frame region 81 or 82. For example, A new object progress bar for indexing frames including one object or one object may be generated and displayed.

전술한 서로 다른 객체 프로그레스 바의 중첩(overlap)에 의해 생성되는 새로운 객체 프로그레스 바는 도 19에 도시된 바와 같이 표시될 수 있다.A new object progress bar generated by the overlap of the above-described different object progress bars can be displayed as shown in Fig.

도 19를 참조하면, 제1 객체 프로그레스 바(31) 내지 제4 객체 프로그레스 바(34)는 각 객체 프로그레스 바가 위치하는 영역이 해당 객체의 상단부에 위치한다. 따라서, 각 객체 프로그레스 바가 어떤 객체에 대응되는지 구별될 수 있다. 한편, 각 객체 프로그레스 바는 디스플레이 특성 예를 들어, 색상, 투명도 등을 달리함으로써, 각 객체 프로그레스 바를 서로 구별할 수 있다.Referring to FIG. 19, the first object progress bar 31 to the fourth object progress bar 34 are located at the upper end of the object in which the object progress bar is located. Thus, it is possible to distinguish which object each progress bar corresponds to. On the other hand, each object progress bar can distinguish each object progress bar from each other by changing display characteristics such as color, transparency, and the like.

예를 들어, 제1 객체 프로그레스 바(31)와 제4 객체 프로그레스 바(34)의 색상은 서로 다르다.For example, the colors of the first object progress bar 31 and the fourth object progress bar 34 are different from each other.

한편, 두 개의 프로그레스 바의 중첩으로 생성되는 새로운 프로그레스 바(90)는 상기 두 개의 프로그레스 바에 대응되는 객체를 식별하기 위한 식별 정보(예를 들어, 31', 34')를 포함할 수 있다.Meanwhile, a new progress bar 90 generated by overlapping two progress bars may include identification information (e.g., 31 ', 34') for identifying an object corresponding to the two progress bars have.

상기 새로운 프로그레스 바(90)는 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)의 측면 사이드에 표시될 수 있다. 상기 새로운 프로그레스 바(90)를 선택하기 위한 터치 입력(롱 터치 입력 포함)을 수신하는 경우, 제어부(180)는, 상기 새롭게 생성된 프로그레스 바(90)의 속성을 상기 메인 프로그레스 바(20)에 반영할 수 있다.The new progress bar 90 may be displayed on the side of the main progress bar 20 for controlling reproduction of the moving picture content. When receiving the touch input (including the long touch input) for selecting the new progress bar 90, the control unit 180 transmits the attribute of the newly generated progress bar 90 to the main progress bar 20).

예를 들어, 상기 새로운 프로그레스 바(90)는, 제1 객체(OB1)와 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응하는 프로그레스 바이다. 따라서, 상기 프로그레스 바 90을 선택하는 입력을 수신하면, 제어부(180)는 상기 메인 프로그레스 바(20)에서, 상기 제1 객체(OB1) 또는 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응되는 구간(91)을 다른 구간(92)과 식별하여 표시할 수 있다.For example, the new progress bar 90 is a progress bar corresponding to a frame including any one of the first object OB1 and the fourth object OB4. Accordingly, upon receiving the input for selecting the progress bar 90, the controller 180 determines whether any one of the first object OB1 or the fourth object OB4 is present in the main progress bar 20 It is possible to identify and display the section 91 corresponding to the frame including the other section 92. [

그리고, 도 20에 도시된 바와 같이, 상기 프로그레스 바 90에 대한 스크러빙 입력을 수신하는 경우, 상기 스크러빙 입력에 응답하여 제1 객체(OB1) 또는 제2 객체(OB) 중 어느 하나의 객체를 포함하는 프레임을 터치 스크린(151)에 표시할 수 있다.20, when receiving the scrubbing input for the progress bar 90, the controller 100 may include any one of the first object OB1 or the second object OB in response to the scrubbing input Can be displayed on the touch screen 151.

전술한 실시예에 의하면, 인식 가능한 객체를 포함하는 동영상 콘텐츠에서 인식된 객체에 대응하는 객체 프로그레스 바를 제어함으로써, 원하는 객체를 포함하는 프레임을 추출하는 동작을 수행하는 예를 살펴보았다.According to the above-described embodiment, an example of performing an operation of extracting a frame including a desired object by controlling an object progress bar corresponding to an object recognized in moving image contents including a recognizable object has been described.

그러나, 객체 프로그레스 바를 통해 원하는 객체를 추출하는 방법은 전술한 예에 한정되지 않고 다양하게 변형되어 실시될 수 있다. 예를 들어, 도 21 내지 도 28을 통해 개시되는 실시예를 살펴본다.
However, the method of extracting a desired object through the object progress bar is not limited to the above-described example, and various modifications can be made. For example, an embodiment disclosed in Figs. 21 to 28 will be described.

도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 21 is a flowchart of a method of controlling a mobile terminal according to a fourth embodiment of the present invention, and FIGS. 22 to 28 illustrate a method of controlling the mobile terminal according to the fourth embodiment of the present invention.

도 21을 참조하면, 동영상 콘테츠의 재생이 중단된 상태에서 적어도 하나의 객체를 인식한 이후(S140), 제어부(180)는 터치 스크린(151)의 임의의 영역에 대하여 롱 터치 입력을 수신할 수 있다(S410).Referring to FIG. 21, after recognizing at least one object in a state in which playback of the moving picture contents is interrupted (S140), the controller 180 receives a long touch input for an arbitrary area of the touch screen 151 (S410).

예를 들어, 도 22를 참조하면, 상기 롱 터치 입력에 응답하여 제어부(180)는 객체 프로그레스 바를 생성할 것인지를 질의하는 질의창(201)을 터치 스크린(151)에 표시할 수 있다. For example, referring to FIG. 22, in response to the long touch input, the controller 180 may display a query window 201 on the touch screen 151 to inquire whether to generate an object progress bar.

또한, 도 23을 참조하면, 제어부(180)는, 상기 객체 프로그레스 바는 대응되는 객체가 아직까지 정해지지 않은 객체 프로그레스 바(object progress bar not related to any object)를 생성하여 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 23, the controller 180 generates an object progress bar not related to any object to which the corresponding object has not yet been determined, Can be displayed.

다시 도 21을 참조하면, 제어부(180)는, 제1 객체를 상기 객체 프로그레스 바로 이동시키는 입력을 수신할 수 있다(S430).Referring again to FIG. 21, the controller 180 may receive an input to move the first object to the object progress bar (S430).

도 24를 참조하면, 제1 객체(OB1)를 객체 프로그레스 바(202)로 이동시키는 입력은 상기 제1 객체(B1)를 드래그하여 상기 객체 프로그레스 바와 중첩되는 영역을 가지도록 하는 터치 앤 드래그 입력을 포함할 수 있다. 여기서, 제1 객체(OB1)가 상기 객체 프로그레스 바(202) 방향으로 이동되어, 상기 제1 객체(OB1)가 상기 객체 프로그레스 바(202)와 중첩하는 영역이 커질수록 상기 제1 객체의 외형적인 크기를 줄일 수 있다.24, an input for moving the first object OB1 to the object progress bar 202 is an input for moving the first object B1 by dragging the first object B1 to have an area overlapping the object progress bar, ≪ / RTI > As the first object OB1 moves in the direction of the object progress bar 202 and the area where the first object OB1 overlaps with the object progress bar 202 becomes larger, The external size can be reduced.

즉, 제1 객체(OB1)가 객체 프로그레스 바(202)로 중첩되면, 제어부(180)는 상기 객체 프로그레스 바(202)를 제1 객체를 포함하는 프레임들을 인덱싱(indexing)한 것으로 인식할 수 있다. 이에 따라, 상기 객체 프로그레스 바(202)에 대한 사용자의 조작에 의해, 제1 객체(OB1)를 포함하는 프레임만을 선별적으로 디스플레이할 수 있다(C).That is, when the first object OB1 is superimposed on the object progress bar 202, the control unit 180 recognizes the object progress bar 202 as an indexing of the frames including the first object . Accordingly, only the frame including the first object OB1 can be selectively displayed by the user's operation on the object progress bar 202 (C).

그리고, 도 25를 참조하면, 전술한 바와 같이, 제1 객체(OB1)가 객체 프로그레스 바(202)로 이동함으로써, 객체 프로그레스 바(202)가 제1 객체(OB1)에 대응되는 것으로 인식된 상태에서, 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력을 수신할 수 있다(S440). 여기서, 상기 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력 또한 제1 객체(OB1)와 마찬가지이다.25, when the first object OB1 moves to the object progress bar 202, the object progress bar 202 is recognized as corresponding to the first object OB1, as described above, In operation S440, an input for moving the second object OB2 to the object progress bar 203 may be received. The input for moving the second object OB2 to the object progress bar 203 is also the same as the first object OB1.

제어부(180)는, 상기 객체 프로그레스 바(203)에 제2 객체(OB2)를 포함하는 프레임들을 인덱싱(indexing)할 수 있다. 결국, 상기 객체 프로그레스 바(203)는 제1 객체 및/또는 제2 객체를 포함하는 프레임들을 인덱싱한 상태 바(status bar)로서의 기능을 수행할 수 있다.The control unit 180 may index the frames including the second object OB2 in the object progress bar 203. [ As a result, the object progress bar 203 may function as a status bar indexing frames including the first object and / or the second object.

도 26을 참조하면, 도 24 및 도 25에 도시된 실시예에 따라 새롭게 생성된 객체 프로그레스 바(204)는 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임에 대응된다. 따라서, 상기 객체 프로그레스 바(204)에 대한 스크러빙 입력(scrubing input)에 응답하여, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임들만 추출하여 터치 스크린(151)에 표시할 수 있다. 제어부(180)는 상기 추출되는 프레임들을 재생 시간에 기초하여 터치 스크린(151)에 순차적으로 표시할 수 있다.Referring to FIG. 26, the object progress bar 204 newly generated according to the embodiment shown in FIGS. 24 and 25 corresponds to a frame including the first object OB1 and / or the second object OB2 do. Accordingly, in response to a scrubbing input to the object progress bar 204, only frames including the first object OB1 and / or the second object OB2 among the entire frames of the moving image content are extracted And displayed on the touch screen 151. The control unit 180 may sequentially display the extracted frames on the touch screen 151 based on the playback time.

또한, 제어부(180)는, 상기 객체 프로그레스 바(204)에 대한 롱 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(204)의 속성(제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱한 프로그레스 바)을 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)에 반영할 수 있다. 제어부(180)는 상기 반영 결과, 상기 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간들을 다른 구간과 식별되도록 표시할 수 있다. 예를 들어, 제어부(180)는 상기 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간을 음영처리하여 표시할 수 있다.When receiving the long touch input to the object progress bar 204, the controller 180 determines whether or not the attribute of the object progress bar 204 (frames including both the first object and the second object) Indexed progress bar) to the main progress bar 20 for controlling reproduction of the video content. The controller 180 may display the frames corresponding to the frames including the first object and the second object at the same time among the entire frames of the moving image content to be distinguished from other frames. For example, the control unit 180 can display an interval corresponding to a frame including the first object and the second object at the same time by shading.

도 27을 참조하면, 제어부(180)는, 객체 프로그레스 바(205)을 선택하는 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(205)의 속성을 나타내기 위한 메뉴창(206)을 터치 스크린(151)에 표시할 수 있다.27, when the controller 180 receives a touch input for selecting the object progress bar 205, the controller 180 touches the menu window 206 for displaying the property of the object progress bar 205 And can be displayed on the screen 151.

상기 메뉴창(206)은 객체 프로그레스 바(206)에 대응되는 객체 정보(OB1,OB2), 상기 객체 프로그레스 바(206)에 추가로 합성할 객체를 선택할 수 있는 항목, 상기 객체 정보 중 적어도 하나의 객체를 삭제하기 위한 항목을 포함할 수 있다.The menu window 206 includes object information OB1 and OB2 corresponding to the object progress bar 206, an item capable of selecting an object to be further synthesized in the object progress bar 206, And an item for deleting one object.

예를 들어, 상기 메뉴창(206)에서 제1 객체(OB1)을 삭제하는 입력을 수신하는 경우, 제어부(180)는 도 28에 도시된 바와 같이, 제2 객체(OB2)를 포함하는 프레임을 선별적으로 디스플레이할 수 있다.For example, when receiving an input for deleting the first object OB1 from the menu window 206, the controller 180 may display a frame including the second object OB2 as shown in FIG. It can be displayed selectively.

이에 따라, 상기 객체 프로그레스 바(205)에 매핑되어 있는 객체를 보다 용이하게 추가하거나 삭제할 수 있다.
Accordingly, an object mapped to the object progress bar 205 can be added or deleted more easily.

도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 29 is a flowchart of a method of controlling a mobile terminal according to a fifth embodiment of the present invention, and FIGS. 30 to 31 illustrate a method of controlling the mobile terminal according to the fifth embodiment of the present invention.

도 29를 참조하면, 동영상 콘텐츠의 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 제어부(180)는, 상기 인식된 적어도 하나의 객체(OB1,OB2,OB3,OB4)에 각각 대응되는 객체 프로그레스 바(31,32,33,34)를 각 객체 근방에 표시할 수 있다.Referring to FIG. 29, at least one object is recognized on the screen in which the reproduction of the moving image content is interrupted (S140). The control unit 180 may display object progress bars 31, 32, 33, and 34 corresponding to the recognized at least one object OB1, OB2, OB3, and OB4 in the vicinity of each object.

제어부(180)는 제1 객체 프로그레스 바(31)를 동영상 콘텐츠의 재생 화면에서 화면 밖으로 던지는 제스처를 입력받는 경우, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1)가 포함된 프레임을 제어할 수 있다. 따라서, 동영상 콘텐츠가 재생되는 중 제1 객체(OB1) 나오는 프레임은 디스플레이되지 않을 수 있다.The control unit 180 controls the frame including the first object OB1 among the entire frames of the moving picture contents when the first object progress bar 31 receives the gesture to throw out of the screen on the reproduction screen of the moving picture contents . Accordingly, the frame from which the first object OB1 is displayed while the moving picture contents are being reproduced may not be displayed.

도 31을 참조하면, 제1 객체 프로그레스 바(31)에 대한 롱 터치 입력을 수신하는 경우, 상기 제1 객체 프로그레스 바(31)의 상단부에 여집합 기호(C)를 표시할 수 있다. 상기 제1 객체 프로그레스 바(31)를 상기 여집합 기호(C)로 이동시키는 입력을 수신하는 경우, 제어부(180)는 상기 제1 객체 프로그레스 바(31)에 대응하는 제1 객체(OB1)를 포함하는 프레임을 동영상 콘텐츠 재생 중 삭제하고 재생하도록 제어할 수 있다.Referring to FIG. 31, when receiving a long touch input for the first object progress bar 31, a superimposing symbol (C) may be displayed at the upper end of the first object progress bar 31. When receiving the input for moving the first object progress bar 31 to the opposite sign C, the controller 180 determines whether or not the first object OB1 corresponding to the first object progress bar 31, To be deleted and reproduced during playback of the moving image content.

또한, 도 30 내지 도 31에 도시된 바와 같이, 객체 프로그레스 바를 통해 소정의 객체를 포함하는 프레임을 동영상 콘텐츠에서 제거하는 경우, 이를 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바에 반영할 수 있다.
Also, as shown in FIGS. 30 to 31, when a frame including a predetermined object is removed from the moving image content through the object progress bar, it may be reflected in the main progress bar for controlling the playback of the moving image content .

도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.

일 실시예에 의하면, 제어부(180)는 객체 프로그레스 바를 저장할 수 있다.According to one embodiment, the control unit 180 may store an object progress bar.

도 32를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)와 중첩시키는 입력을 수신하고, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되는 경우, 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 적어도 하나의 프레임에 대응하는 새로운 객체 프로그레스 바를 저장할지 여부를 질의하는 질의창(210)을 터치 스크린(151)에 표시할 수 있다.32, an input for superimposing a first object progress bar 31 on a second object progress bar 32 is received and a first object progress bar 31 and a second object progress bar 32 are overlapped, touches the query window 210 inquiring whether to store a new object progress bar corresponding to at least one frame including the first object OB1 and / or the second object OB2 And can be displayed on the screen 151.

그리고, 제어부(180)는, 이동 단말기(100)의 내부에 저장된 동영상 콘텐츠의 목록을 제공할 수 있다. 상기 동영상 콘텐츠의 목록 중 제1 동영상 콘텐츠(211)를 포함하고, 상기 제1 동영상 콘텐츠(211)를 재생하는 중 제1 객체(OB1)와 제2 객체(OB2)를 모두 포함하는 프레임만을 추출하여 보여줄 수 있는 새로운 객체 프로그레스 바(222)를 동영상 콘텐츠의 목록에 포함하여 디스플레이할 수 있다.The control unit 180 may provide a list of video contents stored in the mobile terminal 100. And extracts only frames including both the first object OB1 and the second object OB2 during reproduction of the first video content 211 including the first video content 211 of the list of the video contents A new object progress bar 222 that can be displayed can be displayed in the list of video contents.

여기서, 상기 동영상 콘텐츠의 목록은 동영상 콘텐츠의 재생 시간(212)을 포함할 수 있으며, 객체 프로그레스 바를 통해 재생될 수 있는 콘텐츠 재생 시간(223)을 함께 포함할 수 있다.
Here, the list of the moving picture contents may include a playing time 212 of the moving picture content, and may include a content playing time 223 that can be reproduced through the object progress bar.

상기에서 설명한 본 발명에 의한 이동 단말기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The above-described method of controlling a mobile terminal according to the present invention can be provided by being recorded in a computer-readable recording medium as a program for execution in a computer.

본 발명에 의한 이동 단말기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The control method of the mobile terminal according to the present invention can be executed through software. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording device include a ROM, a RAM, a CD-ROM, a DVD 占 ROM, a DVD-RAM, a magnetic tape, a floppy disk, a hard disk, The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings. In addition, the embodiments described in this document can be applied to not only the present invention, but also all or some of the embodiments may be selectively combined so that various modifications can be made.

100: 이동 단말기 151: 터치 스크린
180: 제어부
100: mobile terminal 151: touch screen
180:

Claims (21)

동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및
상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 인식된 특정 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱하여 생성한 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;
를 포함하고,
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함하고,
상기 제어부는, 상기 적어도 둘 이상의 객체 중 제1 객체에 대응하여 생성된 제2 바를 상기 적어도 둘 이상의 객체 중 제2 객체에 대응하여 생성된 제2 바로 이동시키는 입력이 수신되는 경우, 상기 제1 객체 또는 상기 제2 객체를 포함하는 프레임들에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시하는 것을 특징으로 하는 이동 단말기.
A touch screen for displaying a playback screen of the video content and a first bar for controlling playback of the video content; And
The playback control unit stops playback of the moving image content as the input for stopping the playback of the moving image content is received and recognizes a specific object included in the screen on which the playback is interrupted, A second bar generated by indexing at least one frame including a plurality of frames in a playback order on the touch screen;
Lt; / RTI >
Wherein the recognized specific object includes at least two objects,
Wherein when the input for moving the second bar created corresponding to the second object among the at least two objects is received, the control unit controls the second object, which is generated in correspondence with the first object among the at least two objects, Or a user interface for generating a third bar corresponding to frames including the second object on the touch screen.
삭제delete 제 1 항에 있어서,
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하고,
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.
The method according to claim 1,
Wherein the first bar includes a progress icon indicating a current position in the moving picture content,
Wherein the second bar includes a progress icon indicating a current position in the moving image content, the frame including the specific object.
삭제delete 제 3 항에 있어서,
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 상기 제2 바를 따라 좌우 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.
The method of claim 3,
Wherein,
And displays a frame corresponding to the position of the touch input on the touch screen when receiving an input for moving a touch input to the progress bar of the second bar along the second bar in the left and right directions.
삭제delete 제 5 항에 있어서,
상기 제어부는,
상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경하는 이동 단말기.
6. The method of claim 5,
Wherein,
Wherein the frame changes the position of the progress icon included in the first bar for indicating the current position in the video content as the frame displayed on the touch screen is changed.
제 5 항에 있어서,
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시하는 이동 단말기.
6. The method of claim 5,
Wherein,
When the touch input to the progress bar of the second bar is released, recognizing at least one object included in the frame displayed on the touch screen and displaying a second bar corresponding to the recognized object on the touch screen terminal.
삭제delete 제 1 항에 있어서,
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함하는 이동 단말기.
The method according to claim 1,
Wherein the specific object includes at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
삭제delete 제 1 항에 있어서,
상기 사용자 인터페이스는,
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,
상기 제어부는,
상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정하는 이동 단말기.
The method according to claim 1,
Wherein the user interface comprises:
A first frame region including any one of the first object and the second object, a second frame region including the first object and the second object,
Wherein,
When receiving an input for moving a second bar corresponding to the first object to one of the first and second frame regions, a frame mapped to the third bar is changed according to the region in which the second bar is located A mobile terminal to set.
제 12 항에 있어서,
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.
13. The method of claim 12,
When a second bar corresponding to the first object is located in the first frame area,
Wherein the generated third bar corresponds to a frame including any one of the first object and the second object among the moving image contents.
제 12 항에 있어서,
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.
13. The method of claim 12,
When a second bar corresponding to the first object is located in the second frame area,
Wherein the generated third bar corresponds to a frame including the first object and the second object among the moving image contents.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거하는 이동 단말기.
The method according to claim 1,
And removes a frame including an object corresponding to the second bar from the video content when receiving a touch input that causes the second bar to deviate from the touch screen.
삭제delete 삭제delete 삭제delete
KR1020120083045A 2012-07-23 2012-07-30 Mobile terminal and method for controlling of the same KR101909140B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120083045A KR101909140B1 (en) 2012-07-30 2012-07-30 Mobile terminal and method for controlling of the same
EP13176431.8A EP2690879B1 (en) 2012-07-23 2013-07-15 Mobile terminal and method for controlling of the same
US13/947,318 US9710136B2 (en) 2012-07-23 2013-07-22 Mobile terminal having video playback and method for controlling of the same
CN201310311468.8A CN103577063B (en) 2012-07-23 2013-07-23 Mobile terminal and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120083045A KR101909140B1 (en) 2012-07-30 2012-07-30 Mobile terminal and method for controlling of the same

Publications (2)

Publication Number Publication Date
KR20140016497A KR20140016497A (en) 2014-02-10
KR101909140B1 true KR101909140B1 (en) 2018-10-17

Family

ID=50265468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120083045A KR101909140B1 (en) 2012-07-23 2012-07-30 Mobile terminal and method for controlling of the same

Country Status (1)

Country Link
KR (1) KR101909140B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150296250A1 (en) * 2014-04-10 2015-10-15 Google Inc. Methods, systems, and media for presenting commerce information relating to video content
KR101580944B1 (en) * 2014-06-11 2015-12-31 (주)피엑스디 Video play apparatus with search bar including event image and non-event image and operation method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681043B1 (en) 1999-08-16 2004-01-20 University Of Washington Interactive video object processing environment which visually distinguishes segmented video object
US20110249861A1 (en) 2010-04-13 2011-10-13 Sony Ericsson Mobile Communications Japan, Inc. Content information processing device, content information processing method, content information processing program, and personal digital assistant

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681043B1 (en) 1999-08-16 2004-01-20 University Of Washington Interactive video object processing environment which visually distinguishes segmented video object
US20110249861A1 (en) 2010-04-13 2011-10-13 Sony Ericsson Mobile Communications Japan, Inc. Content information processing device, content information processing method, content information processing program, and personal digital assistant

Also Published As

Publication number Publication date
KR20140016497A (en) 2014-02-10

Similar Documents

Publication Publication Date Title
KR101935039B1 (en) Mobile terminal and method for controlling of the same
US9710136B2 (en) Mobile terminal having video playback and method for controlling of the same
KR101976178B1 (en) Mobile terminal and method for controlling of the same
US9294611B2 (en) Mobile terminal, electronic system and method of transmitting and receiving data using the same
KR101978216B1 (en) Mobile terminal and method for controlling thereof
KR101562588B1 (en) Information providing apparatus and method thereof
KR101860342B1 (en) Mobile terminal and control method therof
KR101651926B1 (en) Mobile terminal and control method thereof
KR20140045060A (en) Mobile terminal and method for controlling thereof
KR20140055361A (en) Mobile terminal and method for controlling of the same
KR20140100727A (en) Electronic Device And Method Of Controlling The Same
KR20150060392A (en) Mobile terminal and method for controlling of the same
KR20140091236A (en) Electronic Device And Method Of Controlling The Same
KR101882277B1 (en) Mobile terminal and method for controlling thereof
KR20140018639A (en) Mobile terminal and control method thereof
KR101875744B1 (en) Electonic device and method for controlling of the same
KR101919790B1 (en) Image display device and method for controlling thereof
KR101779001B1 (en) Mobile terminal and control method therof
KR101882276B1 (en) Mobile terminal and method for controlling thereof
KR101785657B1 (en) Mobile terminal and Method for searching video using metadata thereof
KR101987463B1 (en) Mobile terminal and method for controlling of the same
KR101909140B1 (en) Mobile terminal and method for controlling of the same
KR101964461B1 (en) Mobile terminal and method for controlling of the same
KR20130006777A (en) Mobile terminal and control method for mobile terminal
KR101709506B1 (en) Mobile terminal and editing method of augmented reality information using the mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant