KR20140016497A - Mobile terminal and method for controlling of the same - Google Patents

Mobile terminal and method for controlling of the same Download PDF

Info

Publication number
KR20140016497A
KR20140016497A KR1020120083045A KR20120083045A KR20140016497A KR 20140016497 A KR20140016497 A KR 20140016497A KR 1020120083045 A KR1020120083045 A KR 1020120083045A KR 20120083045 A KR20120083045 A KR 20120083045A KR 20140016497 A KR20140016497 A KR 20140016497A
Authority
KR
South Korea
Prior art keywords
bar
video content
frame
touch screen
playback
Prior art date
Application number
KR1020120083045A
Other languages
Korean (ko)
Other versions
KR101909140B1 (en
Inventor
노형석
전태영
나성채
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120083045A priority Critical patent/KR101909140B1/en
Priority to EP13176431.8A priority patent/EP2690879B1/en
Priority to US13/947,318 priority patent/US9710136B2/en
Priority to CN201310311468.8A priority patent/CN103577063B/en
Publication of KR20140016497A publication Critical patent/KR20140016497A/en
Application granted granted Critical
Publication of KR101909140B1 publication Critical patent/KR101909140B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A mobile terminal is disclosed. The mobile terminal recognizes one or more subjects from video content including one or more subjects and displays a subject progress bar independently controlling a frame including the recognized subject. The subject progress bar is controlled in a predetermined pattern so that the frame including the subject corresponding to the subject progress bar among the whole frames of the video content can be easily edited and stored. [Reference numerals] (AA) Start; (S110) Play video content; (S120) Display a first bar to control the playing of the video content; (S130) Stop the playing; (S140) Recognize at least one object; (S150) Display a second bar related to a frame including the recognized object

Description

이동 단말기 및 이동 단말기의 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING OF THE SAME}TECHNICAL FIELD [0001] The present invention relates to a mobile terminal and a control method of the mobile terminal,

본 발명은 동영상에 포함된 객체(object)를 이용하여 동영상의 재생을 제어하기 위한 사용자 인터페이스를 제공하는 이동 단말기 및 이동 단말기의 제어 방법에 관한 것이다.The present invention relates to a mobile terminal and a method for controlling the mobile terminal that provide a user interface for controlling playback of a video using an object included in the video.

이동 단말기를 포함한 각종 전자 기기와 관련된 하드웨어 기술 및 소프트웨어 기술이 비약적으로 발전함에 따라, 전자 기기는 매우 다양한 기능들과 정보들을 제공하거나 저장할 수 있게 되었다. 이에 따라 전자 기기에 구비된 화면에는 이와 같이 다양한 정보들을 제공하게 되었다.BACKGROUND OF THE INVENTION As hardware and software technologies related to various electronic apparatuses including a mobile terminal have developed remarkably, electronic apparatuses can provide or store a wide variety of functions and information. Accordingly, various kinds of information are provided on the screen provided in the electronic device.

또한 터치스크린을 구비하는 이동 단말기의 경우, 사용자의 터치 조작만으로 터치스크린에 제공되는 다양한 정보들에 대해 억세스할 수 있다.In addition, in the case of a mobile terminal having a touch screen, various information provided on the touch screen can be accessed only by a user's touch operation.

최근, 상기 전자 기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치 스크린을 구비하는 이동 단말기에서 동영상을 재생하는 중에 동영상을 제어하려면, 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작하는 것이 일반적이다.Recently, the electronic devices provide a function of easily playing and watching a video anytime and anywhere. However, in order to control a video while playing a video on a mobile terminal having a touch screen, it is common to operate while the corresponding menu or icon is displayed on the screen.

특히, 상기 동영상에서 특정 프레임만을 선별하여 감상하고자 하는 경우, 상기 동영상 프레임 전체에서 원하는 프레임을 직접 검색하는 과정을 거쳐야 하는 불편함이 있다.In particular, when only a specific frame is selected and enjoyed in the video, it is inconvenient to go through a process of directly searching for a desired frame in the entire video frame.

이에 따라, 재생 중인 동영상을 보다 직관적으로 제어할 수 있는 사용자 인터페이스의 개발이 필요한 실정이다.Accordingly, it is necessary to develop a user interface that can more intuitively control the video being played.

본 발명이 해결하고자 하는 과제는, 동영상 콘텐츠에서 보다 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있는 이동 단말기 및 이동 단말기의 제어 방법을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a mobile terminal and a method of controlling the mobile terminal capable of selecting and viewing a frame including a specific object through a more intuitive user interface in video content.

특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바 또는 스크롤 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.In particular, by recognizing a predetermined object in the video content, creating a progress bar or scroll bar unique to the recognized object, and using a simple user manipulation of the progress bar or scroll bar unique to the object, a frame containing the object desired by the user is created. It is to provide a mobile terminal and a mobile terminal that can be selectively provided.

또한, 본 발명의 일 실시예에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.
In addition, according to an embodiment of the present invention, in a video content including at least one object, to provide a mobile terminal and a mobile terminal that can more easily edit the frame of the video content based on the recognized object will be.

본 발명의 일 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to an aspect of the present invention, there is provided a mobile terminal including: a touch screen displaying a playback screen of video content and a first bar for controlling playback of the video content; And stopping playback of the video content when an input for stopping playback of the video content is received, recognizing a specific object included in the screen where the playback is stopped, and including the specific object among all frames of the video content. And a controller configured to display a second bar associated with at least one frame on the touch screen.

상기 제2 바는, 상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함할 수 있다.The second bar may include a bar in which a plurality of frames including the specific object are grouped and indexed according to a playback order.

상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The first bar may include a progress icon indicating a current position in the video content.

상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The second bar may include a progress icon indicating that a frame including the specific object indicates a current position in the video content.

상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.When the controller receives an input for moving the touch input to the progress icon of the second bar in a predetermined direction, the controller may display a frame corresponding to the position of the touch input on the touch screen.

상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동할 수 있다.The predetermined direction may move in a left and right direction along the second bar.

상기 제어부는, 상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경할 수 있다.As the frame displayed on the touch screen is changed, the controller may change the position of the progress icon included in the first bar indicating the current position in the video content.

상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시할 수 있다.When the touch input of the progress icon of the second bar is released, the controller recognizes at least one object included in a frame displayed on the touch screen, and displays the second bar corresponding to the recognized object on the touch screen. Can be marked on.

상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함할 수 있다.The predetermined input may include an input for a playback stop icon displayed in the first bar or a voice command for stopping playback of moving image content.

상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다.The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.

상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함할 수 있고, 이 때,상기 제어부는, 제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시할 수 있다.The recognized specific object may include at least two or more objects, wherein the controller moves the second bar corresponding to the first object to a second bar corresponding to the second object so that at least two or more second bars are mutually different. When overlapping, a user interface for generating a third bar corresponding to a new frame set generated by synthesizing the first object and the second object may be displayed on the touch screen.

상기 사용자 인터페이스는,Wherein the user interface comprises:

상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,A first frame area including one of the first object and the second object, and a second frame area including the first object and the second object,

상기 제어부는, 상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정할 수 있다.When the controller receives an input for moving a second bar corresponding to the first object to any one of the first to second frame areas, the controller maps the second bar to a third bar according to an area where the second bar is located. You can set different frames.

상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우, 상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응될 수 있다.When the second bar corresponding to the first object is located in the first frame area, the generated third bar may be in a frame including any one of the first object and the second object of the video content. Can correspond.

상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,When the second bar corresponding to the first object is located in the second frame area,

상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응될 수 있다.The generated third bar may correspond to a frame including the first object and the second object of the video content.

상기 제어부는, 상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경할 수 있다.When the second bar corresponding to the first object enters any one of the first frame area and the second frame area, the controller may display display characteristics of the frame area in which the second bar enters the user interface. You can change it.

상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함할 수 있다.The third bar may include identification information for distinguishing a form in which the first object and the second object are synthesized.

상기 제어부는, 상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시할 수 있다.The controller may modify and display the display characteristics of the first bar so that the frame section corresponding to the third bar among the frames corresponding to the first bar is distinguished from other frame sections.

상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거할 수 있다.When receiving a touch input for moving the second bar away from the touch screen, a frame including an object corresponding to the second bar may be removed from the video content.

상기 제어부는, 상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시할 수 있다.The controller may display identification information for identifying that the frame including the object corresponding to the second bar has been removed from the video content on the touch screen.

본 발명의 다른 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바(progress bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, a mobile terminal includes: a touch screen displaying a playback screen of video content and a progress bar for controlling playback of the video content; And a bar generated by recognizing at least one object and indexing at least one frame including the recognized object in a playback order when the playback of the video content is stopped. And a controller to display on the touch screen in association with at least one object.

상기 제어부는, 상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.When the controller receives an input for selecting a specific point of the bar, the controller may display a frame corresponding to the specific point among the grouped frames on the touch screen.

본 발명의 또 다른 면에 따른 이동 단말기의 제어 방법은, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 상기 터치 스크린에 표시하는 단계; 상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계; 상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계; 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;를 포함할 수 있다.According to still another aspect of the present invention, there is provided a method of controlling a mobile terminal, the method including: displaying a playback screen of video content and a first bar for controlling playback of the video content on the touch screen; Receiving a predetermined input to the touch screen; Stopping playback of the video content in response to the predetermined input; Recognizing a specific object included in the screen on which playback is stopped; And displaying a second bar on the touch screen to control at least one frame including the specific object among the entire frames of the video content independently of the video content. have.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명의 일 실시예에 따른 이동 단말기 및 이동 단말기의 제어 방법은 다음과 같은 효과가 있다.The control method of the mobile terminal and the mobile terminal according to an embodiment of the present invention has the following effects.

본 발명에 의하면, 동영상 콘텐츠에서 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있다.According to the present invention, a frame including a specific object can be selected and viewed through an intuitive user interface in the video content.

특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있다.In particular, a predetermined object is recognized in the video content, a progress bar unique to the recognized object is generated, and a frame including an object desired by the user is provided by selection of a user's desired progress bar or scroll bar by simple user manipulation. can do.

또한, 본 발명에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있다.In addition, according to the present invention, in the video content including at least one object, the frame of the video content can be easily edited based on the recognized object.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention.
3 to 5 are diagrams for describing a method for controlling a mobile terminal according to a first embodiment of the present invention.
6 is a flowchart of a method of controlling a mobile terminal according to a second embodiment of the present invention.
7 to 10 are diagrams for describing a method for controlling a mobile terminal according to a second embodiment of the present invention.
11 is a flowchart of a control method of a mobile terminal according to a third embodiment of the present invention.
12 to 14 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.
15 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention in more detail.
16 to 20 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.
21 is a flowchart of a control method of a mobile terminal according to a fourth embodiment of the present invention.
22 to 28 are diagrams for describing a method for controlling a mobile terminal according to a fourth embodiment of the present invention.
29 is a flowchart of a control method of a mobile terminal according to a fifth embodiment of the present invention.
30 to 31 are diagrams for describing a method for controlling a mobile terminal according to a fifth embodiment of the present invention.
32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Like numbers refer to like elements throughout. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 더욱 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서고 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and "part" for constituent elements used in the following description are given or mixed in consideration only of ease of specification, and do not have their own standing or distinguishing meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말기 등이 포함될 수 있다.
The mobile terminal described in this specification may include a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation terminal and the like.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory unit 160, An interface unit 170, a control unit 180, a power supply unit 190, and the like. The components shown in Fig. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 receives broadcasting signals using various broadcasting systems. In particular, the broadcasting receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) Only Digital Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory unit 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile terminal 100 or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like can be used as the short distance communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The location information module 115 is a module for confirming or obtaining the location of the mobile terminal. A typical example of the location information module is a GPS (Global Position System) module. According to the current technology, the GPS module 115 calculates information on a distance (distance) from three or more satellites to one point (entity), information on the time when the distance information is measured, , Three-dimensional position information according to latitude, longitude, and altitude of one point (individual) in one hour can be calculated. Further, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module 115 continues to calculate the current position in real time and uses it to calculate speed information.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory unit 160 or may be transmitted to the outside through the wireless communication unit 110. [ The camera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it may be responsible for a sensing function related to whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154, for example, for generating output related to visual, auditory, have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This may be referred to as a transparent display. A typical example of the transparent display is a transparent LCD or the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The display unit 151 is connected to a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') having a mutual layer structure It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory unit 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 outputs an acoustic signal related to a function (e.g., a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like. Also, the sound output module 152 may output sound through the earphone jack 116. The user can connect the earphone to the earphone jack 116 to hear the sound output.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may also be output through the display unit 151 or the audio output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may be configured to perform various functions such as an effect of stimulation by a pin arrangement vertically moving with respect to a contact skin surface, an effect of stimulation by air spraying force or suction force through a jet opening or a suction opening, A variety of tactile effects such as an effect of stimulation through contact of an electrode, an effect of stimulation by an electrostatic force, and an effect of reproducing a cold sensation using a heat absorbing or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to feel the tactile effect through the muscles of the user's finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the portable terminal 100.

메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory unit 160 may store data related to vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or receives power from the external device to transfer the data to each component in the mobile terminal 100 or to transmit data in the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the control unit 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the memory unit 160 and executed by the controller 180.

이하 본 발명의 실시예들을 설명하기로 한다.Hereinafter, embodiments of the present invention will be described.

본 발명에서는 설명의 편의를 위해 상기 디스플레이부(151)를 터치스크린(151)으로 가정한다. 전술한 바와 같이, 상기 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다. 또한 본 문서에서 언급되는 터치는, 접촉 터치와 근접 터치를 모두 포함할 수 있다.In the present invention, for convenience of description, it is assumed that the display unit 151 is a touch screen 151. As described above, the touch screen 151 may perform both an information display function and an information input function. However, it should be clear that the present invention is not limited thereto. In addition, the touch mentioned in the present document may include both a touch touch and a proximity touch.

한편, 본 발명의 실시예에 따르면, 동영상 클립들을 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스는 예컨대, 사용자가 사용자인터페이스에서 동영상 클립을 업로딩함으로써, 동영상을 감상, 편집 또는 그외의 처리를 할 수 있는 컴퓨터 시스템에 설치된 동영상 편집 소프트웨어 애플리케이션에 의해 제공될 수 있다. 동영상 클립은, 동영상 편집 소프트웨어 애플리케이션이 설치된 컴퓨터 시스템에 저장된 동영상 파일 또는 상기 컴퓨터 시스템에서 동작 가능하도록 결합되는 소정의 저장 장치에 저장된 동영상 파일을 포함할 수 있다. 또한 상기 동영상 파일은 동영상 파일 전체 또는 상기 동영상 파일의 일부를 포함할 수 있다.
Meanwhile, according to an embodiment of the present invention, a user interface for editing video clips may be provided. The user interface may be provided by a video editing software application installed in a computer system that allows a user to view, edit, or otherwise process a video by, for example, uploading a video clip at the user interface. The video clip may include a video file stored in a computer system on which a video editing software application is installed or a video file stored in a predetermined storage device operatively coupled to the computer system. In addition, the video file may include the entire video file or a part of the video file.

도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다. 상기 제어 방법은 도 1에서 설명한 이동 단말기(100)의 제어부(180)의 제어하에 구현될 수 있다.2 is a flowchart illustrating a control method of a mobile terminal according to the first embodiment of the present invention, and FIGS. 3 to 5 are diagrams for describing a control method of the mobile terminal according to the first embodiment of the present invention. The control method may be implemented under the control of the control unit 180 of the mobile terminal 100 illustrated in FIG.

도 2를 참조하면, 이동 단말기(100)의 제어부(180)는 동영상 콘텐츠를 재생할 수 있다(S110).Referring to FIG. 2, the controller 180 of the mobile terminal 100 may play video content (S110).

상기 동영상(moving picture) 콘텐츠는 이동 단말기(100)의 메모리(160)에 저장되어 있는 파일 혹은 외부 서버로부터 스트리밍되어 제공되는 영상 파일을 포함할 수 있다.The moving picture content may include a file stored in the memory 160 of the mobile terminal 100 or an image file streamed from an external server.

상기 동영상 콘텐츠는 다양한 형식으로 제공될 수 있다. 예를 들어, MPEG(Moving Picture Expert Group), MOCV(Quic Time Movie), RealVideo, Avi 등의 형식으로 제공될 수 있다.The video content may be provided in various formats. For example, it may be provided in a format of Moving Picture Expert Group (MPEG), Quick Time Movie (MOCV), RealVideo, Avi, or the like.

상기 동영상 콘텐츠는, 영화, 드라마 등의 영상 콘텐츠, 단순 뮤직 콘텐츠가 영상과 함께 표시되는 뮤직 콘텐츠를 포함할 수 있다.The video content may include video content such as a movie or drama and music content in which simple music content is displayed together with the video.

상기 동영상 콘텐츠가 재생되면, 제어부(180)는 상기 동영상 콘텐츠의 재생 화면을 터치 스크린(151)에 표시할 수 있다.When the video content is played, the controller 180 can display a playback screen of the video content on the touch screen 151.

한편, 제어부(180)는 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar)를 상기 동영상 콘텐츠의 재생 화면에 표시할 수 있다(S120).Meanwhile, the controller 180 may display a first bar for controlling playback of the video content on the playback screen of the video content (S120).

상기 제1 바는, 동영상 콘텐츠의 재생(playback)을 제어하기 위한 GUI(Graphic User Interface)로서, 바(bar) 형태로 표현될 수 있다. 상기 제1 바는, 현재 재생되고 있는 동영상 콘텐츠에 대한 위치 정보를 제공하는 기능을 가지므로 프로그레스 바(progress bar)로 호칭한다. The first bar is a graphical user interface (GUI) for controlling playback of video content and may be represented in a bar form. The first bar is called a progress bar because it has a function of providing location information on video content currently being played.

즉, 프로그레스 바는 사용자의 재생 명령에 의해 재생되는 연속된 콘텐츠의 전체 지점 중 현재 재생되는 지점에 대한 위치 정보를 사용자에게 제공한다. 이러한 위치 정보는 프로그레스 바의 다른 부분과 구별되도록 표시되어 사용자에게 제공될 수 있다. 예를 들어, 상기 현재 재생되는 지점에 재생 헤더(playing header)를 위치시키고, 상기 프로그레스 바의 전체 구간 중 상기 재생 헤더의 상대적인 위치에 따라 동영상 콘텐츠의 현재 재생 위치 정보를 식별할 수 있다.That is, the progress bar provides the user with location information on the current playback point among all the points of the continuous content played back by the user's playback command. Such location information may be marked and provided to the user to distinguish it from other parts of the progress bar. For example, a playing header may be located at the current playing point, and the current playing position information of the video content may be identified according to the relative position of the playing header among the entire sections of the progress bar.

한편, 상기 프로그레스 바는 동영상 콘텐츠의 재생(Playback), 중지(Pause), 빨리 감기(Fast Forward), 빨리 되 감기(Fast Rewind) 기능 등 적어도 하나의 기능에 각각 대응하는 적어도 하나의 소프트 버튼을 포함할 수 있다. 이동 단말기(100)는, 상기 적어도 하나의 소프트 버튼에 대한 입력을 통해 상기 동영상 콘텐츠의 재생을 제어할 수 있다.Meanwhile, the progress bar may include at least one soft button corresponding to at least one function such as a playback, pause, fast forward, and fast rewind function of the video content. It may include. The mobile terminal 100 may control playback of the video content through an input to the at least one soft button.

한편, 이동 단말기(100)는 상기 동영상 콘텐츠의 재생 화면이 터치 스크린(151)에 표시되는 중 상기 터치 스크린(151)에 대한 터치 입력이 수신되면 상기 프로그레스 바를 터치 스크린(151)의 일 영역에 표시할 수 있다.Meanwhile, when the touch input for the touch screen 151 is received while the play screen of the video content is displayed on the touch screen 151, the mobile terminal 100 moves the progress bar to a region of the touch screen 151. I can display it.

제어부(180)는 동영상 콘텐츠의 재생 화면이 표시되는 터치 스크린(151)의 미리 정해진 영역에 대하여 미리 정해진 입력을 수신하는 경우, 상기 동영상 콘텐츠의 재생을 중단시킬 수 있다(S130).When the controller 180 receives a predetermined input with respect to the predetermined area of the touch screen 151 on which the playback screen of the video content is displayed, the controller 180 may stop the playback of the video content (S130).

예를 들어, 상기 미리 정해진 영역은 프로그레스 바에 포함된 중지(Pause) 버튼을 포함할 수 있다. 상기 중지 버튼에 대한 입력이 수신되면, 제어부(180)는, 콘텐츠 재생이 중단된 상태의 화면(프레임이라 호칭할 수 있음)을 터치 스크린(151)에 표시할 수 있다.For example, the predetermined area may include a pause button included in a progress bar. When an input for the stop button is received, the controller 180 may display a screen (named a frame) in a state where content playback is stopped on the touch screen 151.

제어부(180)는 상기 동영상 콘텐츠의 재생이 중단된 상태에서 화면 속에 포함되어 있는 적어도 하나의 객체를 인식할 수 있다(S140).The controller 180 may recognize at least one object included in the screen while the playback of the video content is stopped (S140).

여기서, 상기 동영상 콘텐츠의 재생을 중단시키기 위한 입력은 상기 프로그레스 바에 포함된 중지(pause) 버튼에 대한 롱 터치 입력을 포함할 수 있다. 상기 버튼에 대한 롱 터치 입력이 수신됨에 따라 제어부(180)는 현재 재생 중인 프레임에 포함된 적어도 하나의 객체를 인식하기 위한 객체 인식 모드에 진입할 수 있다.Here, the input for stopping the playback of the video content may include a long touch input for a pause button included in the progress bar. As the long touch input to the button is received, the controller 180 may enter an object recognition mode for recognizing at least one object included in a frame currently being played.

한편, 상기 프로그레스 바에 포함된 중지(pause) 버튼을 단순 선택하기 위한 입력이 수신되는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 중지시키는 동작만 수행되도록 제어할 수 있다.Meanwhile, when an input for simply selecting a pause button included in the progress bar is received, the controller 180 may control only the operation of stopping the video content currently being played is performed.

상기 동영상 콘텐츠는 적어도 하나의 객체(object)를 포함할 수 있다. 상기 객체는 사람, 인물이 아닌 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다. 한편, 상기 동영상 콘텐츠의 재생이 중단된 상태에서 인식될 객체는 미리 설정되어 있을 수 있다.The video content may include at least one object. The object may include at least one of a person, an object other than a person, a background included in the video content, and at least one object included in the background. Meanwhile, the object to be recognized while the playback of the video content is stopped may be set in advance.

예를 들어, 동영상 콘텐츠가 제작될 때, 적어도 하나의 특정 객체에 대한 정보를 포함할 수 있다. 상기 특정 객체에 대한 정보는 상기 객체가 인물인 경우, 상기 동영상 콘텐츠에 등장하는 인물을 인식하기 위한 기준 객체(인물) 정보를 데이터 베이스에 저장하고, 동영상 콘텐츠의 재생이 중단된 화면에서 인식된 객체(인물)가 상기 데이터 베이스에 저장된 객체(인물) 정보와 동일한지를 판단한다. 그런 후, 동일한 객체(인물)정보가 존재하는 경우, 객체(인물) 인식 결과를 사용자에게 알려줄 수 있다.For example, when the video content is produced, it may include information on at least one specific object. The information on the specific object is, when the object is a person, the reference object (person) information for recognizing a person appearing in the video content is stored in the database, the object recognized on the screen where the playback of the video content is stopped It is determined whether the (person) is the same as the object (person) information stored in the database. Thereafter, when the same object (person) information exists, the user may be informed of the object (person) recognition result.

제어부(180)는 상기 재생이 중단된 화면에서 인식된 객체를 기준으로, 상기 동영상 콘텐츠에서 상기 인식된 객체를 포함하는 프레임과 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다(S150).The controller 180 may display a second bar associated with a frame including the recognized object in the video content on the touch screen 151 based on the object recognized on the screen where the playback is stopped. It may be (S150).

여기서, 상기 제2 바(a second bar)는 바(bar) 형태로서, 상기 동영상 콘텐츠에 포함된 프레임 중 상기 인식된 객체를 포함하는 프레임을 그룹화되어 인덱싱(indexing)된 상태 바(status bar) 혹은 스크롤 바(scroll bar)를 포함할 수 있다.Here, the second bar has a bar shape, and is a status bar grouped and indexed by a frame including the recognized object among frames included in the video content. It may include a scroll bar.

또한, 상기 제2 바는, 프로그레스 바(progress bar)로서, 상기 프로그레스 바에 대하여 소정의 방향으로 터치 앤 드래그 입력이 입력되는 경우, 상기 터치 앤 드래그 입력에 의해 인지되는 상기 프로그레스 바 상의 특정 지점에 대응하는 프레임을 터치 스크린(151)에 표시할 수 있다. 상기 프레임은 상기 터치 스크린(151)의 전면에 표시될 수 있다.In addition, the second bar is a progress bar. When a touch and drag input is input in a predetermined direction with respect to the progress bar, the second bar is a specific bar on the progress bar recognized by the touch and drag input. The frame corresponding to the point may be displayed on the touch screen 151. The frame may be displayed on the front of the touch screen 151.

즉, 상기 제2 바의 특정 지점은, 상기 특정 객체를 포함하는 하나의 프레임과 연관되어 있다. 따라서, 상기 제2 바의 제1 특정 지점은 상기 특정 객체를 포함하는 제1 프레임과 연관되고, 상기 제2 바의 제2 특정 지점은 상기 특정 객체를 포함하는 제2 프레임과 연관되고, 상기 제2 바의 제N 특정 지점은 상기 특정 객체를 포함하는 제N 프레임과 연관될 수 있다.That is, the specific point of the second bar is associated with one frame containing the specific object. Thus, the first specific point of the second bar is associated with a first frame that includes the specific object, the second specific point of the second bar is associated with a second frame that includes the specific object, The Nth specific point of the two bars may be associated with the Nth frame including the specific object.

이하, 도 3 내지 도 5를 참조하여, 재생중인 동영상 콘텐츠가 일시 정지되었을 때, 상기 동영상 콘텐츠에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시하는 과정을 보다 상세하게 설명한다.3 to 5, when the video content being played is paused, at least one object included in the video content is recognized and a second bar associated with the recognized object is touched. The process of displaying on the screen 151 will be described in more detail.

도 3은 도 2의 S110 내지 S120 을 설명하기 위한 동영상 콘텐츠 재생 화면의 예이다.3 is an example of a video content reproduction screen for explaining S110 to S120 of FIG. 2.

도 3을 참조하면, 제어부(180)는 동영상 콘텐츠의 재생 화면(C)을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 동영상 콘텐츠의 재생 화면(C)에 대하여 미리 정해진 입력(예를 들어, 상기 재생 화면에 대한 터치 입력)을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar: 프로그레스 바)(20)를 상기 동영상 콘텐츠의 재생 화면(C)의 일 영역에 표시할 수 있다. 여기서, 설명의 편의를 위하여 상기 제1 바를 제2 프로그레스 바로 호칭하기로 한다.Referring to FIG. 3, the controller 180 may display a playback screen C of the video content on the touch screen 151. In addition, when receiving a predetermined input (for example, a touch input to the playback screen) with respect to the playback screen C of the video content, the controller 180 is configured to control playback of the video content. A first bar 20 may be displayed on one region of the playback screen C of the video content. For convenience of description, the first bar will be referred to as a second progress bar.

제1 프로그레스 바(20)는 현재 재생되는 동영상 콘텐츠의 프레임이 전체 프레임 중 어느 위치에 해당되는지를 지시하는 프로그레스 아이콘(30)을 포함할 수 있다.The first progress bar 20 may include a progress icon 30 indicating which position of the entire frame corresponds to the frame of the video content currently being played.

그리고, 제어부(180)는 상기 제1 프로그레스 바(200)와는 별도로 콘텐츠의 재생 버튼(11), Fast Rewind(FR) 버튼(12), Fast Forward(FF) 버튼(13)을 포함함으로써, 동영상 콘텐츠의 재생을 제어하기 위한 추가적인 제어 영역(10)을 터치 스크린(151)에 표시할 수 있다.In addition, the controller 180 includes a play button 11, a fast rewind (FR) button 12, and a fast forward (FF) button 13 of a content separately from the first progress bar 200, thereby providing a video. The additional control area 10 for controlling the playback of the content may be displayed on the touch screen 151.

도 4를 참조하면, 상기 제어 영역(10)에서 상기 재생 버튼(11)을 롱 터치하는 입력을 수신하는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 일시적으로 정지시키고, 정지된 동영상 콘텐츠의 프레임(C(f1))을 터치 스크린(151)에 표시한다.Referring to FIG. 4, when receiving an input of long touching the play button 11 in the control area 10, the controller 180 temporarily stops the currently playing video content and stops the currently playing video content. The frame C (f1) is displayed on the touch screen 151.

제어부(180)는, 상기 롱 터치 입력이 수신됨에 따라 객체 인식 동작을 즉시 수행할 수 있다. 또한, 제어부(180)는 상기 재생 버튼(11)을 선택하여 동영상 콘텐츠를 일시적으로 정지시킨 후, 상기 동영상 콘텐츠를 표시하는 터치 스크린(151) 또는 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바에 대한 롱 터치 입력을 수신하는 경우, 객체 인식 동작을 수행할 수 있다.The controller 180 may immediately perform an object recognition operation as the long touch input is received. In addition, the controller 180 temporarily stops the video content by selecting the play button 11, and then the touch screen 151 displaying the video content or a progress bar for controlling the playback of the video content. When receiving the long touch input, an object recognition operation may be performed.

그리고, 제어부(180)는, 상기 동영상 콘텐츠의 프레임(C(f1))에서 적어도 하나의 객체(OB1,OB2,OB3,OB4)를 인식한다. 제어부(180)는 상기 객체(OB1,OB2,OB3,OB4)를 인식하기 위하여 적어도 하나의 객체 인식 알고리즘을 적용할 수 있으며, 이동 단말기(100)는, 상기 객체 인식 알고리즘 중 정지 영상에서 소정의 객체를 인식하기 위한 공지의 알고리즘을 사용할 수 있으며, 상기 객체 인식 알고리즘에 대한 상세한 설명은 생략하기로 한다.The controller 180 recognizes at least one object OB1, OB2, OB3, or OB4 in the frame C (f1) of the video content. The controller 180 may apply at least one object recognition algorithm to recognize the objects OB1, OB2, OB3, and OB4, and the mobile terminal 100 selects a predetermined object from a still image among the object recognition algorithms. A well-known algorithm for recognizing may be used, and a detailed description of the object recognition algorithm will be omitted.

제어부(180)는 상기 공지의 객체 인식 알고리즘을 이용하여 재생이 중지된 프레임(C(f1))에서 객체(OB1,OB2,OB3,OB4)를 인식하고, 상기 객체(OB1,OB2,OB3,OB4)의 외곽을 점선 폐곡선으로 구분함으로써, 인식된 객체를 식별할 수 있도록 동영상 콘텐츠의 정지 화면의 표시를 제어할 수 있다.The controller 180 recognizes the objects OB1, OB2, OB3, and OB4 in the frame C (f1) where playback is stopped using the known object recognition algorithm, and the objects OB1, OB2, OB3, and OB4. ) By dividing the outline into a dashed closed curve, it is possible to control the display of the still image of the video content to identify the recognized object.

도 5를 참조하면, 제어부(180)는, 인식된 객체(OB1,OB2,OB3,OB4)와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다. 상기 제2 바(a second bar)는 전술한 바와 같이, 프로그레스 바의 기능을 가지며, 특정 객체를 포함하는 프레임을 그룹화하여 재생 시간 순서에 따라 인덱싱한 상태 바(status bar)로서의 기능을 가질 수 있다. 설명의 편의를 위하여, 상기 제2 바(a second bar)를 객체 프로그레스 바(an object progress bar)로 호칭할 수 있다.Referring to FIG. 5, the controller 180 may display a second bar associated with the recognized objects OB1, OB2, OB3, and OB4 on the touch screen 151. As described above, the second bar may have a function of a progress bar, and may function as a status bar indexed according to a play time order by grouping frames including a specific object. have. For convenience of description, the second bar may be referred to as an object progress bar.

한편, 상기 객체 프로그레스 바는 전술한 제1 프로그레스 바(20)와 구분된다. 제1 프로그레스 바(20)는 동영상 콘텐츠 전체의 재생을 제어하기 위한 바(bar)이고, 상기 객체 프로그레스 바는 인식된 특정 객체를 포함하는 프레임을 독립적으로 제어하기 위한 바(bar)이다.Meanwhile, the object progress bar is distinguished from the first progress bar 20 described above. The first progress bar 20 is a bar for controlling playback of the entire video content, and the object progress bar is a bar for independently controlling a frame including a recognized specific object.

한편, 제어부(180)는 상기 객체 프로그레스 바와 함께, 인식된 객체를 식별할 수 있도록 인식된 객체의 식별 정보(예를 들어, 텍스트, 이미지 정보 포함)를 상기 터치 스크린(151)에 표시할 수 있다.Meanwhile, the controller 180 may display identification information (eg, text and image information) of the recognized object on the touch screen 151 together with the object progress bar to identify the recognized object. have.

상기 인식된 객체의 식별 정보는, 이동 단말기의 메모리(도 1의 160)에 저장된 동영상 콘텐츠의 메타 데이터를 통해 획득될 수 있다.Identification information of the recognized object may be obtained through metadata of video content stored in a memory (160 of FIG. 1) of the mobile terminal.

상기 인식된 객체의 식별 정보는, 특정 객체가 인식되었을 때, 인터넷 또는 외부 서버로부터 상기 특정 객체와 관련된 정보가 검색되어 터치 스크린(151)에 표시될 수 있다.The identification information of the recognized object may be displayed on the touch screen 151 by searching for information related to the specific object from the Internet or an external server when the specific object is recognized.

한편, 제어부(180)는 상기 인식된 객체의 식별 정보를 포함하는 음성 명령을 수신하고, 상기 음성 명령에 따른 제어 동작을 수행할 수 있다. 예를 들어, 상기 음성 명령은, 상기 인식된 객체들 중 제1 객체와 제2 객체를 합성하도록 하는 커맨드, 전체 동영상 콘텐츠에서 특정 객체를 포함하는 프레임이 삭제되도록 하는 커맨드 등을 포함할 수 있다.Meanwhile, the controller 180 may receive a voice command including identification information of the recognized object and perform a control operation according to the voice command. For example, the voice command may include a command to synthesize a first object and a second object among the recognized objects, a command to delete a frame including a specific object from the entire video content, and the like.

제어부(180)는 각 객체(OB1,OB2,OB3,OB4)에 대응하는 객체 프로그레스 바(31,32,33,34)를 객체(OB1,OB2,OB3,OB4) 근방에 각각 표시할 수 있다. 예를 들어, 제어부(180)는 인식된 제1 객체(OB1)를 포함하는 프레임들에 대응하는 제1 객체 프로그레스 바(31)를 제1 객체(OB1) 상부에 표시할 수 있다. 제어부(180)는 인식된 제2 객체(OB2)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(32)를 제2 객체(OB2) 상부에 표시하고, 인식된 제3 객체(OB3)를 포함하는 프레임들에 대응하는 제3 객체 프로그레스 바(33)를 제2 객체(OB3) 상부에 표시하고, 인식된 제4 객체(OB4)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(34)를 제2 객체(OB4) 상부에 표시할 수 있다.The controller 180 may display the object progress bars 31, 32, 33, and 34 corresponding to the objects OB1, OB2, OB3, and OB4 in the vicinity of the objects OB1, OB2, OB3, and OB4, respectively. . For example, the controller 180 may display the first object progress bar 31 corresponding to the frames including the recognized first object OB1 on the first object OB1. The controller 180 displays the second object progress bar 32 corresponding to the frames including the recognized second object OB2 on the second object OB2, and recognizes the third object OB3. The third object progress bar 33 corresponding to the frames including the second object OB3 is displayed above the second object OB3, and the second object progress corresponding to the frames including the recognized fourth object OB4. The bar 34 may be displayed on the second object OB4.

한편, 특정 객체에 대응하는 객체 프로그레스 바는 상기 특정 객체를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 상대적인 위치를 지시하기 위한 프로그레스 아이콘(41,42,43,44)을 포함할 수 있다.On the other hand, the object progress bar corresponding to a specific object is a progress icon (41, 42, 43, 44) for indicating the relative position of the frame currently displayed on the touch screen 151 of the entire frame including the specific object It may include.

예를 들어, 제1 객체 프로그레스 바(31)는 제1 객체(OB1)를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 위치를 지시하기 위한 프로그레스 아이콘(41)을 포함할 수 있다. 제2 내지 제4 객체 프로그레스 바(32,33,34)에 대해서도 마찬가지이다.For example, the first object progress bar 31 may include a progress icon 41 for indicating a position of a frame currently displayed on the touch screen 151 among all frames including the first object OB1. Can be. The same applies to the second to fourth object progress bars 32, 33, and 34.

전술한 바와 같이, 이동 단말기(100)의 제어부(180)는, 동영상 콘텐츠에서 특정 객체를 포함하는 프레임을 추출하고 해당 프레임들을 바(bar) 형태의 객체 프로그레스 바에 인덱싱(indexing)하여 터치 스크린에 표시할 수 있다. 그리고, 객체 프로그레스 바에 대한 사용자 조작을 통해 상기 특정 객체를 포함하는 프레임의 표시를 전체 동영상 콘텐츠와 독립적으로 제어할 수 있다.As described above, the controller 180 of the mobile terminal 100 extracts a frame including a specific object from the video content and indexes the frames to an object progress bar of a bar shape to index the frames on the touch screen. I can display it. The display of a frame including the specific object may be controlled independently of the entire video content through a user manipulation of the object progress bar.

도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.6 is a flowchart illustrating a method for controlling a mobile terminal according to a second embodiment of the present invention, and FIGS. 7 to 10 are diagrams for describing a method for controlling a mobile terminal according to a second embodiment of the present invention.

도 6을 참조하면, 전술한 제1 실시예에서 제어부(180)는, 터치 스크린(151)에 표시된 객체 프로그레스 바(제2 바)를 선택하는 입력을 수신할 수 있다(S210).Referring to FIG. 6, in the above-described first embodiment, the controller 180 may receive an input for selecting an object progress bar (second bar) displayed on the touch screen 151 (S210).

그리고, 제어부(180)는 상기 객체 프로그레스 바에 포함된 프로그레스 아이콘을 좌우 방향으로 이동시키는 입력을 수신할 수 있다(S220).The controller 180 may receive an input for moving the progress icon included in the object progress bar in a left and right direction (S220).

예를 들어, 도 7을 참조하면 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘(41(a))을 좌우 방향으로 이동하는 터치 입력을 수신할 수 있다. 제어부(180)는 제1 객체 프로그레스 바(31)에 대하여 롱 터치 입력을 수신하면, 상기 제1 객체 프로그레스 바(31)의 크기를 확대하여 표시할 수 있다. 이에 따라, 사용자는 확대된 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘 41(a)을 이동시키면서, 스크러빙(scrubing)할 수 있다.For example, referring to FIG. 7, a touch input for moving the progress icon 41 (a) to the left and right directions with respect to the first object progress bar 31 may be received. When the controller 180 receives the long touch input with respect to the first object progress bar 31, the controller 180 may enlarge and display the size of the first object progress bar 31. Accordingly, the user may scrub while moving the progress icon 41 (a) with respect to the enlarged first object progress bar 31.

상기 스크러빙 입력에 응답하여 제어부(180)는 전체 동영상 콘텐츠 프레임 중 해당 객체를 포함하는 프레임을 검색하고, 검색 결과를 터치 스크린(151)에 표시할 수 있다. 즉, 제어부(180)는 상기 프로그레스 바(제2 바)의 프로그레스 아이콘의 위치에 대응되는 프레임을 터치 스크린(151)에 표시할 수 있다(S230).In response to the scrubbing input, the controller 180 may search for a frame including the corresponding object among the entire video content frames and display the search result on the touch screen 151. That is, the controller 180 can display a frame corresponding to the position of the progress icon of the progress bar (second bar) on the touch screen 151 (S230).

도 8을 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치를 41(a)에서 41(b)로 이동하는 터치 입력을 수신하는 경우, 제어부(180)는 위치 41(a)에 대응하는 프레임(도 5의 C(f1))을 위치 41(b)에 대응하는 프레임(도 8의 C(f2))으로 변경하여 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 8, when receiving a touch input for moving the progress icon of the first object progress bar 31 from 41 (a) to 41 (b), the controller 180 may determine the position 41 (a). ) Can be displayed on the touch screen 151 by changing the frame (C (f1) of FIG. 5) to a frame (C (f2) of FIG. 8) corresponding to the position 41 (b).

한편, 제1 객체 프로그레스 바(31)는 동영상 콘텐츠의 재생을 제어하는 프로그레스 바(20)와 연동될 수 있다. 즉, 전술한 바와 같이 제1 객체 프로그레스 바(31)에 포함된 프로그레스 아이콘의 위치가 변경되면, 상기 변경된 위치를 프로그레스 바(20)에 반영하여, 프로그레스 바(20)에 포함된 프로그레스 아이콘의 위치를 30(a)에서 30(b)로 이동시킬 수 있다. 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(a)은 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(a)에 대응되고, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(b)는 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(b)에 대응된다.Meanwhile, the first object progress bar 31 may be linked with the progress bar 20 that controls the playback of the video content. That is, when the position of the progress icon included in the first object progress bar 31 is changed as described above, the changed position is reflected in the progress bar 20 to be included in the progress bar 20. The position of the progress icon may be moved from 30 (a) to 30 (b). The position 40 (a) of the progress icon of the first object progress bar 31 corresponds to the position 30 (a) of the progress icon of the progress bar 20 and the position of the first object progress bar 31. The position 40 (b) of the progress icon corresponds to the position 30 (b) of the progress icon of the progress bar 20.

도 5 내지 도 8을 통해 설명한 실시예의 경우, 객체 프로그레스 바를 선택하여 소정 방향으로 스크러빙하는 입력을 수신하는 경우, 스크러빙 입력된 위치에 대응되는 프레임을 터치 스크린(151)의 전면에 표시하는 예를 설명하였다.5 through 8 illustrate an example in which a frame corresponding to the scrub input position is displayed on the front surface of the touch screen 151 when an input of selecting an object progress bar and scrubbing in a predetermined direction is received. Explained.

그러나, 객체 프로그레스바에 대한 스크러빙 입력에 대하여 대응되는 프레임을 표시하는 예는 전술한 방법에 한정되지 않는다.However, the example of displaying a frame corresponding to the scrubbing input for the object progress bar is not limited to the above-described method.

예를 들어, 도 9를 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘(41)을 소정의 방향으로 스크러빙하는 입력을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체를 포함하는 적어도 하나의 프레임을 썸 네일 이미지(Thumbnail image: Th)(1,2,3,4,…,n)로 표시할 수 있다.For example, referring to FIG. 9, when receiving an input for scrubbing the progress icon 41 of the first object progress bar 31 in a predetermined direction, the controller 180 controls the entire frame of the video content. At least one frame including the first object may be displayed as a thumbnail image (Th) (1, 2, 3, 4,..., N).

제어부(180)는 상기 제1 객체를 포함하는 프레임에 대응되는 썸 네일 이미지를 프로그레스 바(20)의 상부에 표시할 수 있다.The controller 180 may display a thumbnail image corresponding to the frame including the first object on the progress bar 20.

그리고, 제어부(180)는 상기 제1 객체 프로그레스 바(31)의 특정 지점이 스크러빙될 때마다, 상기 특정 지점에 대응하는 썸 네일 이미지를 하이라이트 처리하여 표시할 수 있다. 예를 들어, 도 9를 참조하면, 제어부(180)는, 프로그레스 아이콘의 위치 41에 대응하는 썸 네일 이미지 4를 강조하여 현재 선택된 프레임인 무엇인지를 나타낼 수 있다.In addition, whenever a specific point of the first object progress bar 31 is scrubbed, the controller 180 may highlight and display a thumbnail image corresponding to the specific point. For example, referring to FIG. 9, the controller 180 may indicate what is the currently selected frame by highlighting a thumbnail image 4 corresponding to the position 41 of the progress icon.

제어부(180)는, 특정 객체에 대응하는 객체 프로그레스 바에 대한 사용자의 조작에 대응하여 상기 특정 객체를 포함하는 프레임을 전체 동영상 콘텐츠와 독립적으로 제어한다. 상기 객체 프로그레스 바에 대한 제어가 완료되면, 제어부(180)는 새로운 장면에 포함된 객체를 인식하고, 인식된 객체 프로그레스 바를 생성하여 터치 스크린(151)에 표시할 수 있다.The controller 180 controls a frame including the specific object independently of the entire video content in response to a user's manipulation of an object progress bar corresponding to the specific object. When control of the object progress bar is completed, the controller 180 may recognize an object included in a new scene, generate a recognized object progress bar, and display the object on the touch screen 151.

예를 들어, 도 10을 참조하면, 도 8에서 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바의 프로그레스 아이콘을 제1 지점 41(a)에서 제2 지점 41(b)으로 이동시키는 터치 입력을 입력받은 후, 상기 터치 입력을 해제하는 경우, 상기 제2 지점 41(b)에 대응하는 화면에 포함된 적어도 하나의 객체를 인식하는 동작을 수행할 수 있다.For example, referring to FIG. 10, in FIG. 8, the progress icon of the first object progress bar corresponding to the first object OB1 is moved from the first point 41 (a) to the second point 41 (b). When the touch input is released after receiving the touch input, the at least one object included in the screen corresponding to the second point 41 (b) may be recognized.

즉, 도 8에서 터치 스크린(151)에 표시된 프레임(C(f2))은 제1 객체(OB1)만 인식된 상태에서 상기 제1 객체(OB1)에 대응하는 프로그레스 바(31)에 대한 조작으로 상기 제1 객체(OB1)를 포함하는 프레임을 터치 스크린(151)에 표시한 것이다.That is, the frame C (f2) displayed on the touch screen 151 of FIG. 8 is manipulated with respect to the progress bar 31 corresponding to the first object OB1 while only the first object OB1 is recognized. As a result, a frame including the first object OB1 is displayed on the touch screen 151.

그러나, 도 10을 참조하면, 도 10에 도시된 화면에는 제5 객체(OB5) 외에 제6 객체(OB6)도 인식 가능한 객체로 가정한다.However, referring to FIG. 10, it is assumed that the sixth object OB6 is recognized as an object in addition to the fifth object OB5 on the screen illustrated in FIG. 10.

따라서, 제1 프레임(도 5의 C(f1))에서 제5 객체(OB5)에 대응하는 제1 객체 프로그레스 바(31)에 대한 터치 입력의 위치가 제1 지점(도 10의 41(a))에서 제2 지점(도 10의 41(b))으로 이동되는 경우, 상기 제5 객체(OB5)를 포함하는 프레임 중 제2 프레임(도 10의 C(f2))을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 제2 프레임(도 10의 C(f2))에서 상기 제2 지점(41(b))에 대한 터치 입력을 해제하는 경우, 제어부(180)는, 상기 제2 프레임 C(f2)에서 새로운 객체 인식 동작을 수행한다.Accordingly, the position of the touch input with respect to the first object progress bar 31 corresponding to the fifth object OB5 in the first frame (C (f1) in FIG. 5) is the first point 41 (a in FIG. 10). )) To the second point (41 (b) of FIG. 10), the touch screen 151 touches the second frame (C (f2) of FIG. 10) among the frames including the fifth object OB5. Can be marked on. In addition, when releasing a touch input with respect to the second point 41 (b) in the second frame (C (f2) of FIG. 10), the controller 180 may control the second frame C (f2). Perform a new object recognition operation.

상기 객체 인식 동작이 수행됨에 따라, 제5 객체(OB5) 및 제6 객체(OB6)를 인식할 수 있다. 그런 후, 제어부(180)는 상기 제5 객체 (OB5) 및 제6 객체(OB6)에 각각 대응하는 제5 객체 프로그레스 바(51) 및 제6 객체 프로그레스 바(52)를 각각의 객체 상단부에 표시할 수 있다.As the object recognition operation is performed, the fifth object OB5 and the sixth object OB6 may be recognized. Thereafter, the controller 180 sets the fifth object progress bar 51 and the sixth object progress bar 52 corresponding to the fifth object OB5 and the sixth object OB6, respectively. Can be marked on.

전술한 바와 같이, 각각의 객체 프로그레스 바(51,52)는 해당 프레임의 현재 위치를 지시하기 위한 프로그레스 아이콘(61,62)을 포함할 수 있다.As described above, each of the object progress bars 51 and 52 may include progress icons 61 and 62 for indicating a current position of the corresponding frame.

그런 후, 전술한 예와 같이, 제5 객체 프로그레스 바(51) 또는 제6 객체 프로그레스 바(61)에 대한 사용자의 조작에 따라 각 객체를 포함하는 프레임의 표시를 제어할 수 있다.Thereafter, as shown in the above example, the display of the frame including each object may be controlled according to a user's manipulation of the fifth object progress bar 51 or the sixth object progress bar 61.

이상에서는 제1 실시예 내지 제2 실시예를 통해, 동영상 콘텐츠를 재생하는 중 상기 재생중인 동영상을 일시 정지시키면, 일시 정지된 화면상에 포함되어 있는 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 추출하고, 상기 추출된 프레임을 인덱싱한(indexing) 객체 프로그레스 바(object progress bar)를 표시하고, 상기 객체 프로그레스 바를 통해 상기 동영상 콘텐츠 전체 프레임 중 상기 인식된 객체를 포함하는 프레임만을 화면상에 디스플레이하는 예를 살펴보았다.In the above description, in the first to second embodiments, when the playing video is paused while playing video content, at least one object included in the paused screen is recognized and the recognized object is recognized. A frame including an extracted object frame, an object progress bar indexing the extracted frame, and a frame including the recognized object among the entire frames of the video content through the object progress bar; We have seen an example of displaying bays on the screen.

이하에서는 도 11 내지 도 14를 통해, 전술한 객체 프로그레스 바를 통해 동영상 콘텐츠의 프레임을 편집하는 예를 설명한다.
Hereinafter, an example of editing a frame of video content through the object progress bar described above will be described with reference to FIGS. 11 through 14.

도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.11 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention, and FIGS. 12 to 14 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.

도 11을 참조하면, 이동 단말기(100)의 제어부(180)는 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 그런 후 제어부(180)는 인식된 객체가 적어도 둘 이상인지 판단한다(310).Referring to FIG. 11, the controller 180 of the mobile terminal 100 recognizes at least one object on a screen where playback is stopped (S140). Then, the controller 180 determines whether at least two recognized objects are present (310).

제어부(180)는 인식된 둘 이상의 객체 중 제1 객체에 대응하는 제1 객체 프로그레스 바 및 제2 객체에 대응하는 제2 객체 프로그레스 바를 터치 스크린(151)에 표시할 수 있다(S320).The controller 180 may display the first object progress bar corresponding to the first object and the second object progress bar corresponding to the second object among the recognized two or more objects on the touch screen 151 (S320).

제어부(180)는 상기 제1 객체 프로그레스 바를 제2 객체 프로그레스바와 중첩시키는 터치 입력을 수신할 수 있다(S330). 상기 터치 입력은 상기 제1 객체 프로그레스 바를 선택하여, 제2 객체 프로그레스 바로 드래그하여 두 개의 객체 프로그레스바가 서로 중첩되도록 하는 입력을 포함할 수 있다.The controller 180 may receive a touch input of overlapping the first object progress bar with the second object progress bar (S330). The touch input may include an input for selecting the first object progress bar and dragging the second object progress bar so that the two object progress bars overlap each other.

그러면, 제어부(180)는 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로움 프레임 세트를 독립적으로 제어할 수 있는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다. Then, the controller 180 may display a user interface for generating a third bar capable of independently controlling a new frame set generated by synthesizing the first object and the second object. Can be marked on.

본 문서에서 제1 바(a first bar), 제2 바(a second bar), 제3 바(a third bar)는 속성이 서로 다른 상태 바(status bar)들이다. 즉, 제1 바는, 동영상 콘텐츠 전체의 재생(pkayback)을 제어하기 위한 프로그레스 바이고, 제2 바는, 하나의 객체에 대응하는 객체 프로그레스 바이고, 제3 바는 적어도 둘 이상의 객체가 합성하여 생성되는 프레임에 대응하는 객체 프로그레스 바로 정의될 수 있다.In this document, a first bar, a second bar, and a third bar are status bars having different attributes. That is, the first bar is a progress bar for controlling pkayback of the entire video content, the second bar is an object progress bar corresponding to one object, and the third bar is composed of at least two objects. The object progress bar corresponding to the generated frame may be defined.

도 12를 참조하면, 제어부(180)는,제1 객체 프로그레스 바(31)에 대한 롱 터치 입력 또는 더블 터치 입력을 수신하는 경우, 객체 프로그레스의 편집 모드에 진입할 수 있다.Referring to FIG. 12, when the controller 180 receives a long touch input or a double touch input to the first object progress bar 31, the controller 180 may enter an edit mode of the object progress.

도 13을 참조하면, 상기 롱 터치 입력에 응답하여 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바(31)를 다른 객체 프로그레스 바(32,33,34)로 이동시키거나, 터치 스크린(151) 화면 밖으로 이동 가능함을 알리는 가이드 정보(71,72,73,74,75)를 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 13, in response to the long touch input, the first object progress bar 31 corresponding to the first object OB1 is moved to another object progress bar 32, 33, 34, or touched. The guide information 71, 72, 73, 74, 75 indicating that the screen 151 can be moved out of the screen may be displayed on the touch screen 151.

상기 가이드는, 제1 객체 프로그레스 바(31)의 이동 가능한 경로를 나타내는 화살표(71,72,73,74,75) 형식으로 표현될 수 있다.The guide may be expressed in the form of arrows 71, 72, 73, 74, 75 indicating a movable path of the first object progress bar 31.

도 14를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)로 이동하여, 두 객체 프로그레스 바(31,32)가 서로 중첩될 수 있다. 상기 중첩에 의해 제1 객체와 제2 객체가 합성되고, 제1 객체 및/또는 제2 객체를 포함하는 프레임에 대응하는 객체 제3 바(a tihrd bar)를 생성하기 위한 사용자 인터페이스(User Interface)에 대해서는 이하에서 보다 상세히 설명한다.Referring to FIG. 14, by moving the first object progress bar 31 to the second object progress bar 32, the two object progress bars 31 and 32 may overlap each other. The user interface for synthesizing the first object and the second object by the overlapping and generating an object third bar corresponding to a frame including the first object and / or the second object. This will be described in more detail below.

도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이고, 도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.15 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention in more detail, and FIGS. 16 to 20 illustrate a control method of a mobile terminal according to a third embodiment of the present invention. Figures for.

도 15를 참조하면, 제어부(180)는 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역과, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역을 터치 스크린(151)에 표시할 수 있다(S350).Referring to FIG. 15, the controller 180 may include a first screen area including a first object and a second object as a union, and a second frame area including the first object and the second object as an intersection. The display may be displayed on 151 (S350).

상기 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임 영역을 의미한다.The first frame area including the first object and the second object as a union means a frame area including any one of the first object and the second object among the entire frames of the video content.

또한, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 및 제2 객체 모두를 포함하는 프레임 영역을 의미한다.Also, the second frame area including the first object and the second object as an intersection means a frame area including both the first object and the second object among the entire frames of the video content.

일 실시예에 따라, 서로 다른 객체 프로그레스 바를 중첩하여 새로운 프레임 세트에 대응하는 객체 프로그레스 바를 생성하기 위한 사용자 인터페이스는, 도 16 내지 도 17에 도시된 바와 같이 밴다이어 그램(Venn diagram) 형태를 가질 수 있다.According to one embodiment, a user interface for generating an object progress bar corresponding to a new set of frames by overlapping different object progress bars may be in the form of a Venn diagram as illustrated in FIGS. 16 to 17. Can have

도 16을 참조하면, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되면, 밴다이어 그램(80) 형태의 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 16, when the first object progress bar 31 and the second object progress bar 32 overlap, a user interface in the form of a band diagram 80 may be displayed on the touch screen 151. .

상기 밴 다이어 그램 형식의 사용자 인터페이스는, 제1 객체를 포함하는 프레임에 대응하는 제1 프레임 영역(81,82), 제2 객체를 포함하는 프레임에 대응하는 제2 프레임 영역(32)을 포함할 수 있다.The van diagram type user interface may include first frame areas 81 and 82 corresponding to a frame including a first object and a second frame area 32 corresponding to a frame including a second object. Can be.

상기 사용자 인터페이스가 터치 스크린(151)에 표시된 상태에서, 제어부(180)는, 제2 객체 프로그레스 바(32)와 중첩상태에 있는 제1 객체 프로그레스 바(31)를 제1 프레임 영역(81,82) 내지 제2 프레임 영역(83) 중 적어도 하나의 영역으로 이동시키는 입력을 수신할 수 있다.In a state where the user interface is displayed on the touch screen 151, the controller 180 may move the first object progress bar 31 overlapping the second object progress bar 32 in the first frame area 81. , 82) may receive an input for moving to at least one of the second frame area 83.

그러면, 제어부(180)는 상기 제1 객체 프로그레스 바(31)가 이동된 영역에 따라 제1 객체와 제2 객체의 합성 방식을 결정할 수 있다.Then, the controller 180 may determine a composition method of the first object and the second object according to the area in which the first object progress bar 31 is moved.

예를 들어, 도 17을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제2 프레임 영역(83)으로 이동되는 경우, 제어부(180)는 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.For example, referring to FIG. 17, when the first object progress bar 31 is moved to the second frame area 83, the controller 180 may control the first object and the second object among the entire frames of the video content. You can create and display a new object progress bar that indexes frames that contain all objects.

또한, 예를 들어, 도 18을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제1 프레임 영역(81 또는 82)으로 이동되는 경우, 제어부(180)는, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.For example, referring to FIG. 18, when the first object progress bar 31 is moved to the first frame area 81 or 82, the controller 180 may control the first frame among all frames of the video content. A new object progress bar that indexes frames including one of the first object and the second object may be generated and displayed.

전술한 서로 다른 객체 프로그레스 바의 중첩(overlap)에 의해 생성되는 새로운 객체 프로그레스 바는 도 19에 도시된 바와 같이 표시될 수 있다.The new object progress bar created by the overlap of the different object progress bars described above may be displayed as shown in FIG. 19.

도 19를 참조하면, 제1 객체 프로그레스 바(31) 내지 제4 객체 프로그레스 바(34)는 각 객체 프로그레스 바가 위치하는 영역이 해당 객체의 상단부에 위치한다. 따라서, 각 객체 프로그레스 바가 어떤 객체에 대응되는지 구별될 수 있다. 한편, 각 객체 프로그레스 바는 디스플레이 특성 예를 들어, 색상, 투명도 등을 달리함으로써, 각 객체 프로그레스 바를 서로 구별할 수 있다.Referring to FIG. 19, in the first object progress bar 31 to the fourth object progress bar 34, an area where each object progress bar is located is located at an upper end of the object. Therefore, it is possible to distinguish which object each object progress bar corresponds to. Meanwhile, the object progress bars may distinguish each object progress bar from each other by changing display characteristics, for example, color and transparency.

예를 들어, 제1 객체 프로그레스 바(31)와 제4 객체 프로그레스 바(34)의 색상은 서로 다르다.For example, the colors of the first object progress bar 31 and the fourth object progress bar 34 are different from each other.

한편, 두 개의 프로그레스 바의 중첩으로 생성되는 새로운 프로그레스 바(90)는 상기 두 개의 프로그레스 바에 대응되는 객체를 식별하기 위한 식별 정보(예를 들어, 31', 34')를 포함할 수 있다.Meanwhile, the new progress bar 90 generated by the overlap of two progress bars may include identification information (for example, 31 'and 34') for identifying an object corresponding to the two progress bars. have.

상기 새로운 프로그레스 바(90)는 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)의 측면 사이드에 표시될 수 있다. 상기 새로운 프로그레스 바(90)를 선택하기 위한 터치 입력(롱 터치 입력 포함)을 수신하는 경우, 제어부(180)는, 상기 새롭게 생성된 프로그레스 바(90)의 속성을 상기 메인 프로그레스 바(20)에 반영할 수 있다.The new progress bar 90 may be displayed on the side of the main progress bar 20 for controlling the playback of the video content. When receiving a touch input (including a long touch input) for selecting the new progress bar 90, the controller 180 may set an attribute of the newly created progress bar 90 to the main progress bar ( 20) can be reflected.

예를 들어, 상기 새로운 프로그레스 바(90)는, 제1 객체(OB1)와 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응하는 프로그레스 바이다. 따라서, 상기 프로그레스 바 90을 선택하는 입력을 수신하면, 제어부(180)는 상기 메인 프로그레스 바(20)에서, 상기 제1 객체(OB1) 또는 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응되는 구간(91)을 다른 구간(92)과 식별하여 표시할 수 있다.For example, the new progress bar 90 is a progress bar corresponding to a frame including any one of the first object OB1 and the fourth object OB4. Therefore, upon receiving an input for selecting the progress bar 90, the controller 180 may select one of the first object OB1 and the fourth object OB4 from the main progress bar 20. The section 91 corresponding to the containing frame may be identified and displayed with the other section 92.

그리고, 도 20에 도시된 바와 같이, 상기 프로그레스 바 90에 대한 스크러빙 입력을 수신하는 경우, 상기 스크러빙 입력에 응답하여 제1 객체(OB1) 또는 제2 객체(OB) 중 어느 하나의 객체를 포함하는 프레임을 터치 스크린(151)에 표시할 수 있다.As illustrated in FIG. 20, when a scrubbing input for the progress bar 90 is received, an object of either the first object OB1 or the second object OB is included in response to the scrubbing input. Can be displayed on the touch screen 151.

전술한 실시예에 의하면, 인식 가능한 객체를 포함하는 동영상 콘텐츠에서 인식된 객체에 대응하는 객체 프로그레스 바를 제어함으로써, 원하는 객체를 포함하는 프레임을 추출하는 동작을 수행하는 예를 살펴보았다.According to the above-described embodiment, an example of performing an operation of extracting a frame including a desired object by controlling an object progress bar corresponding to the recognized object in the video content including the recognizable object has been described.

그러나, 객체 프로그레스 바를 통해 원하는 객체를 추출하는 방법은 전술한 예에 한정되지 않고 다양하게 변형되어 실시될 수 있다. 예를 들어, 도 21 내지 도 28을 통해 개시되는 실시예를 살펴본다.
However, the method of extracting a desired object through the object progress bar is not limited to the above-described example and may be variously modified. For example, the embodiment disclosed through FIGS. 21 to 28 will be described.

도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.21 is a flowchart illustrating a method for controlling a mobile terminal according to a fourth embodiment of the present invention, and FIGS. 22 to 28 are diagrams for describing a method for controlling a mobile terminal according to a fourth embodiment of the present invention.

도 21을 참조하면, 동영상 콘테츠의 재생이 중단된 상태에서 적어도 하나의 객체를 인식한 이후(S140), 제어부(180)는 터치 스크린(151)의 임의의 영역에 대하여 롱 터치 입력을 수신할 수 있다(S410).Referring to FIG. 21, after recognizing at least one object in a state in which playback of video content is stopped (S140), the controller 180 may receive a long touch input for an arbitrary area of the touch screen 151. It may be (S410).

예를 들어, 도 22를 참조하면, 상기 롱 터치 입력에 응답하여 제어부(180)는 객체 프로그레스 바를 생성할 것인지를 질의하는 질의창(201)을 터치 스크린(151)에 표시할 수 있다. For example, referring to FIG. 22, in response to the long touch input, the controller 180 may display a query window 201 on the touch screen 151 that inquires whether to generate an object progress bar.

또한, 도 23을 참조하면, 제어부(180)는, 상기 객체 프로그레스 바는 대응되는 객체가 아직까지 정해지지 않은 객체 프로그레스 바(object progress bar not related to any object)를 생성하여 터치 스크린(151)에 표시할 수 있다.In addition, referring to FIG. 23, the controller 180 may generate an object progress bar not related to any object in which the object progress bar has not been determined. Can be marked on.

다시 도 21을 참조하면, 제어부(180)는, 제1 객체를 상기 객체 프로그레스 바로 이동시키는 입력을 수신할 수 있다(S430).Referring back to FIG. 21, the controller 180 may receive an input for moving a first object to the object progress bar (S430).

도 24를 참조하면, 제1 객체(OB1)를 객체 프로그레스 바(202)로 이동시키는 입력은 상기 제1 객체(B1)를 드래그하여 상기 객체 프로그레스 바와 중첩되는 영역을 가지도록 하는 터치 앤 드래그 입력을 포함할 수 있다. 여기서, 제1 객체(OB1)가 상기 객체 프로그레스 바(202) 방향으로 이동되어, 상기 제1 객체(OB1)가 상기 객체 프로그레스 바(202)와 중첩하는 영역이 커질수록 상기 제1 객체의 외형적인 크기를 줄일 수 있다.Referring to FIG. 24, an input for moving a first object OB1 to an object progress bar 202 may be a touch and drag to drag the first object B1 to have an area overlapping the object progress bar. May contain input. Here, the first object OB1 is moved in the direction of the object progress bar 202 so that the area where the first object OB1 overlaps with the object progress bar 202 is increased. The external size can be reduced.

즉, 제1 객체(OB1)가 객체 프로그레스 바(202)로 중첩되면, 제어부(180)는 상기 객체 프로그레스 바(202)를 제1 객체를 포함하는 프레임들을 인덱싱(indexing)한 것으로 인식할 수 있다. 이에 따라, 상기 객체 프로그레스 바(202)에 대한 사용자의 조작에 의해, 제1 객체(OB1)를 포함하는 프레임만을 선별적으로 디스플레이할 수 있다(C).That is, when the first object OB1 overlaps the object progress bar 202, the controller 180 may recognize the object progress bar 202 as indexing the frames including the first object. Can be. Accordingly, only a frame including the first object OB1 may be selectively displayed by the user's manipulation of the object progress bar 202 (C).

그리고, 도 25를 참조하면, 전술한 바와 같이, 제1 객체(OB1)가 객체 프로그레스 바(202)로 이동함으로써, 객체 프로그레스 바(202)가 제1 객체(OB1)에 대응되는 것으로 인식된 상태에서, 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력을 수신할 수 있다(S440). 여기서, 상기 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력 또한 제1 객체(OB1)와 마찬가지이다.Referring to FIG. 25, as described above, the first object OB1 moves to the object progress bar 202, whereby the object progress bar 202 is recognized as corresponding to the first object OB1. In this state, an input for moving the second object OB2 to the object progress bar 203 may be received (S440). Here, the input for moving the second object OB2 to the object progress bar 203 is also the same as that of the first object OB1.

제어부(180)는, 상기 객체 프로그레스 바(203)에 제2 객체(OB2)를 포함하는 프레임들을 인덱싱(indexing)할 수 있다. 결국, 상기 객체 프로그레스 바(203)는 제1 객체 및/또는 제2 객체를 포함하는 프레임들을 인덱싱한 상태 바(status bar)로서의 기능을 수행할 수 있다.The controller 180 may index the frames including the second object OB2 in the object progress bar 203. As a result, the object progress bar 203 may perform a function as a status bar indexing frames including the first object and / or the second object.

도 26을 참조하면, 도 24 및 도 25에 도시된 실시예에 따라 새롭게 생성된 객체 프로그레스 바(204)는 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임에 대응된다. 따라서, 상기 객체 프로그레스 바(204)에 대한 스크러빙 입력(scrubing input)에 응답하여, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임들만 추출하여 터치 스크린(151)에 표시할 수 있다. 제어부(180)는 상기 추출되는 프레임들을 재생 시간에 기초하여 터치 스크린(151)에 순차적으로 표시할 수 있다.Referring to FIG. 26, the newly created object progress bar 204 according to the embodiment illustrated in FIGS. 24 and 25 corresponds to a frame including the first object OB1 and / or the second object OB2. do. Accordingly, in response to a scrubbing input for the object progress bar 204, only frames including the first object OB1 and / or the second object OB2 of the entire frame of the video content are extracted. Display on the touch screen 151. The controller 180 can sequentially display the extracted frames on the touch screen 151 based on the playback time.

또한, 제어부(180)는, 상기 객체 프로그레스 바(204)에 대한 롱 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(204)의 속성(제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱한 프로그레스 바)을 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)에 반영할 수 있다. 제어부(180)는 상기 반영 결과, 상기 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간들을 다른 구간과 식별되도록 표시할 수 있다. 예를 들어, 제어부(180)는 상기 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간을 음영처리하여 표시할 수 있다.In addition, when the controller 180 receives a long touch input to the object progress bar 204, the controller 180 may select frames including both attributes (first and second objects) of the object progress bar 204. The indexed progress bar) may be reflected in the main progress bar 20 for controlling the playback of the video content. As a result of the reflection, the controller 180 may display sections corresponding to a frame in which a first object and a second object are simultaneously included among all frames of the video content so as to be distinguished from other sections. For example, the controller 180 may shade and display a section corresponding to a frame including the first object and the second object at the same time.

도 27을 참조하면, 제어부(180)는, 객체 프로그레스 바(205)을 선택하는 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(205)의 속성을 나타내기 위한 메뉴창(206)을 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 27, when the controller 180 receives a touch input for selecting the object progress bar 205, the controller 180 touches a menu window 206 for indicating attributes of the object progress bar 205. It can be displayed on the screen 151.

상기 메뉴창(206)은 객체 프로그레스 바(206)에 대응되는 객체 정보(OB1,OB2), 상기 객체 프로그레스 바(206)에 추가로 합성할 객체를 선택할 수 있는 항목, 상기 객체 정보 중 적어도 하나의 객체를 삭제하기 위한 항목을 포함할 수 있다.The menu window 206 may include at least one of object information OB1 and OB2 corresponding to the object progress bar 206, an item for selecting an object to be synthesized in addition to the object progress bar 206, and the object information. It may include an item for deleting one object.

예를 들어, 상기 메뉴창(206)에서 제1 객체(OB1)을 삭제하는 입력을 수신하는 경우, 제어부(180)는 도 28에 도시된 바와 같이, 제2 객체(OB2)를 포함하는 프레임을 선별적으로 디스플레이할 수 있다.For example, when receiving an input for deleting the first object OB1 from the menu window 206, the controller 180 displays a frame including the second object OB2 as shown in FIG. 28. It can be selectively displayed.

이에 따라, 상기 객체 프로그레스 바(205)에 매핑되어 있는 객체를 보다 용이하게 추가하거나 삭제할 수 있다.
Accordingly, an object mapped to the object progress bar 205 may be added or deleted more easily.

도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.29 is a flowchart illustrating a method for controlling a mobile terminal according to a fifth embodiment of the present invention, and FIGS. 30 to 31 are diagrams for describing a method for controlling a mobile terminal according to a fifth embodiment of the present invention.

도 29를 참조하면, 동영상 콘텐츠의 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 제어부(180)는, 상기 인식된 적어도 하나의 객체(OB1,OB2,OB3,OB4)에 각각 대응되는 객체 프로그레스 바(31,32,33,34)를 각 객체 근방에 표시할 수 있다.Referring to FIG. 29, at least one object is recognized on a screen where playback of video content is stopped (S140). The controller 180 may display object progress bars 31, 32, 33, and 34 corresponding to the recognized at least one object OB1, OB2, OB3, and OB4 in the vicinity of each object.

제어부(180)는 제1 객체 프로그레스 바(31)를 동영상 콘텐츠의 재생 화면에서 화면 밖으로 던지는 제스처를 입력받는 경우, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1)가 포함된 프레임을 제어할 수 있다. 따라서, 동영상 콘텐츠가 재생되는 중 제1 객체(OB1) 나오는 프레임은 디스플레이되지 않을 수 있다.When the controller 180 receives a gesture of throwing the first object progress bar 31 out of the screen on the playback screen of the video content, the controller 180 may control a frame including the first object OB1 among all frames of the video content. Can be. Therefore, the frame exiting from the first object OB1 may not be displayed while the video content is being played.

도 31을 참조하면, 제1 객체 프로그레스 바(31)에 대한 롱 터치 입력을 수신하는 경우, 상기 제1 객체 프로그레스 바(31)의 상단부에 여집합 기호(C)를 표시할 수 있다. 상기 제1 객체 프로그레스 바(31)를 상기 여집합 기호(C)로 이동시키는 입력을 수신하는 경우, 제어부(180)는 상기 제1 객체 프로그레스 바(31)에 대응하는 제1 객체(OB1)를 포함하는 프레임을 동영상 콘텐츠 재생 중 삭제하고 재생하도록 제어할 수 있다.Referring to FIG. 31, when a long touch input to the first object progress bar 31 is received, a set symbol C may be displayed on an upper end portion of the first object progress bar 31. When receiving an input for moving the first object progress bar 31 to the filter set symbol C, the controller 180 receives a first object OB1 corresponding to the first object progress bar 31. The frame may be controlled to be deleted and played back during video content playback.

또한, 도 30 내지 도 31에 도시된 바와 같이, 객체 프로그레스 바를 통해 소정의 객체를 포함하는 프레임을 동영상 콘텐츠에서 제거하는 경우, 이를 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바에 반영할 수 있다.
In addition, as illustrated in FIGS. 30 to 31, when a frame including a predetermined object is removed from the video content through the object progress bar, the frame may be reflected in the main progress bar for controlling playback of the video content. .

도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.

일 실시예에 의하면, 제어부(180)는 객체 프로그레스 바를 저장할 수 있다.According to an embodiment, the controller 180 may store an object progress bar.

도 32를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)와 중첩시키는 입력을 수신하고, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되는 경우, 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 적어도 하나의 프레임에 대응하는 새로운 객체 프로그레스 바를 저장할지 여부를 질의하는 질의창(210)을 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 32, an input for overlapping the first object progress bar 31 with the second object progress bar 32 is received, and the first object progress bar 31 and the second object progress bar ( If 32) overlaps, touch the query window 210 to inquire whether to store a new object progress bar corresponding to at least one frame including the first object OB1 and / or the second object OB2. It can be displayed on the screen 151.

그리고, 제어부(180)는, 이동 단말기(100)의 내부에 저장된 동영상 콘텐츠의 목록을 제공할 수 있다. 상기 동영상 콘텐츠의 목록 중 제1 동영상 콘텐츠(211)를 포함하고, 상기 제1 동영상 콘텐츠(211)를 재생하는 중 제1 객체(OB1)와 제2 객체(OB2)를 모두 포함하는 프레임만을 추출하여 보여줄 수 있는 새로운 객체 프로그레스 바(222)를 동영상 콘텐츠의 목록에 포함하여 디스플레이할 수 있다.In addition, the controller 180 may provide a list of video contents stored in the mobile terminal 100. Extracts only a frame including a first video content 211 from the list of video contents and including both a first object OB1 and a second object OB2 during playback of the first video content 211 A new object progress bar 222 that can be shown may be included in the list of video content and displayed.

여기서, 상기 동영상 콘텐츠의 목록은 동영상 콘텐츠의 재생 시간(212)을 포함할 수 있으며, 객체 프로그레스 바를 통해 재생될 수 있는 콘텐츠 재생 시간(223)을 함께 포함할 수 있다.
Here, the list of video content may include a play time 212 of the video content, and may include a content play time 223 that can be played through the object progress bar.

상기에서 설명한 본 발명에 의한 이동 단말기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The above-described method of controlling a mobile terminal according to the present invention can be provided by being recorded in a computer-readable recording medium as a program for execution in a computer.

본 발명에 의한 이동 단말기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The control method of the mobile terminal according to the present invention can be executed through software. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording device include a ROM, a RAM, a CD-ROM, a DVD 占 ROM, a DVD-RAM, a magnetic tape, a floppy disk, a hard disk, The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings. In addition, the embodiments described in this document can be applied to not only the present invention, but also all or some of the embodiments may be selectively combined so that various modifications can be made.

100: 이동 단말기 151: 터치 스크린
180: 제어부
100: mobile terminal 151: touch screen
180:

Claims (21)

동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및
상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;
를 포함하는 이동 단말기.
A touch screen displaying a playback screen of video content and a first bar for controlling playback of the video content; And
When the input for stopping the playback of the video content is received, the playback of the video content is stopped, recognizes a specific object included in the screen where the playback is stopped, and includes the specific object of the entire frame of the video content; A controller configured to display a second bar associated with at least one frame on the touch screen;
.
제 1 항에 있어서,
상기 제2 바는,
상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함하는 이동 단말기.
The method of claim 1,
The second bar is,
And a plurality of frames including the specific object, which are grouped and indexed in the playback order.
제 1 항에 있어서,
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.
The method of claim 1,
The first bar includes a progress icon indicating a current position in the video content.
제 1 항에 있어서,
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.
The method of claim 1,
The second bar may include a progress icon indicating that a frame including the specific object indicates a current position in the video content.
제 4 항에 있어서,
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.
5. The method of claim 4,
The control unit,
And a frame corresponding to the position of the touch input is displayed on the touch screen when receiving an input for moving the touch input to the progress icon of the second bar in a predetermined direction.
제 5 항에 있어서,
상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동하는 것을 특징으로 하는 이동 단말기.
The method of claim 5, wherein
The predetermined direction is a mobile terminal, characterized in that for moving in the horizontal direction along the second bar.
제 5 항에 있어서,
상기 제어부는,
상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경하는 이동 단말기.
The method of claim 5, wherein
The control unit,
And changing a position of a progress icon included in a first bar for indicating a current position in the video content as the frame displayed on the touch screen is changed.
제 5 항에 있어서,
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시하는 이동 단말기.
The method of claim 5, wherein
The control unit,
When the touch input to the progress icon of the second bar is released, a movement of recognizing at least one object included in a frame displayed on the touch screen and displaying a second bar corresponding to the recognized object on the touch screen terminal.
제 1 항에 있어서,
상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함하는 이동 단말기.
The method of claim 1,
The predetermined input includes a voice command for stopping the playback of the video content or the input to the playback stop icon displayed on the first bar.
제 1 항에 있어서,
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함하는 이동 단말기.
The method of claim 1,
The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
제 1 항에 있어서,
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함하고,
상기 제어부는,
제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시하는 이동 단말기.
The method of claim 1,
The recognized specific object comprises at least two objects,
The control unit,
When the second bar corresponding to the first object is moved to the second bar corresponding to the second object, and the at least two or more second bars overlap each other, the second frame corresponding to the first object corresponds to a new frame set generated by synthesizing the first object and the second object. A mobile terminal for displaying on the touch screen a user interface for creating a third bar.
제 11 항에 있어서,
상기 사용자 인터페이스는,
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,
상기 제어부는,
상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정하는 이동 단말기.
The method of claim 11,
Wherein the user interface comprises:
A first frame area including one of the first object and the second object, and a second frame area including the first object and the second object,
The control unit,
When receiving an input for moving the second bar corresponding to the first object to any one of the first to second frame areas, the frame mapped to the third bar is different depending on the area where the second bar is located. Mobile terminal to set.
제 12 항에 있어서,
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.
13. The method of claim 12,
When the second bar corresponding to the first object is located in the first frame area,
The generated third bar corresponds to a frame including any one of the first object and the second object of the video content.
제 12 항에 있어서,
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.
13. The method of claim 12,
When the second bar corresponding to the first object is located in the second frame area,
The generated third bar corresponds to a frame including the first object and the second object of the video content.
제 12 항에 있어서,
상기 제어부는,
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경하는 이동 단말기.
13. The method of claim 12,
The control unit,
When the second bar corresponding to the first object enters any one of the first frame area and the second frame area, the mobile terminal changes the display characteristics of the frame area in which the second bar enters the user interface. .
제 12 항에 있어서,
상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함하는 이동 단말기.
13. The method of claim 12,
The third bar may include identification information for distinguishing a form in which the first object and the second object are synthesized.
제 12 항에 있어서,
상기 제어부는,
상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시하는 이동 단말기.
13. The method of claim 12,
The control unit,
And a display section of the first bar is modified to display a frame section corresponding to the third bar among the frames corresponding to the first bar so as to be distinguished from other frame sections.
제 1 항에 있어서,
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거하는 이동 단말기.
The method of claim 1,
And when receiving a touch input for moving the second bar away from the touch screen, removing a frame including an object corresponding to the second bar from the video content.
제 18 항에 있어서,
상기 제어부는,
상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시하는 이동 단말기.
The method of claim 18,
The control unit,
And displaying identification information on the touch screen to identify that the frame including the object corresponding to the second bar has been removed from the video content.
동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바(progress bar)를 표시하는 터치 스크린; 및
상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함하고,
상기 제어부는,
상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.
A touch screen displaying a playback screen of video content and a progress bar for controlling playback of the video content; And
When the reproduction of the video content is stopped, at least one object is recognized and at least one bar generated by indexing at least one frame including the recognized object in a playback order is recognized. And a controller which is displayed on the touch screen in association with one object.
The control unit,
When receiving an input for selecting a specific point of the bar, the mobile terminal to display a frame corresponding to the specific point of the grouped frame on the touch screen.
동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 상기 터치 스크린에 표시하는 단계;
상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계;
상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계;
상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및
상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;
를 포함하는 이동 단말기의 제어 방법.
Displaying a playback screen of video content and a first bar on the touch screen for controlling playback of the video content;
Receiving a predetermined input to the touch screen;
Stopping playback of the video content in response to the predetermined input;
Recognizing a specific object included in the screen on which playback is stopped; And
Displaying a second bar on the touch screen to control at least one frame including the specific object among all frames of the video content independently of the video content;
And transmitting the control information to the mobile terminal.
KR1020120083045A 2012-07-23 2012-07-30 Mobile terminal and method for controlling of the same KR101909140B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120083045A KR101909140B1 (en) 2012-07-30 2012-07-30 Mobile terminal and method for controlling of the same
EP13176431.8A EP2690879B1 (en) 2012-07-23 2013-07-15 Mobile terminal and method for controlling of the same
US13/947,318 US9710136B2 (en) 2012-07-23 2013-07-22 Mobile terminal having video playback and method for controlling of the same
CN201310311468.8A CN103577063B (en) 2012-07-23 2013-07-23 Mobile terminal and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120083045A KR101909140B1 (en) 2012-07-30 2012-07-30 Mobile terminal and method for controlling of the same

Publications (2)

Publication Number Publication Date
KR20140016497A true KR20140016497A (en) 2014-02-10
KR101909140B1 KR101909140B1 (en) 2018-10-17

Family

ID=50265468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120083045A KR101909140B1 (en) 2012-07-23 2012-07-30 Mobile terminal and method for controlling of the same

Country Status (1)

Country Link
KR (1) KR101909140B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015157714A1 (en) * 2014-04-10 2015-10-15 Google Inc. Methods, systems, and media for presenting commerece information relating to video content
WO2015190821A1 (en) * 2014-06-11 2015-12-17 (주)피엑스디 Image player having search bar including event image and non-event image, and operation method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681043B1 (en) 1999-08-16 2004-01-20 University Of Washington Interactive video object processing environment which visually distinguishes segmented video object
US8787618B2 (en) 2010-04-13 2014-07-22 Sony Corporation Content information processing device, content information processing method, content information processing program, and personal digital assistant

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015157714A1 (en) * 2014-04-10 2015-10-15 Google Inc. Methods, systems, and media for presenting commerece information relating to video content
WO2015190821A1 (en) * 2014-06-11 2015-12-17 (주)피엑스디 Image player having search bar including event image and non-event image, and operation method thereof
KR20150142746A (en) * 2014-06-11 2015-12-23 (주)피엑스디 Video play apparatus with search bar including event image and non-event image and operation method thereof

Also Published As

Publication number Publication date
KR101909140B1 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
US9710136B2 (en) Mobile terminal having video playback and method for controlling of the same
KR101976178B1 (en) Mobile terminal and method for controlling of the same
KR101935039B1 (en) Mobile terminal and method for controlling of the same
KR101978216B1 (en) Mobile terminal and method for controlling thereof
US9294611B2 (en) Mobile terminal, electronic system and method of transmitting and receiving data using the same
KR101562588B1 (en) Information providing apparatus and method thereof
KR101899819B1 (en) Mobile terminal and method for controlling thereof
KR101860342B1 (en) Mobile terminal and control method therof
KR102196671B1 (en) Electronic Device And Method Of Controlling The Same
KR20140045060A (en) Mobile terminal and method for controlling thereof
KR20140055361A (en) Mobile terminal and method for controlling of the same
KR20140100727A (en) Electronic Device And Method Of Controlling The Same
KR101882277B1 (en) Mobile terminal and method for controlling thereof
KR101951480B1 (en) Electronic Device And Method Of Controlling The Same
KR101919790B1 (en) Image display device and method for controlling thereof
KR101779001B1 (en) Mobile terminal and control method therof
KR101785657B1 (en) Mobile terminal and Method for searching video using metadata thereof
KR101882276B1 (en) Mobile terminal and method for controlling thereof
KR101909140B1 (en) Mobile terminal and method for controlling of the same
KR20150012945A (en) Mobile terminal and method for controlling the same
KR101448650B1 (en) Terminal and Method for cotrolling the same
KR20150068838A (en) Electronic device and method for controlling of the same
KR20130006777A (en) Mobile terminal and control method for mobile terminal
KR20130089476A (en) Mobile terminal and control method for mobile terminal
KR20150064528A (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant