KR101909140B1 - Mobile terminal and method for controlling of the same - Google Patents
Mobile terminal and method for controlling of the same Download PDFInfo
- Publication number
- KR101909140B1 KR101909140B1 KR1020120083045A KR20120083045A KR101909140B1 KR 101909140 B1 KR101909140 B1 KR 101909140B1 KR 1020120083045 A KR1020120083045 A KR 1020120083045A KR 20120083045 A KR20120083045 A KR 20120083045A KR 101909140 B1 KR101909140 B1 KR 101909140B1
- Authority
- KR
- South Korea
- Prior art keywords
- bar
- frame
- progress bar
- touch screen
- mobile terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004891 communication Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 11
- 238000005201 scrubbing Methods 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 241000700560 Molluscum contagiosum virus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/42—Graphical user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
이동 단말기가 개시된다. 상기 이동 단말기는, 적어도 하나의 객체를 포함하는 동영상 콘텐츠로부터 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 독립적으로 제어할 수 있는 객체 프로그레스 바 디스플레이할 수 있다. 또한, 상기 객체 프로그레스 바를 미리 정해진 패턴으로 조작함으로써, 동영상 콘텐츠의 전체 프레임 중 상기 객체 프로그레스 바에 대응되는 객체를 포함하는 프레임을 보다 용이하게 편집하여 저장할 수 있다.A mobile terminal is disclosed. The mobile terminal may recognize at least one object from the moving image content including at least one object and may display an object progress bar capable of independently controlling a frame including the recognized object. Also, by manipulating the object progress bar in a predetermined pattern, a frame including an object corresponding to the object progress bar among all the frames of the moving image contents can be more easily edited and stored.
Description
본 발명은 동영상에 포함된 객체(object)를 이용하여 동영상의 재생을 제어하기 위한 사용자 인터페이스를 제공하는 이동 단말기 및 이동 단말기의 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile terminal providing a user interface for controlling playback of a moving image by using an object included in the moving image, and a control method of the mobile terminal.
이동 단말기를 포함한 각종 전자 기기와 관련된 하드웨어 기술 및 소프트웨어 기술이 비약적으로 발전함에 따라, 전자 기기는 매우 다양한 기능들과 정보들을 제공하거나 저장할 수 있게 되었다. 이에 따라 전자 기기에 구비된 화면에는 이와 같이 다양한 정보들을 제공하게 되었다.BACKGROUND OF THE INVENTION As hardware and software technologies related to various electronic apparatuses including a mobile terminal have developed remarkably, electronic apparatuses can provide or store a wide variety of functions and information. Accordingly, various kinds of information are provided on the screen provided in the electronic device.
또한 터치스크린을 구비하는 이동 단말기의 경우, 사용자의 터치 조작만으로 터치스크린에 제공되는 다양한 정보들에 대해 억세스할 수 있다.In addition, in the case of a mobile terminal having a touch screen, various information provided on the touch screen can be accessed only by a user's touch operation.
최근, 상기 전자 기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치 스크린을 구비하는 이동 단말기에서 동영상을 재생하는 중에 동영상을 제어하려면, 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작하는 것이 일반적이다.In recent years, the electronic devices have been provided with a function for easily viewing and listening to a moving image anytime and anywhere. However, in order to control the moving picture during the reproduction of the moving picture on the mobile terminal equipped with the touch screen, it is common to operate the moving picture in a state where the corresponding menu or icon is displayed on the screen.
특히, 상기 동영상에서 특정 프레임만을 선별하여 감상하고자 하는 경우, 상기 동영상 프레임 전체에서 원하는 프레임을 직접 검색하는 과정을 거쳐야 하는 불편함이 있다.In particular, when a user wants to view only a specific frame in the moving picture, it is inconvenient to directly search a desired frame in the entire moving picture frame.
이에 따라, 재생 중인 동영상을 보다 직관적으로 제어할 수 있는 사용자 인터페이스의 개발이 필요한 실정이다.Accordingly, there is a need to develop a user interface that can more intuitively control the video being played back.
본 발명이 해결하고자 하는 과제는, 동영상 콘텐츠에서 보다 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있는 이동 단말기 및 이동 단말기의 제어 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile terminal and a control method of a mobile terminal capable of selectively viewing frames including a specific object through an intuitive user interface in moving image contents.
특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바 또는 스크롤 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.Particularly, it is possible to recognize a predetermined object in the moving image content, to generate a progress bar or a scroll bar peculiar to the recognized object, and to provide a frame containing the desired object through a simple user operation on the progress bar or scroll bar And to provide a mobile terminal and a mobile terminal that can selectively provide the mobile terminal and the mobile terminal.
또한, 본 발명의 일 실시예에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.
According to an embodiment of the present invention, there is provided a mobile terminal and a mobile terminal capable of more easily editing a frame of the moving picture content based on a recognized object in moving picture contents including at least one object will be.
본 발명의 일 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.A mobile terminal according to an aspect of the present invention includes: a touch screen displaying a playback screen of moving image content and a first bar for controlling playback of the moving image content; And stopping the playback of the moving image content as the input for stopping the playback of the moving image content is received, recognizing a specific object included in the screen on which the playback has been stopped, And a controller for displaying a second bar associated with at least one frame on the touch screen.
상기 제2 바는, 상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함할 수 있다.The second bar may include a bar indexed by grouping a plurality of frames including the specific object according to a playback order.
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The first bar may include a progress icon indicating a current position in the moving image content.
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The second bar may include a progress icon indicating a current position in the moving image content, the frame including the specific object.
상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.The control unit may display a frame corresponding to the position of the touch input on the touch screen when receiving an input for moving a touch input to the progress bar of the second bar in a predetermined direction.
상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동할 수 있다.The predetermined direction can be moved in the lateral direction along the second bar.
상기 제어부는, 상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경할 수 있다.As the frame displayed on the touch screen is changed, the control unit may change the position of the progress icon included in the first bar for indicating the current position in the moving image content.
상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시할 수 있다.Wherein the control unit recognizes at least one object included in the frame displayed on the touch screen when the touch input to the progress bar of the second bar is released and displays a second bar corresponding to the recognized object on the touch screen Can be displayed.
상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함할 수 있다.The predetermined input may include an input to the stop motion icon displayed in the first bar, or a voice command to stop playback of the moving picture content.
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다.The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함할 수 있고, 이 때,상기 제어부는, 제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시할 수 있다.The recognized specific object may include at least two objects, wherein the control unit moves the second bar corresponding to the first object to the second object corresponding to the second object so that at least two second bars In the case of overlapping, a user interface for generating a third bar corresponding to a new frame set generated by combining the first object and the second object may be displayed on the touch screen.
상기 사용자 인터페이스는,Wherein the user interface comprises:
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,A first frame region including any one of the first object and the second object, a second frame region including the first object and the second object,
상기 제어부는, 상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정할 수 있다.Wherein the control unit receives an input for moving a second bar corresponding to the first object to one of the first and second frame areas and maps the second bar corresponding to the first object to a third bar according to the area where the second bar is located Can be set differently.
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우, 상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응될 수 있다.When a second bar corresponding to the first object is located in the first frame region, the generated third bar is a frame including a first object or a second object among the video contents .
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,When a second bar corresponding to the first object is located in the second frame area,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응될 수 있다.The generated third bar may correspond to a frame including the first object and the second object among the moving image contents.
상기 제어부는, 상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경할 수 있다.Wherein when the second bar corresponding to the first object enters one of the first frame region and the second frame region, the controller displays the display characteristics of the frame region in which the second bar enters, Can be changed.
상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함할 수 있다.The third bar may include identification information for distinguishing the combined form of the first object and the second object.
상기 제어부는, 상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시할 수 있다.The controller may display and vary the display characteristic of the first bar so that the frame period corresponding to the third bar among the frames corresponding to the first bar is distinguished from the other frame periods.
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거할 수 있다.When receiving a touch input that causes the second bar to deviate from the touch screen, a frame including an object corresponding to the second bar may be removed from the video content.
상기 제어부는, 상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시할 수 있다.The control unit may display identification information for identifying that a frame including the object corresponding to the second bar has been removed from the moving image content, on the touch screen.
본 발명의 다른 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바(progress bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, there is provided a mobile terminal including: a touch screen for displaying a playback screen of moving image content and a progress bar for controlling playback of the moving image content; And a control unit for recognizing at least one object when the reproduction of the moving picture content is interrupted and indexing the at least one frame including the recognized object according to the reproduction order, And a controller for displaying the at least one object on the touch screen in association with the at least one object.
상기 제어부는, 상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.The control unit may display a frame corresponding to the specific point among the grouped frames on the touch screen when receiving an input for selecting a specific point of the bar.
본 발명의 또 다른 면에 따른 이동 단말기의 제어 방법은, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 상기 터치 스크린에 표시하는 단계; 상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계; 상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계; 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a mobile terminal, the method comprising: displaying a playback screen of a moving image content and a first bar for controlling playback of the moving image content on the touch screen; Receiving a predetermined input for the touch screen; Stopping playback of the moving picture content in response to the predetermined input; Recognizing a specific object included in the screen in which the reproduction is stopped; And displaying a second bar on the touch screen, the second bar being capable of controlling at least one frame including the specific object among all the frames of the moving picture content independently of the moving picture content. have.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.
본 발명의 일 실시예에 따른 이동 단말기 및 이동 단말기의 제어 방법은 다음과 같은 효과가 있다.The control method of the mobile terminal and the mobile terminal according to an embodiment of the present invention has the following effects.
본 발명에 의하면, 동영상 콘텐츠에서 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있다.According to the present invention, a frame including a specific object can be selected and viewed through an intuitive user interface in a moving image content.
특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있다.Particularly, a predetermined object is recognized in the video content, a progress bar specific to the recognized object is generated, and a frame containing an object desired by the user is selected and provided through a simple user operation on the object-specific progress bar or scroll bar can do.
또한, 본 발명에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있다.In addition, according to the present invention, it is possible to more easily edit the frame of the moving picture content based on the recognized object in the moving picture content including at least one object.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention.
3 to 5 are diagrams for explaining a control method of a mobile terminal according to a first embodiment of the present invention.
6 is a flowchart of a method of controlling a mobile terminal according to a second embodiment of the present invention.
7 to 10 are diagrams for explaining a control method of a mobile terminal according to a second embodiment of the present invention.
11 is a flowchart of a method of controlling a mobile terminal according to a third embodiment of the present invention.
12 to 14 are diagrams for explaining a control method of a mobile terminal according to a third embodiment of the present invention.
FIG. 15 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention.
16 to 20 are diagrams for explaining a control method of a mobile terminal according to a third embodiment of the present invention.
21 is a flowchart of a method of controlling a mobile terminal according to a fourth embodiment of the present invention.
22 to 28 are diagrams for explaining a control method of a mobile terminal according to a fourth embodiment of the present invention.
29 is a flowchart of a method of controlling a mobile terminal according to a fifth embodiment of the present invention.
30 to 31 are diagrams for explaining a control method of a mobile terminal according to a fifth embodiment of the present invention.
32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Like reference numerals designate like elements throughout the specification. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 더욱 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서고 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and "part" for constituent elements used in the following description are given or mixed in consideration only of ease of specification, and do not have their own standing or distinguishing meaning or role.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말기 등이 포함될 수 있다.
The mobile terminal described in this specification may include a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation terminal and the like.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-
위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video)
카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This may be referred to as a transparent display. A typical example of the transparent display is a transparent LCD or the like. The rear structure of the
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.
상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the
제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the
이하 본 발명의 실시예들을 설명하기로 한다.Hereinafter, embodiments of the present invention will be described.
본 발명에서는 설명의 편의를 위해 상기 디스플레이부(151)를 터치스크린(151)으로 가정한다. 전술한 바와 같이, 상기 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다. 또한 본 문서에서 언급되는 터치는, 접촉 터치와 근접 터치를 모두 포함할 수 있다.In the present invention, the
한편, 본 발명의 실시예에 따르면, 동영상 클립들을 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스는 예컨대, 사용자가 사용자인터페이스에서 동영상 클립을 업로딩함으로써, 동영상을 감상, 편집 또는 그외의 처리를 할 수 있는 컴퓨터 시스템에 설치된 동영상 편집 소프트웨어 애플리케이션에 의해 제공될 수 있다. 동영상 클립은, 동영상 편집 소프트웨어 애플리케이션이 설치된 컴퓨터 시스템에 저장된 동영상 파일 또는 상기 컴퓨터 시스템에서 동작 가능하도록 결합되는 소정의 저장 장치에 저장된 동영상 파일을 포함할 수 있다. 또한 상기 동영상 파일은 동영상 파일 전체 또는 상기 동영상 파일의 일부를 포함할 수 있다.
According to an embodiment of the present invention, a user interface for editing video clips can be provided. The user interface may be provided by a video editing software application installed in a computer system capable of viewing, editing, or otherwise processing a video, for example, by a user uploading a movie clip in the user interface. The movie clip may include a moving picture file stored in a computer system in which the moving picture editing software application is installed or a moving picture file stored in a predetermined storage device operatively coupled to the computer system. The moving picture file may include the entire moving picture file or a part of the moving picture file.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다. 상기 제어 방법은 도 1에서 설명한 이동 단말기(100)의 제어부(180)의 제어하에 구현될 수 있다.FIG. 2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention, and FIGS. 3 to 5 illustrate a method of controlling the mobile terminal according to the first embodiment of the present invention. The control method may be implemented under the control of the
도 2를 참조하면, 이동 단말기(100)의 제어부(180)는 동영상 콘텐츠를 재생할 수 있다(S110).Referring to FIG. 2, the
상기 동영상(moving picture) 콘텐츠는 이동 단말기(100)의 메모리(160)에 저장되어 있는 파일 혹은 외부 서버로부터 스트리밍되어 제공되는 영상 파일을 포함할 수 있다.The moving picture contents may include a file stored in the
상기 동영상 콘텐츠는 다양한 형식으로 제공될 수 있다. 예를 들어, MPEG(Moving Picture Expert Group), MOCV(Quic Time Movie), RealVideo, Avi 등의 형식으로 제공될 수 있다.The video content may be provided in various formats. For example, Moving Picture Expert Group (MPEG), Quic Time Movie (MOCV), RealVideo, and Avi.
상기 동영상 콘텐츠는, 영화, 드라마 등의 영상 콘텐츠, 단순 뮤직 콘텐츠가 영상과 함께 표시되는 뮤직 콘텐츠를 포함할 수 있다.The video content may include video content such as a movie or a drama, or music content in which simple music content is displayed together with a video.
상기 동영상 콘텐츠가 재생되면, 제어부(180)는 상기 동영상 콘텐츠의 재생 화면을 터치 스크린(151)에 표시할 수 있다.When the moving picture content is played back, the
한편, 제어부(180)는 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar)를 상기 동영상 콘텐츠의 재생 화면에 표시할 수 있다(S120).Meanwhile, the
상기 제1 바는, 동영상 콘텐츠의 재생(playback)을 제어하기 위한 GUI(Graphic User Interface)로서, 바(bar) 형태로 표현될 수 있다. 상기 제1 바는, 현재 재생되고 있는 동영상 콘텐츠에 대한 위치 정보를 제공하는 기능을 가지므로 프로그레스 바(progress bar)로 호칭한다. The first bar is a graphical user interface (GUI) for controlling playback of moving picture contents, and can be expressed in a bar form. The first bar is referred to as a progress bar since it has a function of providing position information on the currently playing video content.
즉, 프로그레스 바는 사용자의 재생 명령에 의해 재생되는 연속된 콘텐츠의 전체 지점 중 현재 재생되는 지점에 대한 위치 정보를 사용자에게 제공한다. 이러한 위치 정보는 프로그레스 바의 다른 부분과 구별되도록 표시되어 사용자에게 제공될 수 있다. 예를 들어, 상기 현재 재생되는 지점에 재생 헤더(playing header)를 위치시키고, 상기 프로그레스 바의 전체 구간 중 상기 재생 헤더의 상대적인 위치에 따라 동영상 콘텐츠의 현재 재생 위치 정보를 식별할 수 있다.That is, the progress bar provides the user with positional information about the current playback point among the whole points of the continuous content reproduced by the user's playback command. This location information may be displayed to the user to be distinguished from other parts of the progress bar. For example, a playing header may be positioned at the currently reproduced point, and the current reproduction position information of the moving picture content may be identified according to the relative position of the reproduction header among the entire sections of the progress bar.
한편, 상기 프로그레스 바는 동영상 콘텐츠의 재생(Playback), 중지(Pause), 빨리 감기(Fast Forward), 빨리 되 감기(Fast Rewind) 기능 등 적어도 하나의 기능에 각각 대응하는 적어도 하나의 소프트 버튼을 포함할 수 있다. 이동 단말기(100)는, 상기 적어도 하나의 소프트 버튼에 대한 입력을 통해 상기 동영상 콘텐츠의 재생을 제어할 수 있다.Meanwhile, the progress bar may include at least one soft button corresponding to at least one function such as a playback, a pause, a fast forward, and a fast rewind . The
한편, 이동 단말기(100)는 상기 동영상 콘텐츠의 재생 화면이 터치 스크린(151)에 표시되는 중 상기 터치 스크린(151)에 대한 터치 입력이 수신되면 상기 프로그레스 바를 터치 스크린(151)의 일 영역에 표시할 수 있다.Meanwhile, when the
제어부(180)는 동영상 콘텐츠의 재생 화면이 표시되는 터치 스크린(151)의 미리 정해진 영역에 대하여 미리 정해진 입력을 수신하는 경우, 상기 동영상 콘텐츠의 재생을 중단시킬 수 있다(S130).If the
예를 들어, 상기 미리 정해진 영역은 프로그레스 바에 포함된 중지(Pause) 버튼을 포함할 수 있다. 상기 중지 버튼에 대한 입력이 수신되면, 제어부(180)는, 콘텐츠 재생이 중단된 상태의 화면(프레임이라 호칭할 수 있음)을 터치 스크린(151)에 표시할 수 있다.For example, the predetermined area may include a pause button included in the progress bar. When the input to the stop button is received, the
제어부(180)는 상기 동영상 콘텐츠의 재생이 중단된 상태에서 화면 속에 포함되어 있는 적어도 하나의 객체를 인식할 수 있다(S140).The
여기서, 상기 동영상 콘텐츠의 재생을 중단시키기 위한 입력은 상기 프로그레스 바에 포함된 중지(pause) 버튼에 대한 롱 터치 입력을 포함할 수 있다. 상기 버튼에 대한 롱 터치 입력이 수신됨에 따라 제어부(180)는 현재 재생 중인 프레임에 포함된 적어도 하나의 객체를 인식하기 위한 객체 인식 모드에 진입할 수 있다.The input for stopping the playback of the moving picture content may include a long touch input for a pause button included in the progress bar. As the long touch input for the button is received, the
한편, 상기 프로그레스 바에 포함된 중지(pause) 버튼을 단순 선택하기 위한 입력이 수신되는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 중지시키는 동작만 수행되도록 제어할 수 있다.Meanwhile, when an input for simply selecting a pause button included in the progress bar is received, the
상기 동영상 콘텐츠는 적어도 하나의 객체(object)를 포함할 수 있다. 상기 객체는 사람, 인물이 아닌 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다. 한편, 상기 동영상 콘텐츠의 재생이 중단된 상태에서 인식될 객체는 미리 설정되어 있을 수 있다.The moving picture content may include at least one object. The object may include at least one of a person, a non-person, a background included in the video content, and at least one object included in the background. On the other hand, the object to be recognized in the state where the reproduction of the moving picture content is interrupted may be set in advance.
예를 들어, 동영상 콘텐츠가 제작될 때, 적어도 하나의 특정 객체에 대한 정보를 포함할 수 있다. 상기 특정 객체에 대한 정보는 상기 객체가 인물인 경우, 상기 동영상 콘텐츠에 등장하는 인물을 인식하기 위한 기준 객체(인물) 정보를 데이터 베이스에 저장하고, 동영상 콘텐츠의 재생이 중단된 화면에서 인식된 객체(인물)가 상기 데이터 베이스에 저장된 객체(인물) 정보와 동일한지를 판단한다. 그런 후, 동일한 객체(인물)정보가 존재하는 경우, 객체(인물) 인식 결과를 사용자에게 알려줄 수 있다.For example, when the video content is produced, it may include information about at least one specific object. The information about the specific object may include information about a reference object for recognizing a person appearing in the moving image content in the database when the object is a person, (Person) is the same as the object (person) information stored in the database. Then, when the same object (person) information exists, the user can be notified of the object (person) recognition result.
제어부(180)는 상기 재생이 중단된 화면에서 인식된 객체를 기준으로, 상기 동영상 콘텐츠에서 상기 인식된 객체를 포함하는 프레임과 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다(S150).The
여기서, 상기 제2 바(a second bar)는 바(bar) 형태로서, 상기 동영상 콘텐츠에 포함된 프레임 중 상기 인식된 객체를 포함하는 프레임을 그룹화되어 인덱싱(indexing)된 상태 바(status bar) 혹은 스크롤 바(scroll bar)를 포함할 수 있다.Here, the second bar may be in the form of a bar, and a frame including the recognized object among the frames included in the moving image content may be grouped and indexed in a status bar or And may include a scroll bar.
또한, 상기 제2 바는, 프로그레스 바(progress bar)로서, 상기 프로그레스 바에 대하여 소정의 방향으로 터치 앤 드래그 입력이 입력되는 경우, 상기 터치 앤 드래그 입력에 의해 인지되는 상기 프로그레스 바 상의 특정 지점에 대응하는 프레임을 터치 스크린(151)에 표시할 수 있다. 상기 프레임은 상기 터치 스크린(151)의 전면에 표시될 수 있다.The second bar may be a progress bar. When a touch-and-drag input is input to the progress bar in a predetermined direction, the second bar may display a specific bar on the progress bar recognized by the touch- A frame corresponding to the point can be displayed on the
즉, 상기 제2 바의 특정 지점은, 상기 특정 객체를 포함하는 하나의 프레임과 연관되어 있다. 따라서, 상기 제2 바의 제1 특정 지점은 상기 특정 객체를 포함하는 제1 프레임과 연관되고, 상기 제2 바의 제2 특정 지점은 상기 특정 객체를 포함하는 제2 프레임과 연관되고, 상기 제2 바의 제N 특정 지점은 상기 특정 객체를 포함하는 제N 프레임과 연관될 수 있다.That is, the specific point of the second bar is associated with one frame including the specific object. Thus, a first specific point of the second bar is associated with a first frame comprising the specific object, a second specific point of the second bar is associated with a second frame comprising the specific object, And the Nth specific point of 2 bars may be associated with the Nth frame containing the particular object.
이하, 도 3 내지 도 5를 참조하여, 재생중인 동영상 콘텐츠가 일시 정지되었을 때, 상기 동영상 콘텐츠에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시하는 과정을 보다 상세하게 설명한다.3 to 5, when the moving picture content to be reproduced is temporarily stopped, at least one object included in the moving picture content is recognized, and a second bar associated with the recognized object is touched The process of displaying on the
도 3은 도 2의 S110 내지 S120 을 설명하기 위한 동영상 콘텐츠 재생 화면의 예이다.3 is an example of a moving image content playback screen for explaining S110 to S120 in FIG.
도 3을 참조하면, 제어부(180)는 동영상 콘텐츠의 재생 화면(C)을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 동영상 콘텐츠의 재생 화면(C)에 대하여 미리 정해진 입력(예를 들어, 상기 재생 화면에 대한 터치 입력)을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar: 프로그레스 바)(20)를 상기 동영상 콘텐츠의 재생 화면(C)의 일 영역에 표시할 수 있다. 여기서, 설명의 편의를 위하여 상기 제1 바를 제2 프로그레스 바로 호칭하기로 한다.Referring to FIG. 3, the
제1 프로그레스 바(20)는 현재 재생되는 동영상 콘텐츠의 프레임이 전체 프레임 중 어느 위치에 해당되는지를 지시하는 프로그레스 아이콘(30)을 포함할 수 있다.The
그리고, 제어부(180)는 상기 제1 프로그레스 바(200)와는 별도로 콘텐츠의 재생 버튼(11), Fast Rewind(FR) 버튼(12), Fast Forward(FF) 버튼(13)을 포함함으로써, 동영상 콘텐츠의 재생을 제어하기 위한 추가적인 제어 영역(10)을 터치 스크린(151)에 표시할 수 있다.The
도 4를 참조하면, 상기 제어 영역(10)에서 상기 재생 버튼(11)을 롱 터치하는 입력을 수신하는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 일시적으로 정지시키고, 정지된 동영상 콘텐츠의 프레임(C(f1))을 터치 스크린(151)에 표시한다.Referring to FIG. 4, in the case of receiving an input for long touching the
제어부(180)는, 상기 롱 터치 입력이 수신됨에 따라 객체 인식 동작을 즉시 수행할 수 있다. 또한, 제어부(180)는 상기 재생 버튼(11)을 선택하여 동영상 콘텐츠를 일시적으로 정지시킨 후, 상기 동영상 콘텐츠를 표시하는 터치 스크린(151) 또는 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바에 대한 롱 터치 입력을 수신하는 경우, 객체 인식 동작을 수행할 수 있다.The
그리고, 제어부(180)는, 상기 동영상 콘텐츠의 프레임(C(f1))에서 적어도 하나의 객체(OB1,OB2,OB3,OB4)를 인식한다. 제어부(180)는 상기 객체(OB1,OB2,OB3,OB4)를 인식하기 위하여 적어도 하나의 객체 인식 알고리즘을 적용할 수 있으며, 이동 단말기(100)는, 상기 객체 인식 알고리즘 중 정지 영상에서 소정의 객체를 인식하기 위한 공지의 알고리즘을 사용할 수 있으며, 상기 객체 인식 알고리즘에 대한 상세한 설명은 생략하기로 한다.The
제어부(180)는 상기 공지의 객체 인식 알고리즘을 이용하여 재생이 중지된 프레임(C(f1))에서 객체(OB1,OB2,OB3,OB4)를 인식하고, 상기 객체(OB1,OB2,OB3,OB4)의 외곽을 점선 폐곡선으로 구분함으로써, 인식된 객체를 식별할 수 있도록 동영상 콘텐츠의 정지 화면의 표시를 제어할 수 있다.The
도 5를 참조하면, 제어부(180)는, 인식된 객체(OB1,OB2,OB3,OB4)와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다. 상기 제2 바(a second bar)는 전술한 바와 같이, 프로그레스 바의 기능을 가지며, 특정 객체를 포함하는 프레임을 그룹화하여 재생 시간 순서에 따라 인덱싱한 상태 바(status bar)로서의 기능을 가질 수 있다. 설명의 편의를 위하여, 상기 제2 바(a second bar)를 객체 프로그레스 바(an object progress bar)로 호칭할 수 있다.5, the
한편, 상기 객체 프로그레스 바는 전술한 제1 프로그레스 바(20)와 구분된다. 제1 프로그레스 바(20)는 동영상 콘텐츠 전체의 재생을 제어하기 위한 바(bar)이고, 상기 객체 프로그레스 바는 인식된 특정 객체를 포함하는 프레임을 독립적으로 제어하기 위한 바(bar)이다.On the other hand, the object progress bar is distinguished from the
한편, 제어부(180)는 상기 객체 프로그레스 바와 함께, 인식된 객체를 식별할 수 있도록 인식된 객체의 식별 정보(예를 들어, 텍스트, 이미지 정보 포함)를 상기 터치 스크린(151)에 표시할 수 있다.On the other hand, the
상기 인식된 객체의 식별 정보는, 이동 단말기의 메모리(도 1의 160)에 저장된 동영상 콘텐츠의 메타 데이터를 통해 획득될 수 있다.The identification information of the recognized object can be obtained through the metadata of the moving picture content stored in the
상기 인식된 객체의 식별 정보는, 특정 객체가 인식되었을 때, 인터넷 또는 외부 서버로부터 상기 특정 객체와 관련된 정보가 검색되어 터치 스크린(151)에 표시될 수 있다.When the specific object is recognized, the identification information of the recognized object may be displayed on the
한편, 제어부(180)는 상기 인식된 객체의 식별 정보를 포함하는 음성 명령을 수신하고, 상기 음성 명령에 따른 제어 동작을 수행할 수 있다. 예를 들어, 상기 음성 명령은, 상기 인식된 객체들 중 제1 객체와 제2 객체를 합성하도록 하는 커맨드, 전체 동영상 콘텐츠에서 특정 객체를 포함하는 프레임이 삭제되도록 하는 커맨드 등을 포함할 수 있다.Meanwhile, the
제어부(180)는 각 객체(OB1,OB2,OB3,OB4)에 대응하는 객체 프로그레스 바(31,32,33,34)를 객체(OB1,OB2,OB3,OB4) 근방에 각각 표시할 수 있다. 예를 들어, 제어부(180)는 인식된 제1 객체(OB1)를 포함하는 프레임들에 대응하는 제1 객체 프로그레스 바(31)를 제1 객체(OB1) 상부에 표시할 수 있다. 제어부(180)는 인식된 제2 객체(OB2)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(32)를 제2 객체(OB2) 상부에 표시하고, 인식된 제3 객체(OB3)를 포함하는 프레임들에 대응하는 제3 객체 프로그레스 바(33)를 제2 객체(OB3) 상부에 표시하고, 인식된 제4 객체(OB4)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(34)를 제2 객체(OB4) 상부에 표시할 수 있다.The
한편, 특정 객체에 대응하는 객체 프로그레스 바는 상기 특정 객체를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 상대적인 위치를 지시하기 위한 프로그레스 아이콘(41,42,43,44)을 포함할 수 있다.On the other hand, the object progress bar corresponding to the specific object has progress icons (41, 42, 43, 44) for indicating the relative position of the frame displayed on the
예를 들어, 제1 객체 프로그레스 바(31)는 제1 객체(OB1)를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 위치를 지시하기 위한 프로그레스 아이콘(41)을 포함할 수 있다. 제2 내지 제4 객체 프로그레스 바(32,33,34)에 대해서도 마찬가지이다.For example, the first
전술한 바와 같이, 이동 단말기(100)의 제어부(180)는, 동영상 콘텐츠에서 특정 객체를 포함하는 프레임을 추출하고 해당 프레임들을 바(bar) 형태의 객체 프로그레스 바에 인덱싱(indexing)하여 터치 스크린에 표시할 수 있다. 그리고, 객체 프로그레스 바에 대한 사용자 조작을 통해 상기 특정 객체를 포함하는 프레임의 표시를 전체 동영상 콘텐츠와 독립적으로 제어할 수 있다.As described above, the
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 6 is a flowchart illustrating a method of controlling a mobile terminal according to a second embodiment of the present invention. FIGS. 7 to 10 illustrate a method of controlling a mobile terminal according to a second embodiment of the present invention.
도 6을 참조하면, 전술한 제1 실시예에서 제어부(180)는, 터치 스크린(151)에 표시된 객체 프로그레스 바(제2 바)를 선택하는 입력을 수신할 수 있다(S210).Referring to FIG. 6, in the first embodiment, the
그리고, 제어부(180)는 상기 객체 프로그레스 바에 포함된 프로그레스 아이콘을 좌우 방향으로 이동시키는 입력을 수신할 수 있다(S220).The
예를 들어, 도 7을 참조하면 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘(41(a))을 좌우 방향으로 이동하는 터치 입력을 수신할 수 있다. 제어부(180)는 제1 객체 프로그레스 바(31)에 대하여 롱 터치 입력을 수신하면, 상기 제1 객체 프로그레스 바(31)의 크기를 확대하여 표시할 수 있다. 이에 따라, 사용자는 확대된 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘 41(a)을 이동시키면서, 스크러빙(scrubing)할 수 있다.For example, referring to FIG. 7, a touch input for moving the progress icon 41 (a) in the left and right directions with respect to the first
상기 스크러빙 입력에 응답하여 제어부(180)는 전체 동영상 콘텐츠 프레임 중 해당 객체를 포함하는 프레임을 검색하고, 검색 결과를 터치 스크린(151)에 표시할 수 있다. 즉, 제어부(180)는 상기 프로그레스 바(제2 바)의 프로그레스 아이콘의 위치에 대응되는 프레임을 터치 스크린(151)에 표시할 수 있다(S230).In response to the scrubbing input, the
도 8을 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치를 41(a)에서 41(b)로 이동하는 터치 입력을 수신하는 경우, 제어부(180)는 위치 41(a)에 대응하는 프레임(도 5의 C(f1))을 위치 41(b)에 대응하는 프레임(도 8의 C(f2))으로 변경하여 터치 스크린(151)에 표시할 수 있다.8, when the touch input for moving the position of the progress icon of the first
한편, 제1 객체 프로그레스 바(31)는 동영상 콘텐츠의 재생을 제어하는 프로그레스 바(20)와 연동될 수 있다. 즉, 전술한 바와 같이 제1 객체 프로그레스 바(31)에 포함된 프로그레스 아이콘의 위치가 변경되면, 상기 변경된 위치를 프로그레스 바(20)에 반영하여, 프로그레스 바(20)에 포함된 프로그레스 아이콘의 위치를 30(a)에서 30(b)로 이동시킬 수 있다. 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(a)은 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(a)에 대응되고, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(b)는 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(b)에 대응된다.On the other hand, the first
도 5 내지 도 8을 통해 설명한 실시예의 경우, 객체 프로그레스 바를 선택하여 소정 방향으로 스크러빙하는 입력을 수신하는 경우, 스크러빙 입력된 위치에 대응되는 프레임을 터치 스크린(151)의 전면에 표시하는 예를 설명하였다.5 to 8, when an input for selecting an object progress bar and scrubbing in a predetermined direction is received, an example of displaying a frame corresponding to the scrubbing input position on the front of the
그러나, 객체 프로그레스바에 대한 스크러빙 입력에 대하여 대응되는 프레임을 표시하는 예는 전술한 방법에 한정되지 않는다.However, the example of displaying the corresponding frame for the scrubbing input to the object progress bar is not limited to the above-mentioned method.
예를 들어, 도 9를 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘(41)을 소정의 방향으로 스크러빙하는 입력을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체를 포함하는 적어도 하나의 프레임을 썸 네일 이미지(Thumbnail image: Th)(1,2,3,4,…,n)로 표시할 수 있다.For example, referring to FIG. 9, when an input for scrubbing the
제어부(180)는 상기 제1 객체를 포함하는 프레임에 대응되는 썸 네일 이미지를 프로그레스 바(20)의 상부에 표시할 수 있다.The
그리고, 제어부(180)는 상기 제1 객체 프로그레스 바(31)의 특정 지점이 스크러빙될 때마다, 상기 특정 지점에 대응하는 썸 네일 이미지를 하이라이트 처리하여 표시할 수 있다. 예를 들어, 도 9를 참조하면, 제어부(180)는, 프로그레스 아이콘의 위치 41에 대응하는 썸 네일 이미지 4를 강조하여 현재 선택된 프레임인 무엇인지를 나타낼 수 있다.The
제어부(180)는, 특정 객체에 대응하는 객체 프로그레스 바에 대한 사용자의 조작에 대응하여 상기 특정 객체를 포함하는 프레임을 전체 동영상 콘텐츠와 독립적으로 제어한다. 상기 객체 프로그레스 바에 대한 제어가 완료되면, 제어부(180)는 새로운 장면에 포함된 객체를 인식하고, 인식된 객체 프로그레스 바를 생성하여 터치 스크린(151)에 표시할 수 있다.The
예를 들어, 도 10을 참조하면, 도 8에서 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바의 프로그레스 아이콘을 제1 지점 41(a)에서 제2 지점 41(b)으로 이동시키는 터치 입력을 입력받은 후, 상기 터치 입력을 해제하는 경우, 상기 제2 지점 41(b)에 대응하는 화면에 포함된 적어도 하나의 객체를 인식하는 동작을 수행할 수 있다.For example, referring to Fig. 10, the progress icon of the first object progress bar corresponding to the first object OB1 is moved from the first point 41 (a) to the second point 41 (b) The controller may recognize at least one object included in the screen corresponding to the second point 41 (b) when the touch input is released after receiving the touch input.
즉, 도 8에서 터치 스크린(151)에 표시된 프레임(C(f2))은 제1 객체(OB1)만 인식된 상태에서 상기 제1 객체(OB1)에 대응하는 프로그레스 바(31)에 대한 조작으로 상기 제1 객체(OB1)를 포함하는 프레임을 터치 스크린(151)에 표시한 것이다.That is, the frame C (f2) displayed on the
그러나, 도 10을 참조하면, 도 10에 도시된 화면에는 제5 객체(OB5) 외에 제6 객체(OB6)도 인식 가능한 객체로 가정한다.However, referring to FIG. 10, it is assumed that a sixth object OB6 in addition to the fifth object OB5 is also recognizable on the screen shown in FIG.
따라서, 제1 프레임(도 5의 C(f1))에서 제5 객체(OB5)에 대응하는 제1 객체 프로그레스 바(31)에 대한 터치 입력의 위치가 제1 지점(도 10의 41(a))에서 제2 지점(도 10의 41(b))으로 이동되는 경우, 상기 제5 객체(OB5)를 포함하는 프레임 중 제2 프레임(도 10의 C(f2))을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 제2 프레임(도 10의 C(f2))에서 상기 제2 지점(41(b))에 대한 터치 입력을 해제하는 경우, 제어부(180)는, 상기 제2 프레임 C(f2)에서 새로운 객체 인식 동작을 수행한다.Therefore, the position of the touch input to the first
상기 객체 인식 동작이 수행됨에 따라, 제5 객체(OB5) 및 제6 객체(OB6)를 인식할 수 있다. 그런 후, 제어부(180)는 상기 제5 객체 (OB5) 및 제6 객체(OB6)에 각각 대응하는 제5 객체 프로그레스 바(51) 및 제6 객체 프로그레스 바(52)를 각각의 객체 상단부에 표시할 수 있다.As the object recognition operation is performed, the fifth object OB5 and the sixth object OB6 can be recognized. The
전술한 바와 같이, 각각의 객체 프로그레스 바(51,52)는 해당 프레임의 현재 위치를 지시하기 위한 프로그레스 아이콘(61,62)을 포함할 수 있다.As described above, each of the
그런 후, 전술한 예와 같이, 제5 객체 프로그레스 바(51) 또는 제6 객체 프로그레스 바(61)에 대한 사용자의 조작에 따라 각 객체를 포함하는 프레임의 표시를 제어할 수 있다.Then, the display of the frame including each object can be controlled according to the user's operation on the fifth
이상에서는 제1 실시예 내지 제2 실시예를 통해, 동영상 콘텐츠를 재생하는 중 상기 재생중인 동영상을 일시 정지시키면, 일시 정지된 화면상에 포함되어 있는 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 추출하고, 상기 추출된 프레임을 인덱싱한(indexing) 객체 프로그레스 바(object progress bar)를 표시하고, 상기 객체 프로그레스 바를 통해 상기 동영상 콘텐츠 전체 프레임 중 상기 인식된 객체를 포함하는 프레임만을 화면상에 디스플레이하는 예를 살펴보았다.As described above, when the moving picture being played back is paused during the reproduction of the moving picture contents through the first and second embodiments, at least one object included in the paused screen is recognized, And displaying an object progress bar indexing the extracted frame, and displaying a frame including the recognized object among the entire video content contents through the object progress bar, Only on the screen.
이하에서는 도 11 내지 도 14를 통해, 전술한 객체 프로그레스 바를 통해 동영상 콘텐츠의 프레임을 편집하는 예를 설명한다.
Hereinafter, an example of editing a frame of moving picture content through the above-described object progress bar will be described with reference to FIG. 11 through FIG.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 11 is a flowchart of a method of controlling a mobile terminal according to a third embodiment of the present invention, and FIGS. 12 to 14 are diagrams for explaining a method of controlling the mobile terminal according to the third embodiment of the present invention.
도 11을 참조하면, 이동 단말기(100)의 제어부(180)는 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 그런 후 제어부(180)는 인식된 객체가 적어도 둘 이상인지 판단한다(310).Referring to FIG. 11, the
제어부(180)는 인식된 둘 이상의 객체 중 제1 객체에 대응하는 제1 객체 프로그레스 바 및 제2 객체에 대응하는 제2 객체 프로그레스 바를 터치 스크린(151)에 표시할 수 있다(S320).The
제어부(180)는 상기 제1 객체 프로그레스 바를 제2 객체 프로그레스바와 중첩시키는 터치 입력을 수신할 수 있다(S330). 상기 터치 입력은 상기 제1 객체 프로그레스 바를 선택하여, 제2 객체 프로그레스 바로 드래그하여 두 개의 객체 프로그레스바가 서로 중첩되도록 하는 입력을 포함할 수 있다.The
그러면, 제어부(180)는 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로움 프레임 세트를 독립적으로 제어할 수 있는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다. Then, the
본 문서에서 제1 바(a first bar), 제2 바(a second bar), 제3 바(a third bar)는 속성이 서로 다른 상태 바(status bar)들이다. 즉, 제1 바는, 동영상 콘텐츠 전체의 재생(pkayback)을 제어하기 위한 프로그레스 바이고, 제2 바는, 하나의 객체에 대응하는 객체 프로그레스 바이고, 제3 바는 적어도 둘 이상의 객체가 합성하여 생성되는 프레임에 대응하는 객체 프로그레스 바로 정의될 수 있다.In this document, a first bar, a second bar, and a third bar are status bars with different attributes. That is, the first bar is a progressive video for controlling pkayback of the entire video content, the second bar is an object progressive corresponding to one object, the third bar is a composite of at least two objects The object progress bar corresponding to the generated frame can be defined.
도 12를 참조하면, 제어부(180)는,제1 객체 프로그레스 바(31)에 대한 롱 터치 입력 또는 더블 터치 입력을 수신하는 경우, 객체 프로그레스의 편집 모드에 진입할 수 있다.12, when the
도 13을 참조하면, 상기 롱 터치 입력에 응답하여 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바(31)를 다른 객체 프로그레스 바(32,33,34)로 이동시키거나, 터치 스크린(151) 화면 밖으로 이동 가능함을 알리는 가이드 정보(71,72,73,74,75)를 터치 스크린(151)에 표시할 수 있다.13, in response to the long touch input, the first
상기 가이드는, 제1 객체 프로그레스 바(31)의 이동 가능한 경로를 나타내는 화살표(71,72,73,74,75) 형식으로 표현될 수 있다.The guide may be represented in the form of
도 14를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)로 이동하여, 두 객체 프로그레스 바(31,32)가 서로 중첩될 수 있다. 상기 중첩에 의해 제1 객체와 제2 객체가 합성되고, 제1 객체 및/또는 제2 객체를 포함하는 프레임에 대응하는 객체 제3 바(a tihrd bar)를 생성하기 위한 사용자 인터페이스(User Interface)에 대해서는 이하에서 보다 상세히 설명한다.Referring to FIG. 14, the first
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이고, 도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 15 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention. FIGS. 16 to 20 illustrate a method for controlling a mobile terminal according to a third embodiment of the present invention. Respectively.
도 15를 참조하면, 제어부(180)는 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역과, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역을 터치 스크린(151)에 표시할 수 있다(S350).Referring to FIG. 15, the
상기 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임 영역을 의미한다.The first frame area including the first object and the second object as a union is a frame area including any one of the first object and the second object among the entire frames of the moving image content.
또한, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 및 제2 객체 모두를 포함하는 프레임 영역을 의미한다.In addition, the second frame region including the first object and the second object as an intersection, means a frame region including both the first object and the second object among the entire frames of the moving image contents.
일 실시예에 따라, 서로 다른 객체 프로그레스 바를 중첩하여 새로운 프레임 세트에 대응하는 객체 프로그레스 바를 생성하기 위한 사용자 인터페이스는, 도 16 내지 도 17에 도시된 바와 같이 밴다이어 그램(Venn diagram) 형태를 가질 수 있다.According to one embodiment, a user interface for creating an object progress bar corresponding to a new set of frames by superimposing different object progress bars includes a Venn diagram form as shown in FIGS. 16 through 17 Lt; / RTI >
도 16을 참조하면, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되면, 밴다이어 그램(80) 형태의 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다.16, when the first
상기 밴 다이어 그램 형식의 사용자 인터페이스는, 제1 객체를 포함하는 프레임에 대응하는 제1 프레임 영역(81,82), 제2 객체를 포함하는 프레임에 대응하는 제2 프레임 영역(32)을 포함할 수 있다.The Van Diagram type user interface includes a
상기 사용자 인터페이스가 터치 스크린(151)에 표시된 상태에서, 제어부(180)는, 제2 객체 프로그레스 바(32)와 중첩상태에 있는 제1 객체 프로그레스 바(31)를 제1 프레임 영역(81,82) 내지 제2 프레임 영역(83) 중 적어도 하나의 영역으로 이동시키는 입력을 수신할 수 있다.When the user interface is displayed on the
그러면, 제어부(180)는 상기 제1 객체 프로그레스 바(31)가 이동된 영역에 따라 제1 객체와 제2 객체의 합성 방식을 결정할 수 있다.Then, the
예를 들어, 도 17을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제2 프레임 영역(83)으로 이동되는 경우, 제어부(180)는 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.17, when the first
또한, 예를 들어, 도 18을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제1 프레임 영역(81 또는 82)으로 이동되는 경우, 제어부(180)는, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.18, when the first
전술한 서로 다른 객체 프로그레스 바의 중첩(overlap)에 의해 생성되는 새로운 객체 프로그레스 바는 도 19에 도시된 바와 같이 표시될 수 있다.A new object progress bar generated by the overlap of the above-described different object progress bars can be displayed as shown in Fig.
도 19를 참조하면, 제1 객체 프로그레스 바(31) 내지 제4 객체 프로그레스 바(34)는 각 객체 프로그레스 바가 위치하는 영역이 해당 객체의 상단부에 위치한다. 따라서, 각 객체 프로그레스 바가 어떤 객체에 대응되는지 구별될 수 있다. 한편, 각 객체 프로그레스 바는 디스플레이 특성 예를 들어, 색상, 투명도 등을 달리함으로써, 각 객체 프로그레스 바를 서로 구별할 수 있다.Referring to FIG. 19, the first
예를 들어, 제1 객체 프로그레스 바(31)와 제4 객체 프로그레스 바(34)의 색상은 서로 다르다.For example, the colors of the first
한편, 두 개의 프로그레스 바의 중첩으로 생성되는 새로운 프로그레스 바(90)는 상기 두 개의 프로그레스 바에 대응되는 객체를 식별하기 위한 식별 정보(예를 들어, 31', 34')를 포함할 수 있다.Meanwhile, a
상기 새로운 프로그레스 바(90)는 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)의 측면 사이드에 표시될 수 있다. 상기 새로운 프로그레스 바(90)를 선택하기 위한 터치 입력(롱 터치 입력 포함)을 수신하는 경우, 제어부(180)는, 상기 새롭게 생성된 프로그레스 바(90)의 속성을 상기 메인 프로그레스 바(20)에 반영할 수 있다.The
예를 들어, 상기 새로운 프로그레스 바(90)는, 제1 객체(OB1)와 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응하는 프로그레스 바이다. 따라서, 상기 프로그레스 바 90을 선택하는 입력을 수신하면, 제어부(180)는 상기 메인 프로그레스 바(20)에서, 상기 제1 객체(OB1) 또는 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응되는 구간(91)을 다른 구간(92)과 식별하여 표시할 수 있다.For example, the
그리고, 도 20에 도시된 바와 같이, 상기 프로그레스 바 90에 대한 스크러빙 입력을 수신하는 경우, 상기 스크러빙 입력에 응답하여 제1 객체(OB1) 또는 제2 객체(OB) 중 어느 하나의 객체를 포함하는 프레임을 터치 스크린(151)에 표시할 수 있다.20, when receiving the scrubbing input for the
전술한 실시예에 의하면, 인식 가능한 객체를 포함하는 동영상 콘텐츠에서 인식된 객체에 대응하는 객체 프로그레스 바를 제어함으로써, 원하는 객체를 포함하는 프레임을 추출하는 동작을 수행하는 예를 살펴보았다.According to the above-described embodiment, an example of performing an operation of extracting a frame including a desired object by controlling an object progress bar corresponding to an object recognized in moving image contents including a recognizable object has been described.
그러나, 객체 프로그레스 바를 통해 원하는 객체를 추출하는 방법은 전술한 예에 한정되지 않고 다양하게 변형되어 실시될 수 있다. 예를 들어, 도 21 내지 도 28을 통해 개시되는 실시예를 살펴본다.
However, the method of extracting a desired object through the object progress bar is not limited to the above-described example, and various modifications can be made. For example, an embodiment disclosed in Figs. 21 to 28 will be described.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 21 is a flowchart of a method of controlling a mobile terminal according to a fourth embodiment of the present invention, and FIGS. 22 to 28 illustrate a method of controlling the mobile terminal according to the fourth embodiment of the present invention.
도 21을 참조하면, 동영상 콘테츠의 재생이 중단된 상태에서 적어도 하나의 객체를 인식한 이후(S140), 제어부(180)는 터치 스크린(151)의 임의의 영역에 대하여 롱 터치 입력을 수신할 수 있다(S410).Referring to FIG. 21, after recognizing at least one object in a state in which playback of the moving picture contents is interrupted (S140), the
예를 들어, 도 22를 참조하면, 상기 롱 터치 입력에 응답하여 제어부(180)는 객체 프로그레스 바를 생성할 것인지를 질의하는 질의창(201)을 터치 스크린(151)에 표시할 수 있다. For example, referring to FIG. 22, in response to the long touch input, the
또한, 도 23을 참조하면, 제어부(180)는, 상기 객체 프로그레스 바는 대응되는 객체가 아직까지 정해지지 않은 객체 프로그레스 바(object progress bar not related to any object)를 생성하여 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 23, the
다시 도 21을 참조하면, 제어부(180)는, 제1 객체를 상기 객체 프로그레스 바로 이동시키는 입력을 수신할 수 있다(S430).Referring again to FIG. 21, the
도 24를 참조하면, 제1 객체(OB1)를 객체 프로그레스 바(202)로 이동시키는 입력은 상기 제1 객체(B1)를 드래그하여 상기 객체 프로그레스 바와 중첩되는 영역을 가지도록 하는 터치 앤 드래그 입력을 포함할 수 있다. 여기서, 제1 객체(OB1)가 상기 객체 프로그레스 바(202) 방향으로 이동되어, 상기 제1 객체(OB1)가 상기 객체 프로그레스 바(202)와 중첩하는 영역이 커질수록 상기 제1 객체의 외형적인 크기를 줄일 수 있다.24, an input for moving the first object OB1 to the
즉, 제1 객체(OB1)가 객체 프로그레스 바(202)로 중첩되면, 제어부(180)는 상기 객체 프로그레스 바(202)를 제1 객체를 포함하는 프레임들을 인덱싱(indexing)한 것으로 인식할 수 있다. 이에 따라, 상기 객체 프로그레스 바(202)에 대한 사용자의 조작에 의해, 제1 객체(OB1)를 포함하는 프레임만을 선별적으로 디스플레이할 수 있다(C).That is, when the first object OB1 is superimposed on the
그리고, 도 25를 참조하면, 전술한 바와 같이, 제1 객체(OB1)가 객체 프로그레스 바(202)로 이동함으로써, 객체 프로그레스 바(202)가 제1 객체(OB1)에 대응되는 것으로 인식된 상태에서, 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력을 수신할 수 있다(S440). 여기서, 상기 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력 또한 제1 객체(OB1)와 마찬가지이다.25, when the first object OB1 moves to the
제어부(180)는, 상기 객체 프로그레스 바(203)에 제2 객체(OB2)를 포함하는 프레임들을 인덱싱(indexing)할 수 있다. 결국, 상기 객체 프로그레스 바(203)는 제1 객체 및/또는 제2 객체를 포함하는 프레임들을 인덱싱한 상태 바(status bar)로서의 기능을 수행할 수 있다.The
도 26을 참조하면, 도 24 및 도 25에 도시된 실시예에 따라 새롭게 생성된 객체 프로그레스 바(204)는 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임에 대응된다. 따라서, 상기 객체 프로그레스 바(204)에 대한 스크러빙 입력(scrubing input)에 응답하여, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임들만 추출하여 터치 스크린(151)에 표시할 수 있다. 제어부(180)는 상기 추출되는 프레임들을 재생 시간에 기초하여 터치 스크린(151)에 순차적으로 표시할 수 있다.Referring to FIG. 26, the
또한, 제어부(180)는, 상기 객체 프로그레스 바(204)에 대한 롱 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(204)의 속성(제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱한 프로그레스 바)을 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)에 반영할 수 있다. 제어부(180)는 상기 반영 결과, 상기 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간들을 다른 구간과 식별되도록 표시할 수 있다. 예를 들어, 제어부(180)는 상기 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간을 음영처리하여 표시할 수 있다.When receiving the long touch input to the
도 27을 참조하면, 제어부(180)는, 객체 프로그레스 바(205)을 선택하는 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(205)의 속성을 나타내기 위한 메뉴창(206)을 터치 스크린(151)에 표시할 수 있다.27, when the
상기 메뉴창(206)은 객체 프로그레스 바(206)에 대응되는 객체 정보(OB1,OB2), 상기 객체 프로그레스 바(206)에 추가로 합성할 객체를 선택할 수 있는 항목, 상기 객체 정보 중 적어도 하나의 객체를 삭제하기 위한 항목을 포함할 수 있다.The
예를 들어, 상기 메뉴창(206)에서 제1 객체(OB1)을 삭제하는 입력을 수신하는 경우, 제어부(180)는 도 28에 도시된 바와 같이, 제2 객체(OB2)를 포함하는 프레임을 선별적으로 디스플레이할 수 있다.For example, when receiving an input for deleting the first object OB1 from the
이에 따라, 상기 객체 프로그레스 바(205)에 매핑되어 있는 객체를 보다 용이하게 추가하거나 삭제할 수 있다.
Accordingly, an object mapped to the object progress bar 205 can be added or deleted more easily.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.FIG. 29 is a flowchart of a method of controlling a mobile terminal according to a fifth embodiment of the present invention, and FIGS. 30 to 31 illustrate a method of controlling the mobile terminal according to the fifth embodiment of the present invention.
도 29를 참조하면, 동영상 콘텐츠의 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 제어부(180)는, 상기 인식된 적어도 하나의 객체(OB1,OB2,OB3,OB4)에 각각 대응되는 객체 프로그레스 바(31,32,33,34)를 각 객체 근방에 표시할 수 있다.Referring to FIG. 29, at least one object is recognized on the screen in which the reproduction of the moving image content is interrupted (S140). The
제어부(180)는 제1 객체 프로그레스 바(31)를 동영상 콘텐츠의 재생 화면에서 화면 밖으로 던지는 제스처를 입력받는 경우, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1)가 포함된 프레임을 제어할 수 있다. 따라서, 동영상 콘텐츠가 재생되는 중 제1 객체(OB1) 나오는 프레임은 디스플레이되지 않을 수 있다.The
도 31을 참조하면, 제1 객체 프로그레스 바(31)에 대한 롱 터치 입력을 수신하는 경우, 상기 제1 객체 프로그레스 바(31)의 상단부에 여집합 기호(C)를 표시할 수 있다. 상기 제1 객체 프로그레스 바(31)를 상기 여집합 기호(C)로 이동시키는 입력을 수신하는 경우, 제어부(180)는 상기 제1 객체 프로그레스 바(31)에 대응하는 제1 객체(OB1)를 포함하는 프레임을 동영상 콘텐츠 재생 중 삭제하고 재생하도록 제어할 수 있다.Referring to FIG. 31, when receiving a long touch input for the first
또한, 도 30 내지 도 31에 도시된 바와 같이, 객체 프로그레스 바를 통해 소정의 객체를 포함하는 프레임을 동영상 콘텐츠에서 제거하는 경우, 이를 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바에 반영할 수 있다.
Also, as shown in FIGS. 30 to 31, when a frame including a predetermined object is removed from the moving image content through the object progress bar, it may be reflected in the main progress bar for controlling the playback of the moving image content .
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.
일 실시예에 의하면, 제어부(180)는 객체 프로그레스 바를 저장할 수 있다.According to one embodiment, the
도 32를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)와 중첩시키는 입력을 수신하고, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되는 경우, 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 적어도 하나의 프레임에 대응하는 새로운 객체 프로그레스 바를 저장할지 여부를 질의하는 질의창(210)을 터치 스크린(151)에 표시할 수 있다.32, an input for superimposing a first
그리고, 제어부(180)는, 이동 단말기(100)의 내부에 저장된 동영상 콘텐츠의 목록을 제공할 수 있다. 상기 동영상 콘텐츠의 목록 중 제1 동영상 콘텐츠(211)를 포함하고, 상기 제1 동영상 콘텐츠(211)를 재생하는 중 제1 객체(OB1)와 제2 객체(OB2)를 모두 포함하는 프레임만을 추출하여 보여줄 수 있는 새로운 객체 프로그레스 바(222)를 동영상 콘텐츠의 목록에 포함하여 디스플레이할 수 있다.The
여기서, 상기 동영상 콘텐츠의 목록은 동영상 콘텐츠의 재생 시간(212)을 포함할 수 있으며, 객체 프로그레스 바를 통해 재생될 수 있는 콘텐츠 재생 시간(223)을 함께 포함할 수 있다.
Here, the list of the moving picture contents may include a
상기에서 설명한 본 발명에 의한 이동 단말기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The above-described method of controlling a mobile terminal according to the present invention can be provided by being recorded in a computer-readable recording medium as a program for execution in a computer.
본 발명에 의한 이동 단말기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The control method of the mobile terminal according to the present invention can be executed through software. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording device include a ROM, a RAM, a CD-ROM, a DVD 占 ROM, a DVD-RAM, a magnetic tape, a floppy disk, a hard disk, The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings. In addition, the embodiments described in this document can be applied to not only the present invention, but also all or some of the embodiments may be selectively combined so that various modifications can be made.
100: 이동 단말기 151: 터치 스크린
180: 제어부100: mobile terminal 151: touch screen
180:
Claims (21)
상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 인식된 특정 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱하여 생성한 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;
를 포함하고,
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함하고,
상기 제어부는, 상기 적어도 둘 이상의 객체 중 제1 객체에 대응하여 생성된 제2 바를 상기 적어도 둘 이상의 객체 중 제2 객체에 대응하여 생성된 제2 바로 이동시키는 입력이 수신되는 경우, 상기 제1 객체 또는 상기 제2 객체를 포함하는 프레임들에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시하는 것을 특징으로 하는 이동 단말기.A touch screen for displaying a playback screen of the video content and a first bar for controlling playback of the video content; And
The playback control unit stops playback of the moving image content as the input for stopping the playback of the moving image content is received and recognizes a specific object included in the screen on which the playback is interrupted, A second bar generated by indexing at least one frame including a plurality of frames in a playback order on the touch screen;
Lt; / RTI >
Wherein the recognized specific object includes at least two objects,
Wherein when the input for moving the second bar created corresponding to the second object among the at least two objects is received, the control unit controls the second object, which is generated in correspondence with the first object among the at least two objects, Or a user interface for generating a third bar corresponding to frames including the second object on the touch screen.
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하고,
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.The method according to claim 1,
Wherein the first bar includes a progress icon indicating a current position in the moving picture content,
Wherein the second bar includes a progress icon indicating a current position in the moving image content, the frame including the specific object.
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 상기 제2 바를 따라 좌우 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.The method of claim 3,
Wherein,
And displays a frame corresponding to the position of the touch input on the touch screen when receiving an input for moving a touch input to the progress bar of the second bar along the second bar in the left and right directions.
상기 제어부는,
상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경하는 이동 단말기.6. The method of claim 5,
Wherein,
Wherein the frame changes the position of the progress icon included in the first bar for indicating the current position in the video content as the frame displayed on the touch screen is changed.
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시하는 이동 단말기.6. The method of claim 5,
Wherein,
When the touch input to the progress bar of the second bar is released, recognizing at least one object included in the frame displayed on the touch screen and displaying a second bar corresponding to the recognized object on the touch screen terminal.
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함하는 이동 단말기.The method according to claim 1,
Wherein the specific object includes at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
상기 사용자 인터페이스는,
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,
상기 제어부는,
상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정하는 이동 단말기.The method according to claim 1,
Wherein the user interface comprises:
A first frame region including any one of the first object and the second object, a second frame region including the first object and the second object,
Wherein,
When receiving an input for moving a second bar corresponding to the first object to one of the first and second frame regions, a frame mapped to the third bar is changed according to the region in which the second bar is located A mobile terminal to set.
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.13. The method of claim 12,
When a second bar corresponding to the first object is located in the first frame area,
Wherein the generated third bar corresponds to a frame including any one of the first object and the second object among the moving image contents.
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.13. The method of claim 12,
When a second bar corresponding to the first object is located in the second frame area,
Wherein the generated third bar corresponds to a frame including the first object and the second object among the moving image contents.
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거하는 이동 단말기.The method according to claim 1,
And removes a frame including an object corresponding to the second bar from the video content when receiving a touch input that causes the second bar to deviate from the touch screen.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-30 | 2012-07-30 | Mobile terminal and method for controlling of the same |
EP13176431.8A EP2690879B1 (en) | 2012-07-23 | 2013-07-15 | Mobile terminal and method for controlling of the same |
US13/947,318 US9710136B2 (en) | 2012-07-23 | 2013-07-22 | Mobile terminal having video playback and method for controlling of the same |
CN201310311468.8A CN103577063B (en) | 2012-07-23 | 2013-07-23 | Mobile terminal and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-30 | 2012-07-30 | Mobile terminal and method for controlling of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140016497A KR20140016497A (en) | 2014-02-10 |
KR101909140B1 true KR101909140B1 (en) | 2018-10-17 |
Family
ID=50265468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-23 | 2012-07-30 | Mobile terminal and method for controlling of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101909140B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150296250A1 (en) * | 2014-04-10 | 2015-10-15 | Google Inc. | Methods, systems, and media for presenting commerce information relating to video content |
KR101580944B1 (en) * | 2014-06-11 | 2015-12-31 | (주)피엑스디 | Video play apparatus with search bar including event image and non-event image and operation method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6681043B1 (en) | 1999-08-16 | 2004-01-20 | University Of Washington | Interactive video object processing environment which visually distinguishes segmented video object |
US20110249861A1 (en) | 2010-04-13 | 2011-10-13 | Sony Ericsson Mobile Communications Japan, Inc. | Content information processing device, content information processing method, content information processing program, and personal digital assistant |
-
2012
- 2012-07-30 KR KR1020120083045A patent/KR101909140B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6681043B1 (en) | 1999-08-16 | 2004-01-20 | University Of Washington | Interactive video object processing environment which visually distinguishes segmented video object |
US20110249861A1 (en) | 2010-04-13 | 2011-10-13 | Sony Ericsson Mobile Communications Japan, Inc. | Content information processing device, content information processing method, content information processing program, and personal digital assistant |
Also Published As
Publication number | Publication date |
---|---|
KR20140016497A (en) | 2014-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101935039B1 (en) | Mobile terminal and method for controlling of the same | |
US9710136B2 (en) | Mobile terminal having video playback and method for controlling of the same | |
KR101976178B1 (en) | Mobile terminal and method for controlling of the same | |
US9294611B2 (en) | Mobile terminal, electronic system and method of transmitting and receiving data using the same | |
KR101978216B1 (en) | Mobile terminal and method for controlling thereof | |
KR101562588B1 (en) | Information providing apparatus and method thereof | |
KR101860342B1 (en) | Mobile terminal and control method therof | |
KR101651926B1 (en) | Mobile terminal and control method thereof | |
KR20140045060A (en) | Mobile terminal and method for controlling thereof | |
KR20140055361A (en) | Mobile terminal and method for controlling of the same | |
KR20140100727A (en) | Electronic Device And Method Of Controlling The Same | |
KR20150060392A (en) | Mobile terminal and method for controlling of the same | |
KR20140091236A (en) | Electronic Device And Method Of Controlling The Same | |
KR101882277B1 (en) | Mobile terminal and method for controlling thereof | |
KR20140018639A (en) | Mobile terminal and control method thereof | |
KR101875744B1 (en) | Electonic device and method for controlling of the same | |
KR101919790B1 (en) | Image display device and method for controlling thereof | |
KR101779001B1 (en) | Mobile terminal and control method therof | |
KR101882276B1 (en) | Mobile terminal and method for controlling thereof | |
KR101785657B1 (en) | Mobile terminal and Method for searching video using metadata thereof | |
KR101987463B1 (en) | Mobile terminal and method for controlling of the same | |
KR101909140B1 (en) | Mobile terminal and method for controlling of the same | |
KR101964461B1 (en) | Mobile terminal and method for controlling of the same | |
KR20130006777A (en) | Mobile terminal and control method for mobile terminal | |
KR101709506B1 (en) | Mobile terminal and editing method of augmented reality information using the mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |