KR20140016497A - Mobile terminal and method for controlling of the same - Google Patents
Mobile terminal and method for controlling of the same Download PDFInfo
- Publication number
- KR20140016497A KR20140016497A KR1020120083045A KR20120083045A KR20140016497A KR 20140016497 A KR20140016497 A KR 20140016497A KR 1020120083045 A KR1020120083045 A KR 1020120083045A KR 20120083045 A KR20120083045 A KR 20120083045A KR 20140016497 A KR20140016497 A KR 20140016497A
- Authority
- KR
- South Korea
- Prior art keywords
- bar
- video content
- frame
- touch screen
- playback
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000004044 response Effects 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 230000000694 effects Effects 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005201 scrubbing Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000700560 Molluscum contagiosum virus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/42—Graphical user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 동영상에 포함된 객체(object)를 이용하여 동영상의 재생을 제어하기 위한 사용자 인터페이스를 제공하는 이동 단말기 및 이동 단말기의 제어 방법에 관한 것이다.The present invention relates to a mobile terminal and a method for controlling the mobile terminal that provide a user interface for controlling playback of a video using an object included in the video.
이동 단말기를 포함한 각종 전자 기기와 관련된 하드웨어 기술 및 소프트웨어 기술이 비약적으로 발전함에 따라, 전자 기기는 매우 다양한 기능들과 정보들을 제공하거나 저장할 수 있게 되었다. 이에 따라 전자 기기에 구비된 화면에는 이와 같이 다양한 정보들을 제공하게 되었다.BACKGROUND OF THE INVENTION As hardware and software technologies related to various electronic apparatuses including a mobile terminal have developed remarkably, electronic apparatuses can provide or store a wide variety of functions and information. Accordingly, various kinds of information are provided on the screen provided in the electronic device.
또한 터치스크린을 구비하는 이동 단말기의 경우, 사용자의 터치 조작만으로 터치스크린에 제공되는 다양한 정보들에 대해 억세스할 수 있다.In addition, in the case of a mobile terminal having a touch screen, various information provided on the touch screen can be accessed only by a user's touch operation.
최근, 상기 전자 기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치 스크린을 구비하는 이동 단말기에서 동영상을 재생하는 중에 동영상을 제어하려면, 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작하는 것이 일반적이다.Recently, the electronic devices provide a function of easily playing and watching a video anytime and anywhere. However, in order to control a video while playing a video on a mobile terminal having a touch screen, it is common to operate while the corresponding menu or icon is displayed on the screen.
특히, 상기 동영상에서 특정 프레임만을 선별하여 감상하고자 하는 경우, 상기 동영상 프레임 전체에서 원하는 프레임을 직접 검색하는 과정을 거쳐야 하는 불편함이 있다.In particular, when only a specific frame is selected and enjoyed in the video, it is inconvenient to go through a process of directly searching for a desired frame in the entire video frame.
이에 따라, 재생 중인 동영상을 보다 직관적으로 제어할 수 있는 사용자 인터페이스의 개발이 필요한 실정이다.Accordingly, it is necessary to develop a user interface that can more intuitively control the video being played.
본 발명이 해결하고자 하는 과제는, 동영상 콘텐츠에서 보다 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있는 이동 단말기 및 이동 단말기의 제어 방법을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a mobile terminal and a method of controlling the mobile terminal capable of selecting and viewing a frame including a specific object through a more intuitive user interface in video content.
특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바 또는 스크롤 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.In particular, by recognizing a predetermined object in the video content, creating a progress bar or scroll bar unique to the recognized object, and using a simple user manipulation of the progress bar or scroll bar unique to the object, a frame containing the object desired by the user is created. It is to provide a mobile terminal and a mobile terminal that can be selectively provided.
또한, 본 발명의 일 실시예에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있는 이동 단말기 및 이동 단말기를 제공하는 것이다.
In addition, according to an embodiment of the present invention, in a video content including at least one object, to provide a mobile terminal and a mobile terminal that can more easily edit the frame of the video content based on the recognized object will be.
본 발명의 일 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to an aspect of the present invention, there is provided a mobile terminal including: a touch screen displaying a playback screen of video content and a first bar for controlling playback of the video content; And stopping playback of the video content when an input for stopping playback of the video content is received, recognizing a specific object included in the screen where the playback is stopped, and including the specific object among all frames of the video content. And a controller configured to display a second bar associated with at least one frame on the touch screen.
상기 제2 바는, 상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함할 수 있다.The second bar may include a bar in which a plurality of frames including the specific object are grouped and indexed according to a playback order.
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The first bar may include a progress icon indicating a current position in the video content.
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함할 수 있다.The second bar may include a progress icon indicating that a frame including the specific object indicates a current position in the video content.
상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.When the controller receives an input for moving the touch input to the progress icon of the second bar in a predetermined direction, the controller may display a frame corresponding to the position of the touch input on the touch screen.
상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동할 수 있다.The predetermined direction may move in a left and right direction along the second bar.
상기 제어부는, 상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경할 수 있다.As the frame displayed on the touch screen is changed, the controller may change the position of the progress icon included in the first bar indicating the current position in the video content.
상기 제어부는, 상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시할 수 있다.When the touch input of the progress icon of the second bar is released, the controller recognizes at least one object included in a frame displayed on the touch screen, and displays the second bar corresponding to the recognized object on the touch screen. Can be marked on.
상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함할 수 있다.The predetermined input may include an input for a playback stop icon displayed in the first bar or a voice command for stopping playback of moving image content.
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다.The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함할 수 있고, 이 때,상기 제어부는, 제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시할 수 있다.The recognized specific object may include at least two or more objects, wherein the controller moves the second bar corresponding to the first object to a second bar corresponding to the second object so that at least two or more second bars are mutually different. When overlapping, a user interface for generating a third bar corresponding to a new frame set generated by synthesizing the first object and the second object may be displayed on the touch screen.
상기 사용자 인터페이스는,Wherein the user interface comprises:
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,A first frame area including one of the first object and the second object, and a second frame area including the first object and the second object,
상기 제어부는, 상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정할 수 있다.When the controller receives an input for moving a second bar corresponding to the first object to any one of the first to second frame areas, the controller maps the second bar to a third bar according to an area where the second bar is located. You can set different frames.
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우, 상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응될 수 있다.When the second bar corresponding to the first object is located in the first frame area, the generated third bar may be in a frame including any one of the first object and the second object of the video content. Can correspond.
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,When the second bar corresponding to the first object is located in the second frame area,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응될 수 있다.The generated third bar may correspond to a frame including the first object and the second object of the video content.
상기 제어부는, 상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경할 수 있다.When the second bar corresponding to the first object enters any one of the first frame area and the second frame area, the controller may display display characteristics of the frame area in which the second bar enters the user interface. You can change it.
상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함할 수 있다.The third bar may include identification information for distinguishing a form in which the first object and the second object are synthesized.
상기 제어부는, 상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시할 수 있다.The controller may modify and display the display characteristics of the first bar so that the frame section corresponding to the third bar among the frames corresponding to the first bar is distinguished from other frame sections.
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거할 수 있다.When receiving a touch input for moving the second bar away from the touch screen, a frame including an object corresponding to the second bar may be removed from the video content.
상기 제어부는, 상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시할 수 있다.The controller may display identification information for identifying that the frame including the object corresponding to the second bar has been removed from the video content on the touch screen.
본 발명의 다른 면에 따른 이동 단말기는, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바(progress bar)를 표시하는 터치 스크린; 및 상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, a mobile terminal includes: a touch screen displaying a playback screen of video content and a progress bar for controlling playback of the video content; And a bar generated by recognizing at least one object and indexing at least one frame including the recognized object in a playback order when the playback of the video content is stopped. And a controller to display on the touch screen in association with at least one object.
상기 제어부는, 상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시할 수 있다.When the controller receives an input for selecting a specific point of the bar, the controller may display a frame corresponding to the specific point among the grouped frames on the touch screen.
본 발명의 또 다른 면에 따른 이동 단말기의 제어 방법은, 동영상 콘텐츠의 재생 화면 및 상기 동영상 콘텐츠의 재생(playback)을 제어하기 위한 제1 바(a first bar)를 상기 터치 스크린에 표시하는 단계; 상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계; 상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계; 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;를 포함할 수 있다.According to still another aspect of the present invention, there is provided a method of controlling a mobile terminal, the method including: displaying a playback screen of video content and a first bar for controlling playback of the video content on the touch screen; Receiving a predetermined input to the touch screen; Stopping playback of the video content in response to the predetermined input; Recognizing a specific object included in the screen on which playback is stopped; And displaying a second bar on the touch screen to control at least one frame including the specific object among the entire frames of the video content independently of the video content. have.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.
본 발명의 일 실시예에 따른 이동 단말기 및 이동 단말기의 제어 방법은 다음과 같은 효과가 있다.The control method of the mobile terminal and the mobile terminal according to an embodiment of the present invention has the following effects.
본 발명에 의하면, 동영상 콘텐츠에서 직관적인 사용자 인터페이스를 통해 특정 객체를 포함하는 프레임을 선별하여 감상할 수 있다.According to the present invention, a frame including a specific object can be selected and viewed through an intuitive user interface in the video content.
특히, 동영상 콘텐츠에서 소정의 객체를 인식하고, 인식된 객체 고유의 프로그레스 바를 생성하고, 상기 객체 고유의 프로그레스 바 또는 스크롤 바에 대한 간편한 사용자 조작으로 사용자가 원하는 객체가 포함된 프레임을 선별하여 제공할 수 있다.In particular, a predetermined object is recognized in the video content, a progress bar unique to the recognized object is generated, and a frame including an object desired by the user is provided by selection of a user's desired progress bar or scroll bar by simple user manipulation. can do.
또한, 본 발명에 의하면, 적어도 하나의 객체를 포함하는 동영상 콘텐츠에서, 인식된 객체를 기반으로 하여 상기 동영상 콘텐츠의 프레임을 보다 용이하게 편집할 수 있다.In addition, according to the present invention, in the video content including at least one object, the frame of the video content can be easily edited based on the recognized object.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이다.
도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a flowchart of a method of controlling a mobile terminal according to a first embodiment of the present invention.
3 to 5 are diagrams for describing a method for controlling a mobile terminal according to a first embodiment of the present invention.
6 is a flowchart of a method of controlling a mobile terminal according to a second embodiment of the present invention.
7 to 10 are diagrams for describing a method for controlling a mobile terminal according to a second embodiment of the present invention.
11 is a flowchart of a control method of a mobile terminal according to a third embodiment of the present invention.
12 to 14 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.
15 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention in more detail.
16 to 20 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.
21 is a flowchart of a control method of a mobile terminal according to a fourth embodiment of the present invention.
22 to 28 are diagrams for describing a method for controlling a mobile terminal according to a fourth embodiment of the present invention.
29 is a flowchart of a control method of a mobile terminal according to a fifth embodiment of the present invention.
30 to 31 are diagrams for describing a method for controlling a mobile terminal according to a fifth embodiment of the present invention.
32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Like numbers refer to like elements throughout. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 더욱 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서고 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a mobile terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and "part" for constituent elements used in the following description are given or mixed in consideration only of ease of specification, and do not have their own standing or distinguishing meaning or role.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말기 등이 포함될 수 있다.
The mobile terminal described in this specification may include a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation terminal and the like.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-
위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video)
카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This may be referred to as a transparent display. A typical example of the transparent display is a transparent LCD or the like. The rear structure of the
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.The
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.
상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the
제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing functions. In some cases, And may be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the
이하 본 발명의 실시예들을 설명하기로 한다.Hereinafter, embodiments of the present invention will be described.
본 발명에서는 설명의 편의를 위해 상기 디스플레이부(151)를 터치스크린(151)으로 가정한다. 전술한 바와 같이, 상기 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다. 또한 본 문서에서 언급되는 터치는, 접촉 터치와 근접 터치를 모두 포함할 수 있다.In the present invention, for convenience of description, it is assumed that the
한편, 본 발명의 실시예에 따르면, 동영상 클립들을 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스는 예컨대, 사용자가 사용자인터페이스에서 동영상 클립을 업로딩함으로써, 동영상을 감상, 편집 또는 그외의 처리를 할 수 있는 컴퓨터 시스템에 설치된 동영상 편집 소프트웨어 애플리케이션에 의해 제공될 수 있다. 동영상 클립은, 동영상 편집 소프트웨어 애플리케이션이 설치된 컴퓨터 시스템에 저장된 동영상 파일 또는 상기 컴퓨터 시스템에서 동작 가능하도록 결합되는 소정의 저장 장치에 저장된 동영상 파일을 포함할 수 있다. 또한 상기 동영상 파일은 동영상 파일 전체 또는 상기 동영상 파일의 일부를 포함할 수 있다.
Meanwhile, according to an embodiment of the present invention, a user interface for editing video clips may be provided. The user interface may be provided by a video editing software application installed in a computer system that allows a user to view, edit, or otherwise process a video by, for example, uploading a video clip at the user interface. The video clip may include a video file stored in a computer system on which a video editing software application is installed or a video file stored in a predetermined storage device operatively coupled to the computer system. In addition, the video file may include the entire video file or a part of the video file.
도 2는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 3 내지 도 5는 본 발명의 제1 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다. 상기 제어 방법은 도 1에서 설명한 이동 단말기(100)의 제어부(180)의 제어하에 구현될 수 있다.2 is a flowchart illustrating a control method of a mobile terminal according to the first embodiment of the present invention, and FIGS. 3 to 5 are diagrams for describing a control method of the mobile terminal according to the first embodiment of the present invention. The control method may be implemented under the control of the
도 2를 참조하면, 이동 단말기(100)의 제어부(180)는 동영상 콘텐츠를 재생할 수 있다(S110).Referring to FIG. 2, the
상기 동영상(moving picture) 콘텐츠는 이동 단말기(100)의 메모리(160)에 저장되어 있는 파일 혹은 외부 서버로부터 스트리밍되어 제공되는 영상 파일을 포함할 수 있다.The moving picture content may include a file stored in the
상기 동영상 콘텐츠는 다양한 형식으로 제공될 수 있다. 예를 들어, MPEG(Moving Picture Expert Group), MOCV(Quic Time Movie), RealVideo, Avi 등의 형식으로 제공될 수 있다.The video content may be provided in various formats. For example, it may be provided in a format of Moving Picture Expert Group (MPEG), Quick Time Movie (MOCV), RealVideo, Avi, or the like.
상기 동영상 콘텐츠는, 영화, 드라마 등의 영상 콘텐츠, 단순 뮤직 콘텐츠가 영상과 함께 표시되는 뮤직 콘텐츠를 포함할 수 있다.The video content may include video content such as a movie or drama and music content in which simple music content is displayed together with the video.
상기 동영상 콘텐츠가 재생되면, 제어부(180)는 상기 동영상 콘텐츠의 재생 화면을 터치 스크린(151)에 표시할 수 있다.When the video content is played, the
한편, 제어부(180)는 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar)를 상기 동영상 콘텐츠의 재생 화면에 표시할 수 있다(S120).Meanwhile, the
상기 제1 바는, 동영상 콘텐츠의 재생(playback)을 제어하기 위한 GUI(Graphic User Interface)로서, 바(bar) 형태로 표현될 수 있다. 상기 제1 바는, 현재 재생되고 있는 동영상 콘텐츠에 대한 위치 정보를 제공하는 기능을 가지므로 프로그레스 바(progress bar)로 호칭한다. The first bar is a graphical user interface (GUI) for controlling playback of video content and may be represented in a bar form. The first bar is called a progress bar because it has a function of providing location information on video content currently being played.
즉, 프로그레스 바는 사용자의 재생 명령에 의해 재생되는 연속된 콘텐츠의 전체 지점 중 현재 재생되는 지점에 대한 위치 정보를 사용자에게 제공한다. 이러한 위치 정보는 프로그레스 바의 다른 부분과 구별되도록 표시되어 사용자에게 제공될 수 있다. 예를 들어, 상기 현재 재생되는 지점에 재생 헤더(playing header)를 위치시키고, 상기 프로그레스 바의 전체 구간 중 상기 재생 헤더의 상대적인 위치에 따라 동영상 콘텐츠의 현재 재생 위치 정보를 식별할 수 있다.That is, the progress bar provides the user with location information on the current playback point among all the points of the continuous content played back by the user's playback command. Such location information may be marked and provided to the user to distinguish it from other parts of the progress bar. For example, a playing header may be located at the current playing point, and the current playing position information of the video content may be identified according to the relative position of the playing header among the entire sections of the progress bar.
한편, 상기 프로그레스 바는 동영상 콘텐츠의 재생(Playback), 중지(Pause), 빨리 감기(Fast Forward), 빨리 되 감기(Fast Rewind) 기능 등 적어도 하나의 기능에 각각 대응하는 적어도 하나의 소프트 버튼을 포함할 수 있다. 이동 단말기(100)는, 상기 적어도 하나의 소프트 버튼에 대한 입력을 통해 상기 동영상 콘텐츠의 재생을 제어할 수 있다.Meanwhile, the progress bar may include at least one soft button corresponding to at least one function such as a playback, pause, fast forward, and fast rewind function of the video content. It may include. The
한편, 이동 단말기(100)는 상기 동영상 콘텐츠의 재생 화면이 터치 스크린(151)에 표시되는 중 상기 터치 스크린(151)에 대한 터치 입력이 수신되면 상기 프로그레스 바를 터치 스크린(151)의 일 영역에 표시할 수 있다.Meanwhile, when the touch input for the
제어부(180)는 동영상 콘텐츠의 재생 화면이 표시되는 터치 스크린(151)의 미리 정해진 영역에 대하여 미리 정해진 입력을 수신하는 경우, 상기 동영상 콘텐츠의 재생을 중단시킬 수 있다(S130).When the
예를 들어, 상기 미리 정해진 영역은 프로그레스 바에 포함된 중지(Pause) 버튼을 포함할 수 있다. 상기 중지 버튼에 대한 입력이 수신되면, 제어부(180)는, 콘텐츠 재생이 중단된 상태의 화면(프레임이라 호칭할 수 있음)을 터치 스크린(151)에 표시할 수 있다.For example, the predetermined area may include a pause button included in a progress bar. When an input for the stop button is received, the
제어부(180)는 상기 동영상 콘텐츠의 재생이 중단된 상태에서 화면 속에 포함되어 있는 적어도 하나의 객체를 인식할 수 있다(S140).The
여기서, 상기 동영상 콘텐츠의 재생을 중단시키기 위한 입력은 상기 프로그레스 바에 포함된 중지(pause) 버튼에 대한 롱 터치 입력을 포함할 수 있다. 상기 버튼에 대한 롱 터치 입력이 수신됨에 따라 제어부(180)는 현재 재생 중인 프레임에 포함된 적어도 하나의 객체를 인식하기 위한 객체 인식 모드에 진입할 수 있다.Here, the input for stopping the playback of the video content may include a long touch input for a pause button included in the progress bar. As the long touch input to the button is received, the
한편, 상기 프로그레스 바에 포함된 중지(pause) 버튼을 단순 선택하기 위한 입력이 수신되는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 중지시키는 동작만 수행되도록 제어할 수 있다.Meanwhile, when an input for simply selecting a pause button included in the progress bar is received, the
상기 동영상 콘텐츠는 적어도 하나의 객체(object)를 포함할 수 있다. 상기 객체는 사람, 인물이 아닌 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함할 수 있다. 한편, 상기 동영상 콘텐츠의 재생이 중단된 상태에서 인식될 객체는 미리 설정되어 있을 수 있다.The video content may include at least one object. The object may include at least one of a person, an object other than a person, a background included in the video content, and at least one object included in the background. Meanwhile, the object to be recognized while the playback of the video content is stopped may be set in advance.
예를 들어, 동영상 콘텐츠가 제작될 때, 적어도 하나의 특정 객체에 대한 정보를 포함할 수 있다. 상기 특정 객체에 대한 정보는 상기 객체가 인물인 경우, 상기 동영상 콘텐츠에 등장하는 인물을 인식하기 위한 기준 객체(인물) 정보를 데이터 베이스에 저장하고, 동영상 콘텐츠의 재생이 중단된 화면에서 인식된 객체(인물)가 상기 데이터 베이스에 저장된 객체(인물) 정보와 동일한지를 판단한다. 그런 후, 동일한 객체(인물)정보가 존재하는 경우, 객체(인물) 인식 결과를 사용자에게 알려줄 수 있다.For example, when the video content is produced, it may include information on at least one specific object. The information on the specific object is, when the object is a person, the reference object (person) information for recognizing a person appearing in the video content is stored in the database, the object recognized on the screen where the playback of the video content is stopped It is determined whether the (person) is the same as the object (person) information stored in the database. Thereafter, when the same object (person) information exists, the user may be informed of the object (person) recognition result.
제어부(180)는 상기 재생이 중단된 화면에서 인식된 객체를 기준으로, 상기 동영상 콘텐츠에서 상기 인식된 객체를 포함하는 프레임과 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다(S150).The
여기서, 상기 제2 바(a second bar)는 바(bar) 형태로서, 상기 동영상 콘텐츠에 포함된 프레임 중 상기 인식된 객체를 포함하는 프레임을 그룹화되어 인덱싱(indexing)된 상태 바(status bar) 혹은 스크롤 바(scroll bar)를 포함할 수 있다.Here, the second bar has a bar shape, and is a status bar grouped and indexed by a frame including the recognized object among frames included in the video content. It may include a scroll bar.
또한, 상기 제2 바는, 프로그레스 바(progress bar)로서, 상기 프로그레스 바에 대하여 소정의 방향으로 터치 앤 드래그 입력이 입력되는 경우, 상기 터치 앤 드래그 입력에 의해 인지되는 상기 프로그레스 바 상의 특정 지점에 대응하는 프레임을 터치 스크린(151)에 표시할 수 있다. 상기 프레임은 상기 터치 스크린(151)의 전면에 표시될 수 있다.In addition, the second bar is a progress bar. When a touch and drag input is input in a predetermined direction with respect to the progress bar, the second bar is a specific bar on the progress bar recognized by the touch and drag input. The frame corresponding to the point may be displayed on the
즉, 상기 제2 바의 특정 지점은, 상기 특정 객체를 포함하는 하나의 프레임과 연관되어 있다. 따라서, 상기 제2 바의 제1 특정 지점은 상기 특정 객체를 포함하는 제1 프레임과 연관되고, 상기 제2 바의 제2 특정 지점은 상기 특정 객체를 포함하는 제2 프레임과 연관되고, 상기 제2 바의 제N 특정 지점은 상기 특정 객체를 포함하는 제N 프레임과 연관될 수 있다.That is, the specific point of the second bar is associated with one frame containing the specific object. Thus, the first specific point of the second bar is associated with a first frame that includes the specific object, the second specific point of the second bar is associated with a second frame that includes the specific object, The Nth specific point of the two bars may be associated with the Nth frame including the specific object.
이하, 도 3 내지 도 5를 참조하여, 재생중인 동영상 콘텐츠가 일시 정지되었을 때, 상기 동영상 콘텐츠에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시하는 과정을 보다 상세하게 설명한다.3 to 5, when the video content being played is paused, at least one object included in the video content is recognized and a second bar associated with the recognized object is touched. The process of displaying on the
도 3은 도 2의 S110 내지 S120 을 설명하기 위한 동영상 콘텐츠 재생 화면의 예이다.3 is an example of a video content reproduction screen for explaining S110 to S120 of FIG. 2.
도 3을 참조하면, 제어부(180)는 동영상 콘텐츠의 재생 화면(C)을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 동영상 콘텐츠의 재생 화면(C)에 대하여 미리 정해진 입력(예를 들어, 상기 재생 화면에 대한 터치 입력)을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 재생을 제어하기 위한 제1 바(a first bar: 프로그레스 바)(20)를 상기 동영상 콘텐츠의 재생 화면(C)의 일 영역에 표시할 수 있다. 여기서, 설명의 편의를 위하여 상기 제1 바를 제2 프로그레스 바로 호칭하기로 한다.Referring to FIG. 3, the
제1 프로그레스 바(20)는 현재 재생되는 동영상 콘텐츠의 프레임이 전체 프레임 중 어느 위치에 해당되는지를 지시하는 프로그레스 아이콘(30)을 포함할 수 있다.The
그리고, 제어부(180)는 상기 제1 프로그레스 바(200)와는 별도로 콘텐츠의 재생 버튼(11), Fast Rewind(FR) 버튼(12), Fast Forward(FF) 버튼(13)을 포함함으로써, 동영상 콘텐츠의 재생을 제어하기 위한 추가적인 제어 영역(10)을 터치 스크린(151)에 표시할 수 있다.In addition, the
도 4를 참조하면, 상기 제어 영역(10)에서 상기 재생 버튼(11)을 롱 터치하는 입력을 수신하는 경우, 제어부(180)는 현재 재생 중인 동영상 콘텐츠를 일시적으로 정지시키고, 정지된 동영상 콘텐츠의 프레임(C(f1))을 터치 스크린(151)에 표시한다.Referring to FIG. 4, when receiving an input of long touching the
제어부(180)는, 상기 롱 터치 입력이 수신됨에 따라 객체 인식 동작을 즉시 수행할 수 있다. 또한, 제어부(180)는 상기 재생 버튼(11)을 선택하여 동영상 콘텐츠를 일시적으로 정지시킨 후, 상기 동영상 콘텐츠를 표시하는 터치 스크린(151) 또는 상기 동영상 콘텐츠의 재생을 제어하기 위한 프로그레스 바에 대한 롱 터치 입력을 수신하는 경우, 객체 인식 동작을 수행할 수 있다.The
그리고, 제어부(180)는, 상기 동영상 콘텐츠의 프레임(C(f1))에서 적어도 하나의 객체(OB1,OB2,OB3,OB4)를 인식한다. 제어부(180)는 상기 객체(OB1,OB2,OB3,OB4)를 인식하기 위하여 적어도 하나의 객체 인식 알고리즘을 적용할 수 있으며, 이동 단말기(100)는, 상기 객체 인식 알고리즘 중 정지 영상에서 소정의 객체를 인식하기 위한 공지의 알고리즘을 사용할 수 있으며, 상기 객체 인식 알고리즘에 대한 상세한 설명은 생략하기로 한다.The
제어부(180)는 상기 공지의 객체 인식 알고리즘을 이용하여 재생이 중지된 프레임(C(f1))에서 객체(OB1,OB2,OB3,OB4)를 인식하고, 상기 객체(OB1,OB2,OB3,OB4)의 외곽을 점선 폐곡선으로 구분함으로써, 인식된 객체를 식별할 수 있도록 동영상 콘텐츠의 정지 화면의 표시를 제어할 수 있다.The
도 5를 참조하면, 제어부(180)는, 인식된 객체(OB1,OB2,OB3,OB4)와 연관된 제2 바(a second bar)를 터치 스크린(151)에 표시할 수 있다. 상기 제2 바(a second bar)는 전술한 바와 같이, 프로그레스 바의 기능을 가지며, 특정 객체를 포함하는 프레임을 그룹화하여 재생 시간 순서에 따라 인덱싱한 상태 바(status bar)로서의 기능을 가질 수 있다. 설명의 편의를 위하여, 상기 제2 바(a second bar)를 객체 프로그레스 바(an object progress bar)로 호칭할 수 있다.Referring to FIG. 5, the
한편, 상기 객체 프로그레스 바는 전술한 제1 프로그레스 바(20)와 구분된다. 제1 프로그레스 바(20)는 동영상 콘텐츠 전체의 재생을 제어하기 위한 바(bar)이고, 상기 객체 프로그레스 바는 인식된 특정 객체를 포함하는 프레임을 독립적으로 제어하기 위한 바(bar)이다.Meanwhile, the object progress bar is distinguished from the
한편, 제어부(180)는 상기 객체 프로그레스 바와 함께, 인식된 객체를 식별할 수 있도록 인식된 객체의 식별 정보(예를 들어, 텍스트, 이미지 정보 포함)를 상기 터치 스크린(151)에 표시할 수 있다.Meanwhile, the
상기 인식된 객체의 식별 정보는, 이동 단말기의 메모리(도 1의 160)에 저장된 동영상 콘텐츠의 메타 데이터를 통해 획득될 수 있다.Identification information of the recognized object may be obtained through metadata of video content stored in a memory (160 of FIG. 1) of the mobile terminal.
상기 인식된 객체의 식별 정보는, 특정 객체가 인식되었을 때, 인터넷 또는 외부 서버로부터 상기 특정 객체와 관련된 정보가 검색되어 터치 스크린(151)에 표시될 수 있다.The identification information of the recognized object may be displayed on the
한편, 제어부(180)는 상기 인식된 객체의 식별 정보를 포함하는 음성 명령을 수신하고, 상기 음성 명령에 따른 제어 동작을 수행할 수 있다. 예를 들어, 상기 음성 명령은, 상기 인식된 객체들 중 제1 객체와 제2 객체를 합성하도록 하는 커맨드, 전체 동영상 콘텐츠에서 특정 객체를 포함하는 프레임이 삭제되도록 하는 커맨드 등을 포함할 수 있다.Meanwhile, the
제어부(180)는 각 객체(OB1,OB2,OB3,OB4)에 대응하는 객체 프로그레스 바(31,32,33,34)를 객체(OB1,OB2,OB3,OB4) 근방에 각각 표시할 수 있다. 예를 들어, 제어부(180)는 인식된 제1 객체(OB1)를 포함하는 프레임들에 대응하는 제1 객체 프로그레스 바(31)를 제1 객체(OB1) 상부에 표시할 수 있다. 제어부(180)는 인식된 제2 객체(OB2)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(32)를 제2 객체(OB2) 상부에 표시하고, 인식된 제3 객체(OB3)를 포함하는 프레임들에 대응하는 제3 객체 프로그레스 바(33)를 제2 객체(OB3) 상부에 표시하고, 인식된 제4 객체(OB4)를 포함하는 프레임들에 대응하는 제2 객체 프로그레스 바(34)를 제2 객체(OB4) 상부에 표시할 수 있다.The
한편, 특정 객체에 대응하는 객체 프로그레스 바는 상기 특정 객체를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 상대적인 위치를 지시하기 위한 프로그레스 아이콘(41,42,43,44)을 포함할 수 있다.On the other hand, the object progress bar corresponding to a specific object is a progress icon (41, 42, 43, 44) for indicating the relative position of the frame currently displayed on the
예를 들어, 제1 객체 프로그레스 바(31)는 제1 객체(OB1)를 포함하는 전체 프레임 중 현재 터치 스크린(151)에 표시된 프레임의 위치를 지시하기 위한 프로그레스 아이콘(41)을 포함할 수 있다. 제2 내지 제4 객체 프로그레스 바(32,33,34)에 대해서도 마찬가지이다.For example, the first
전술한 바와 같이, 이동 단말기(100)의 제어부(180)는, 동영상 콘텐츠에서 특정 객체를 포함하는 프레임을 추출하고 해당 프레임들을 바(bar) 형태의 객체 프로그레스 바에 인덱싱(indexing)하여 터치 스크린에 표시할 수 있다. 그리고, 객체 프로그레스 바에 대한 사용자 조작을 통해 상기 특정 객체를 포함하는 프레임의 표시를 전체 동영상 콘텐츠와 독립적으로 제어할 수 있다.As described above, the
도 6은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 7 내지 도 10은 본 발명의 제2 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.6 is a flowchart illustrating a method for controlling a mobile terminal according to a second embodiment of the present invention, and FIGS. 7 to 10 are diagrams for describing a method for controlling a mobile terminal according to a second embodiment of the present invention.
도 6을 참조하면, 전술한 제1 실시예에서 제어부(180)는, 터치 스크린(151)에 표시된 객체 프로그레스 바(제2 바)를 선택하는 입력을 수신할 수 있다(S210).Referring to FIG. 6, in the above-described first embodiment, the
그리고, 제어부(180)는 상기 객체 프로그레스 바에 포함된 프로그레스 아이콘을 좌우 방향으로 이동시키는 입력을 수신할 수 있다(S220).The
예를 들어, 도 7을 참조하면 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘(41(a))을 좌우 방향으로 이동하는 터치 입력을 수신할 수 있다. 제어부(180)는 제1 객체 프로그레스 바(31)에 대하여 롱 터치 입력을 수신하면, 상기 제1 객체 프로그레스 바(31)의 크기를 확대하여 표시할 수 있다. 이에 따라, 사용자는 확대된 제1 객체 프로그레스 바(31)에 대하여 프로그레스 아이콘 41(a)을 이동시키면서, 스크러빙(scrubing)할 수 있다.For example, referring to FIG. 7, a touch input for moving the progress icon 41 (a) to the left and right directions with respect to the first
상기 스크러빙 입력에 응답하여 제어부(180)는 전체 동영상 콘텐츠 프레임 중 해당 객체를 포함하는 프레임을 검색하고, 검색 결과를 터치 스크린(151)에 표시할 수 있다. 즉, 제어부(180)는 상기 프로그레스 바(제2 바)의 프로그레스 아이콘의 위치에 대응되는 프레임을 터치 스크린(151)에 표시할 수 있다(S230).In response to the scrubbing input, the
도 8을 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치를 41(a)에서 41(b)로 이동하는 터치 입력을 수신하는 경우, 제어부(180)는 위치 41(a)에 대응하는 프레임(도 5의 C(f1))을 위치 41(b)에 대응하는 프레임(도 8의 C(f2))으로 변경하여 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 8, when receiving a touch input for moving the progress icon of the first
한편, 제1 객체 프로그레스 바(31)는 동영상 콘텐츠의 재생을 제어하는 프로그레스 바(20)와 연동될 수 있다. 즉, 전술한 바와 같이 제1 객체 프로그레스 바(31)에 포함된 프로그레스 아이콘의 위치가 변경되면, 상기 변경된 위치를 프로그레스 바(20)에 반영하여, 프로그레스 바(20)에 포함된 프로그레스 아이콘의 위치를 30(a)에서 30(b)로 이동시킬 수 있다. 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(a)은 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(a)에 대응되고, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘의 위치 40(b)는 프로그레스 바(20)의 프로그레스 아이콘의 위치 30(b)에 대응된다.Meanwhile, the first
도 5 내지 도 8을 통해 설명한 실시예의 경우, 객체 프로그레스 바를 선택하여 소정 방향으로 스크러빙하는 입력을 수신하는 경우, 스크러빙 입력된 위치에 대응되는 프레임을 터치 스크린(151)의 전면에 표시하는 예를 설명하였다.5 through 8 illustrate an example in which a frame corresponding to the scrub input position is displayed on the front surface of the
그러나, 객체 프로그레스바에 대한 스크러빙 입력에 대하여 대응되는 프레임을 표시하는 예는 전술한 방법에 한정되지 않는다.However, the example of displaying a frame corresponding to the scrubbing input for the object progress bar is not limited to the above-described method.
예를 들어, 도 9를 참조하면, 제1 객체 프로그레스 바(31)의 프로그레스 아이콘(41)을 소정의 방향으로 스크러빙하는 입력을 수신하는 경우, 제어부(180)는 상기 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체를 포함하는 적어도 하나의 프레임을 썸 네일 이미지(Thumbnail image: Th)(1,2,3,4,…,n)로 표시할 수 있다.For example, referring to FIG. 9, when receiving an input for scrubbing the
제어부(180)는 상기 제1 객체를 포함하는 프레임에 대응되는 썸 네일 이미지를 프로그레스 바(20)의 상부에 표시할 수 있다.The
그리고, 제어부(180)는 상기 제1 객체 프로그레스 바(31)의 특정 지점이 스크러빙될 때마다, 상기 특정 지점에 대응하는 썸 네일 이미지를 하이라이트 처리하여 표시할 수 있다. 예를 들어, 도 9를 참조하면, 제어부(180)는, 프로그레스 아이콘의 위치 41에 대응하는 썸 네일 이미지 4를 강조하여 현재 선택된 프레임인 무엇인지를 나타낼 수 있다.In addition, whenever a specific point of the first
제어부(180)는, 특정 객체에 대응하는 객체 프로그레스 바에 대한 사용자의 조작에 대응하여 상기 특정 객체를 포함하는 프레임을 전체 동영상 콘텐츠와 독립적으로 제어한다. 상기 객체 프로그레스 바에 대한 제어가 완료되면, 제어부(180)는 새로운 장면에 포함된 객체를 인식하고, 인식된 객체 프로그레스 바를 생성하여 터치 스크린(151)에 표시할 수 있다.The
예를 들어, 도 10을 참조하면, 도 8에서 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바의 프로그레스 아이콘을 제1 지점 41(a)에서 제2 지점 41(b)으로 이동시키는 터치 입력을 입력받은 후, 상기 터치 입력을 해제하는 경우, 상기 제2 지점 41(b)에 대응하는 화면에 포함된 적어도 하나의 객체를 인식하는 동작을 수행할 수 있다.For example, referring to FIG. 10, in FIG. 8, the progress icon of the first object progress bar corresponding to the first object OB1 is moved from the first point 41 (a) to the second point 41 (b). When the touch input is released after receiving the touch input, the at least one object included in the screen corresponding to the second point 41 (b) may be recognized.
즉, 도 8에서 터치 스크린(151)에 표시된 프레임(C(f2))은 제1 객체(OB1)만 인식된 상태에서 상기 제1 객체(OB1)에 대응하는 프로그레스 바(31)에 대한 조작으로 상기 제1 객체(OB1)를 포함하는 프레임을 터치 스크린(151)에 표시한 것이다.That is, the frame C (f2) displayed on the
그러나, 도 10을 참조하면, 도 10에 도시된 화면에는 제5 객체(OB5) 외에 제6 객체(OB6)도 인식 가능한 객체로 가정한다.However, referring to FIG. 10, it is assumed that the sixth object OB6 is recognized as an object in addition to the fifth object OB5 on the screen illustrated in FIG. 10.
따라서, 제1 프레임(도 5의 C(f1))에서 제5 객체(OB5)에 대응하는 제1 객체 프로그레스 바(31)에 대한 터치 입력의 위치가 제1 지점(도 10의 41(a))에서 제2 지점(도 10의 41(b))으로 이동되는 경우, 상기 제5 객체(OB5)를 포함하는 프레임 중 제2 프레임(도 10의 C(f2))을 터치 스크린(151)에 표시할 수 있다. 그리고, 상기 제2 프레임(도 10의 C(f2))에서 상기 제2 지점(41(b))에 대한 터치 입력을 해제하는 경우, 제어부(180)는, 상기 제2 프레임 C(f2)에서 새로운 객체 인식 동작을 수행한다.Accordingly, the position of the touch input with respect to the first
상기 객체 인식 동작이 수행됨에 따라, 제5 객체(OB5) 및 제6 객체(OB6)를 인식할 수 있다. 그런 후, 제어부(180)는 상기 제5 객체 (OB5) 및 제6 객체(OB6)에 각각 대응하는 제5 객체 프로그레스 바(51) 및 제6 객체 프로그레스 바(52)를 각각의 객체 상단부에 표시할 수 있다.As the object recognition operation is performed, the fifth object OB5 and the sixth object OB6 may be recognized. Thereafter, the
전술한 바와 같이, 각각의 객체 프로그레스 바(51,52)는 해당 프레임의 현재 위치를 지시하기 위한 프로그레스 아이콘(61,62)을 포함할 수 있다.As described above, each of the
그런 후, 전술한 예와 같이, 제5 객체 프로그레스 바(51) 또는 제6 객체 프로그레스 바(61)에 대한 사용자의 조작에 따라 각 객체를 포함하는 프레임의 표시를 제어할 수 있다.Thereafter, as shown in the above example, the display of the frame including each object may be controlled according to a user's manipulation of the fifth
이상에서는 제1 실시예 내지 제2 실시예를 통해, 동영상 콘텐츠를 재생하는 중 상기 재생중인 동영상을 일시 정지시키면, 일시 정지된 화면상에 포함되어 있는 적어도 하나의 객체를 인식하고, 인식된 객체를 포함하는 프레임을 추출하고, 상기 추출된 프레임을 인덱싱한(indexing) 객체 프로그레스 바(object progress bar)를 표시하고, 상기 객체 프로그레스 바를 통해 상기 동영상 콘텐츠 전체 프레임 중 상기 인식된 객체를 포함하는 프레임만을 화면상에 디스플레이하는 예를 살펴보았다.In the above description, in the first to second embodiments, when the playing video is paused while playing video content, at least one object included in the paused screen is recognized and the recognized object is recognized. A frame including an extracted object frame, an object progress bar indexing the extracted frame, and a frame including the recognized object among the entire frames of the video content through the object progress bar; We have seen an example of displaying bays on the screen.
이하에서는 도 11 내지 도 14를 통해, 전술한 객체 프로그레스 바를 통해 동영상 콘텐츠의 프레임을 편집하는 예를 설명한다.
Hereinafter, an example of editing a frame of video content through the object progress bar described above will be described with reference to FIGS. 11 through 14.
도 11은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 12 내지 도 14는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.11 is a flowchart illustrating a method for controlling a mobile terminal according to a third embodiment of the present invention, and FIGS. 12 to 14 are diagrams for describing a method for controlling a mobile terminal according to a third embodiment of the present invention.
도 11을 참조하면, 이동 단말기(100)의 제어부(180)는 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 그런 후 제어부(180)는 인식된 객체가 적어도 둘 이상인지 판단한다(310).Referring to FIG. 11, the
제어부(180)는 인식된 둘 이상의 객체 중 제1 객체에 대응하는 제1 객체 프로그레스 바 및 제2 객체에 대응하는 제2 객체 프로그레스 바를 터치 스크린(151)에 표시할 수 있다(S320).The
제어부(180)는 상기 제1 객체 프로그레스 바를 제2 객체 프로그레스바와 중첩시키는 터치 입력을 수신할 수 있다(S330). 상기 터치 입력은 상기 제1 객체 프로그레스 바를 선택하여, 제2 객체 프로그레스 바로 드래그하여 두 개의 객체 프로그레스바가 서로 중첩되도록 하는 입력을 포함할 수 있다.The
그러면, 제어부(180)는 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로움 프레임 세트를 독립적으로 제어할 수 있는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다. Then, the
본 문서에서 제1 바(a first bar), 제2 바(a second bar), 제3 바(a third bar)는 속성이 서로 다른 상태 바(status bar)들이다. 즉, 제1 바는, 동영상 콘텐츠 전체의 재생(pkayback)을 제어하기 위한 프로그레스 바이고, 제2 바는, 하나의 객체에 대응하는 객체 프로그레스 바이고, 제3 바는 적어도 둘 이상의 객체가 합성하여 생성되는 프레임에 대응하는 객체 프로그레스 바로 정의될 수 있다.In this document, a first bar, a second bar, and a third bar are status bars having different attributes. That is, the first bar is a progress bar for controlling pkayback of the entire video content, the second bar is an object progress bar corresponding to one object, and the third bar is composed of at least two objects. The object progress bar corresponding to the generated frame may be defined.
도 12를 참조하면, 제어부(180)는,제1 객체 프로그레스 바(31)에 대한 롱 터치 입력 또는 더블 터치 입력을 수신하는 경우, 객체 프로그레스의 편집 모드에 진입할 수 있다.Referring to FIG. 12, when the
도 13을 참조하면, 상기 롱 터치 입력에 응답하여 제1 객체(OB1)에 대응하는 제1 객체 프로그레스 바(31)를 다른 객체 프로그레스 바(32,33,34)로 이동시키거나, 터치 스크린(151) 화면 밖으로 이동 가능함을 알리는 가이드 정보(71,72,73,74,75)를 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 13, in response to the long touch input, the first
상기 가이드는, 제1 객체 프로그레스 바(31)의 이동 가능한 경로를 나타내는 화살표(71,72,73,74,75) 형식으로 표현될 수 있다.The guide may be expressed in the form of
도 14를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)로 이동하여, 두 객체 프로그레스 바(31,32)가 서로 중첩될 수 있다. 상기 중첩에 의해 제1 객체와 제2 객체가 합성되고, 제1 객체 및/또는 제2 객체를 포함하는 프레임에 대응하는 객체 제3 바(a tihrd bar)를 생성하기 위한 사용자 인터페이스(User Interface)에 대해서는 이하에서 보다 상세히 설명한다.Referring to FIG. 14, by moving the first
도 15는 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 보다 구체적으로 설명하기 위한 흐름도이고, 도 16 내지 도 20은 본 발명의 제3 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.15 is a flowchart illustrating a control method of a mobile terminal according to a third embodiment of the present invention in more detail, and FIGS. 16 to 20 illustrate a control method of a mobile terminal according to a third embodiment of the present invention. Figures for.
도 15를 참조하면, 제어부(180)는 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역과, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역을 터치 스크린(151)에 표시할 수 있다(S350).Referring to FIG. 15, the
상기 제1 객체와 제2 객체를 합집합으로 포함하는 제1 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임 영역을 의미한다.The first frame area including the first object and the second object as a union means a frame area including any one of the first object and the second object among the entire frames of the video content.
또한, 상기 제1 객체와 제2 객체를 교집합으로 포함하는 제2 프레임 영역은, 동영상 콘텐츠의 전체 프레임 중 제1 객체 및 제2 객체 모두를 포함하는 프레임 영역을 의미한다.Also, the second frame area including the first object and the second object as an intersection means a frame area including both the first object and the second object among the entire frames of the video content.
일 실시예에 따라, 서로 다른 객체 프로그레스 바를 중첩하여 새로운 프레임 세트에 대응하는 객체 프로그레스 바를 생성하기 위한 사용자 인터페이스는, 도 16 내지 도 17에 도시된 바와 같이 밴다이어 그램(Venn diagram) 형태를 가질 수 있다.According to one embodiment, a user interface for generating an object progress bar corresponding to a new set of frames by overlapping different object progress bars may be in the form of a Venn diagram as illustrated in FIGS. 16 to 17. Can have
도 16을 참조하면, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되면, 밴다이어 그램(80) 형태의 사용자 인터페이스를 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 16, when the first
상기 밴 다이어 그램 형식의 사용자 인터페이스는, 제1 객체를 포함하는 프레임에 대응하는 제1 프레임 영역(81,82), 제2 객체를 포함하는 프레임에 대응하는 제2 프레임 영역(32)을 포함할 수 있다.The van diagram type user interface may include
상기 사용자 인터페이스가 터치 스크린(151)에 표시된 상태에서, 제어부(180)는, 제2 객체 프로그레스 바(32)와 중첩상태에 있는 제1 객체 프로그레스 바(31)를 제1 프레임 영역(81,82) 내지 제2 프레임 영역(83) 중 적어도 하나의 영역으로 이동시키는 입력을 수신할 수 있다.In a state where the user interface is displayed on the
그러면, 제어부(180)는 상기 제1 객체 프로그레스 바(31)가 이동된 영역에 따라 제1 객체와 제2 객체의 합성 방식을 결정할 수 있다.Then, the
예를 들어, 도 17을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제2 프레임 영역(83)으로 이동되는 경우, 제어부(180)는 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.For example, referring to FIG. 17, when the first
또한, 예를 들어, 도 18을 참조하면, 상기 제1 객체 프로그레스 바(31)가 제1 프레임 영역(81 또는 82)으로 이동되는 경우, 제어부(180)는, 동영상 콘텐츠의 전체 프레임 중 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임들을 인덱싱하는 새로운 객체 프로그레스 바를 생성하여 표시할 수 있다.For example, referring to FIG. 18, when the first
전술한 서로 다른 객체 프로그레스 바의 중첩(overlap)에 의해 생성되는 새로운 객체 프로그레스 바는 도 19에 도시된 바와 같이 표시될 수 있다.The new object progress bar created by the overlap of the different object progress bars described above may be displayed as shown in FIG. 19.
도 19를 참조하면, 제1 객체 프로그레스 바(31) 내지 제4 객체 프로그레스 바(34)는 각 객체 프로그레스 바가 위치하는 영역이 해당 객체의 상단부에 위치한다. 따라서, 각 객체 프로그레스 바가 어떤 객체에 대응되는지 구별될 수 있다. 한편, 각 객체 프로그레스 바는 디스플레이 특성 예를 들어, 색상, 투명도 등을 달리함으로써, 각 객체 프로그레스 바를 서로 구별할 수 있다.Referring to FIG. 19, in the first
예를 들어, 제1 객체 프로그레스 바(31)와 제4 객체 프로그레스 바(34)의 색상은 서로 다르다.For example, the colors of the first
한편, 두 개의 프로그레스 바의 중첩으로 생성되는 새로운 프로그레스 바(90)는 상기 두 개의 프로그레스 바에 대응되는 객체를 식별하기 위한 식별 정보(예를 들어, 31', 34')를 포함할 수 있다.Meanwhile, the
상기 새로운 프로그레스 바(90)는 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)의 측면 사이드에 표시될 수 있다. 상기 새로운 프로그레스 바(90)를 선택하기 위한 터치 입력(롱 터치 입력 포함)을 수신하는 경우, 제어부(180)는, 상기 새롭게 생성된 프로그레스 바(90)의 속성을 상기 메인 프로그레스 바(20)에 반영할 수 있다.The
예를 들어, 상기 새로운 프로그레스 바(90)는, 제1 객체(OB1)와 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응하는 프로그레스 바이다. 따라서, 상기 프로그레스 바 90을 선택하는 입력을 수신하면, 제어부(180)는 상기 메인 프로그레스 바(20)에서, 상기 제1 객체(OB1) 또는 제4 객체(OB4) 중 어느 하나의 객체를 포함하는 프레임에 대응되는 구간(91)을 다른 구간(92)과 식별하여 표시할 수 있다.For example, the
그리고, 도 20에 도시된 바와 같이, 상기 프로그레스 바 90에 대한 스크러빙 입력을 수신하는 경우, 상기 스크러빙 입력에 응답하여 제1 객체(OB1) 또는 제2 객체(OB) 중 어느 하나의 객체를 포함하는 프레임을 터치 스크린(151)에 표시할 수 있다.As illustrated in FIG. 20, when a scrubbing input for the
전술한 실시예에 의하면, 인식 가능한 객체를 포함하는 동영상 콘텐츠에서 인식된 객체에 대응하는 객체 프로그레스 바를 제어함으로써, 원하는 객체를 포함하는 프레임을 추출하는 동작을 수행하는 예를 살펴보았다.According to the above-described embodiment, an example of performing an operation of extracting a frame including a desired object by controlling an object progress bar corresponding to the recognized object in the video content including the recognizable object has been described.
그러나, 객체 프로그레스 바를 통해 원하는 객체를 추출하는 방법은 전술한 예에 한정되지 않고 다양하게 변형되어 실시될 수 있다. 예를 들어, 도 21 내지 도 28을 통해 개시되는 실시예를 살펴본다.
However, the method of extracting a desired object through the object progress bar is not limited to the above-described example and may be variously modified. For example, the embodiment disclosed through FIGS. 21 to 28 will be described.
도 21은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 22 내지 도 28은 본 발명의 제4 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.21 is a flowchart illustrating a method for controlling a mobile terminal according to a fourth embodiment of the present invention, and FIGS. 22 to 28 are diagrams for describing a method for controlling a mobile terminal according to a fourth embodiment of the present invention.
도 21을 참조하면, 동영상 콘테츠의 재생이 중단된 상태에서 적어도 하나의 객체를 인식한 이후(S140), 제어부(180)는 터치 스크린(151)의 임의의 영역에 대하여 롱 터치 입력을 수신할 수 있다(S410).Referring to FIG. 21, after recognizing at least one object in a state in which playback of video content is stopped (S140), the
예를 들어, 도 22를 참조하면, 상기 롱 터치 입력에 응답하여 제어부(180)는 객체 프로그레스 바를 생성할 것인지를 질의하는 질의창(201)을 터치 스크린(151)에 표시할 수 있다. For example, referring to FIG. 22, in response to the long touch input, the
또한, 도 23을 참조하면, 제어부(180)는, 상기 객체 프로그레스 바는 대응되는 객체가 아직까지 정해지지 않은 객체 프로그레스 바(object progress bar not related to any object)를 생성하여 터치 스크린(151)에 표시할 수 있다.In addition, referring to FIG. 23, the
다시 도 21을 참조하면, 제어부(180)는, 제1 객체를 상기 객체 프로그레스 바로 이동시키는 입력을 수신할 수 있다(S430).Referring back to FIG. 21, the
도 24를 참조하면, 제1 객체(OB1)를 객체 프로그레스 바(202)로 이동시키는 입력은 상기 제1 객체(B1)를 드래그하여 상기 객체 프로그레스 바와 중첩되는 영역을 가지도록 하는 터치 앤 드래그 입력을 포함할 수 있다. 여기서, 제1 객체(OB1)가 상기 객체 프로그레스 바(202) 방향으로 이동되어, 상기 제1 객체(OB1)가 상기 객체 프로그레스 바(202)와 중첩하는 영역이 커질수록 상기 제1 객체의 외형적인 크기를 줄일 수 있다.Referring to FIG. 24, an input for moving a first object OB1 to an
즉, 제1 객체(OB1)가 객체 프로그레스 바(202)로 중첩되면, 제어부(180)는 상기 객체 프로그레스 바(202)를 제1 객체를 포함하는 프레임들을 인덱싱(indexing)한 것으로 인식할 수 있다. 이에 따라, 상기 객체 프로그레스 바(202)에 대한 사용자의 조작에 의해, 제1 객체(OB1)를 포함하는 프레임만을 선별적으로 디스플레이할 수 있다(C).That is, when the first object OB1 overlaps the
그리고, 도 25를 참조하면, 전술한 바와 같이, 제1 객체(OB1)가 객체 프로그레스 바(202)로 이동함으로써, 객체 프로그레스 바(202)가 제1 객체(OB1)에 대응되는 것으로 인식된 상태에서, 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력을 수신할 수 있다(S440). 여기서, 상기 제2 객체(OB2)를 상기 객체 프로그레스 바(203)로 이동시키는 입력 또한 제1 객체(OB1)와 마찬가지이다.Referring to FIG. 25, as described above, the first object OB1 moves to the
제어부(180)는, 상기 객체 프로그레스 바(203)에 제2 객체(OB2)를 포함하는 프레임들을 인덱싱(indexing)할 수 있다. 결국, 상기 객체 프로그레스 바(203)는 제1 객체 및/또는 제2 객체를 포함하는 프레임들을 인덱싱한 상태 바(status bar)로서의 기능을 수행할 수 있다.The
도 26을 참조하면, 도 24 및 도 25에 도시된 실시예에 따라 새롭게 생성된 객체 프로그레스 바(204)는 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임에 대응된다. 따라서, 상기 객체 프로그레스 바(204)에 대한 스크러빙 입력(scrubing input)에 응답하여, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 프레임들만 추출하여 터치 스크린(151)에 표시할 수 있다. 제어부(180)는 상기 추출되는 프레임들을 재생 시간에 기초하여 터치 스크린(151)에 순차적으로 표시할 수 있다.Referring to FIG. 26, the newly created
또한, 제어부(180)는, 상기 객체 프로그레스 바(204)에 대한 롱 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(204)의 속성(제1 객체와 제2 객체를 모두 포함하는 프레임들을 인덱싱한 프로그레스 바)을 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바(20)에 반영할 수 있다. 제어부(180)는 상기 반영 결과, 상기 동영상 콘텐츠의 전체 프레임 중 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간들을 다른 구간과 식별되도록 표시할 수 있다. 예를 들어, 제어부(180)는 상기 제1 객체와 제2 객체가 동시에 포함되어 있는 프레임에 대응하는 구간을 음영처리하여 표시할 수 있다.In addition, when the
도 27을 참조하면, 제어부(180)는, 객체 프로그레스 바(205)을 선택하는 터치 입력을 수신하는 경우, 상기 객체 프로그레스 바(205)의 속성을 나타내기 위한 메뉴창(206)을 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 27, when the
상기 메뉴창(206)은 객체 프로그레스 바(206)에 대응되는 객체 정보(OB1,OB2), 상기 객체 프로그레스 바(206)에 추가로 합성할 객체를 선택할 수 있는 항목, 상기 객체 정보 중 적어도 하나의 객체를 삭제하기 위한 항목을 포함할 수 있다.The
예를 들어, 상기 메뉴창(206)에서 제1 객체(OB1)을 삭제하는 입력을 수신하는 경우, 제어부(180)는 도 28에 도시된 바와 같이, 제2 객체(OB2)를 포함하는 프레임을 선별적으로 디스플레이할 수 있다.For example, when receiving an input for deleting the first object OB1 from the
이에 따라, 상기 객체 프로그레스 바(205)에 매핑되어 있는 객체를 보다 용이하게 추가하거나 삭제할 수 있다.
Accordingly, an object mapped to the object progress bar 205 may be added or deleted more easily.
도 29는 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법의 흐름도이고, 도 30 내지 도 31은 본 발명의 제5 실시예에 따른 이동 단말기의 제어 방법을 설명하기 위한 도면들이다.29 is a flowchart illustrating a method for controlling a mobile terminal according to a fifth embodiment of the present invention, and FIGS. 30 to 31 are diagrams for describing a method for controlling a mobile terminal according to a fifth embodiment of the present invention.
도 29를 참조하면, 동영상 콘텐츠의 재생이 중단된 화면에서 적어도 하나의 객체를 인식한다(S140). 제어부(180)는, 상기 인식된 적어도 하나의 객체(OB1,OB2,OB3,OB4)에 각각 대응되는 객체 프로그레스 바(31,32,33,34)를 각 객체 근방에 표시할 수 있다.Referring to FIG. 29, at least one object is recognized on a screen where playback of video content is stopped (S140). The
제어부(180)는 제1 객체 프로그레스 바(31)를 동영상 콘텐츠의 재생 화면에서 화면 밖으로 던지는 제스처를 입력받는 경우, 동영상 콘텐츠의 전체 프레임 중 상기 제1 객체(OB1)가 포함된 프레임을 제어할 수 있다. 따라서, 동영상 콘텐츠가 재생되는 중 제1 객체(OB1) 나오는 프레임은 디스플레이되지 않을 수 있다.When the
도 31을 참조하면, 제1 객체 프로그레스 바(31)에 대한 롱 터치 입력을 수신하는 경우, 상기 제1 객체 프로그레스 바(31)의 상단부에 여집합 기호(C)를 표시할 수 있다. 상기 제1 객체 프로그레스 바(31)를 상기 여집합 기호(C)로 이동시키는 입력을 수신하는 경우, 제어부(180)는 상기 제1 객체 프로그레스 바(31)에 대응하는 제1 객체(OB1)를 포함하는 프레임을 동영상 콘텐츠 재생 중 삭제하고 재생하도록 제어할 수 있다.Referring to FIG. 31, when a long touch input to the first
또한, 도 30 내지 도 31에 도시된 바와 같이, 객체 프로그레스 바를 통해 소정의 객체를 포함하는 프레임을 동영상 콘텐츠에서 제거하는 경우, 이를 동영상 콘텐츠의 재생을 제어하기 위한 메인 프로그레스 바에 반영할 수 있다.
In addition, as illustrated in FIGS. 30 to 31, when a frame including a predetermined object is removed from the video content through the object progress bar, the frame may be reflected in the main progress bar for controlling playback of the video content. .
도 32는 본 발명의 제1 내지 제5 실시예에 따라 생성되는 객체 프로그레스 바를 저장하는 예를 도시한 도면이다.32 is a diagram illustrating an example of storing an object progress bar generated according to the first to fifth embodiments of the present invention.
일 실시예에 의하면, 제어부(180)는 객체 프로그레스 바를 저장할 수 있다.According to an embodiment, the
도 32를 참조하면, 제1 객체 프로그레스 바(31)를 제2 객체 프로그레스 바(32)와 중첩시키는 입력을 수신하고, 제1 객체 프로그레스 바(31)와 제2 객체 프로그레스 바(32)가 중첩되는 경우, 제1 객체(OB1) 및/또는 제2 객체(OB2)를 포함하는 적어도 하나의 프레임에 대응하는 새로운 객체 프로그레스 바를 저장할지 여부를 질의하는 질의창(210)을 터치 스크린(151)에 표시할 수 있다.Referring to FIG. 32, an input for overlapping the first
그리고, 제어부(180)는, 이동 단말기(100)의 내부에 저장된 동영상 콘텐츠의 목록을 제공할 수 있다. 상기 동영상 콘텐츠의 목록 중 제1 동영상 콘텐츠(211)를 포함하고, 상기 제1 동영상 콘텐츠(211)를 재생하는 중 제1 객체(OB1)와 제2 객체(OB2)를 모두 포함하는 프레임만을 추출하여 보여줄 수 있는 새로운 객체 프로그레스 바(222)를 동영상 콘텐츠의 목록에 포함하여 디스플레이할 수 있다.In addition, the
여기서, 상기 동영상 콘텐츠의 목록은 동영상 콘텐츠의 재생 시간(212)을 포함할 수 있으며, 객체 프로그레스 바를 통해 재생될 수 있는 콘텐츠 재생 시간(223)을 함께 포함할 수 있다.
Here, the list of video content may include a
상기에서 설명한 본 발명에 의한 이동 단말기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The above-described method of controlling a mobile terminal according to the present invention can be provided by being recorded in a computer-readable recording medium as a program for execution in a computer.
본 발명에 의한 이동 단말기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The control method of the mobile terminal according to the present invention can be executed through software. When executed in software, the constituent means of the present invention are code segments that perform the necessary tasks. The program or code segments may be stored in a processor readable medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording device include a ROM, a RAM, a CD-ROM, a DVD 占 ROM, a DVD-RAM, a magnetic tape, a floppy disk, a hard disk, The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings. In addition, the embodiments described in this document can be applied to not only the present invention, but also all or some of the embodiments may be selectively combined so that various modifications can be made.
100: 이동 단말기 151: 터치 스크린
180: 제어부100: mobile terminal 151: touch screen
180:
Claims (21)
상기 동영상 콘텐츠의 재생을 중단시키는 입력이 수신됨에 따라 상기 동영상 콘텐츠의 재생을 중단시키고, 상기 재생이 중단된 화면에 포함된 특정 객체를 인식하고, 상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임과 연관된 제2 바(a second bar)를 상기 터치 스크린에 표시하는 제어부;
를 포함하는 이동 단말기.A touch screen displaying a playback screen of video content and a first bar for controlling playback of the video content; And
When the input for stopping the playback of the video content is received, the playback of the video content is stopped, recognizes a specific object included in the screen where the playback is stopped, and includes the specific object of the entire frame of the video content; A controller configured to display a second bar associated with at least one frame on the touch screen;
.
상기 제2 바는,
상기 특정 객체를 포함하는 복수의 프레임이 재생 순서에 따라 그룹화되어 인덱싱된(indexed) 바(bar)를 포함하는 이동 단말기.The method of claim 1,
The second bar is,
And a plurality of frames including the specific object, which are grouped and indexed in the playback order.
상기 제1 바는, 상기 동영상 콘텐츠 내에서의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.The method of claim 1,
The first bar includes a progress icon indicating a current position in the video content.
상기 제2 바는, 상기 특정 객체를 포함하는 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하는 프로그레스 아이콘(progress icon)을 포함하는 이동 단말기.The method of claim 1,
The second bar may include a progress icon indicating that a frame including the specific object indicates a current position in the video content.
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력을 소정 방향으로 이동시키는 입력을 수신하는 경우, 상기 터치 입력의 위치에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.5. The method of claim 4,
The control unit,
And a frame corresponding to the position of the touch input is displayed on the touch screen when receiving an input for moving the touch input to the progress icon of the second bar in a predetermined direction.
상기 소정 방향은, 상기 제2 바를 따라 좌우 방향으로 이동하는 것을 특징으로 하는 이동 단말기.The method of claim 5, wherein
The predetermined direction is a mobile terminal, characterized in that for moving in the horizontal direction along the second bar.
상기 제어부는,
상기 터치 스크린에 표시되는 프레임이 변경됨에 따라 상기 프레임이 상기 동영상 콘텐츠내의 현재 위치를 지시하기 위한 제1 바에 포함된 프로그레스 아이콘의 위치를 변경하는 이동 단말기.The method of claim 5, wherein
The control unit,
And changing a position of a progress icon included in a first bar for indicating a current position in the video content as the frame displayed on the touch screen is changed.
상기 제어부는,
상기 제2 바의 프로그레스 아이콘에 대한 터치 입력이 해제되는 경우, 상기 터치 스크린에 표시된 프레임에 포함된 적어도 하나의 객체를 인식하고, 인식된 객체에 대응하는 제2 바를 상기 터치 스크린에 표시하는 이동 단말기.The method of claim 5, wherein
The control unit,
When the touch input to the progress icon of the second bar is released, a movement of recognizing at least one object included in a frame displayed on the touch screen and displaying a second bar corresponding to the recognized object on the touch screen terminal.
상기 미리 정해진 입력은, 상기 제1 바에 표시된 재생 정지 아이콘에 대한 입력 또는 동영상 콘텐츠의 재생을 중단시키기 위한 음성 명령을 포함하는 이동 단말기.The method of claim 1,
The predetermined input includes a voice command for stopping the playback of the video content or the input to the playback stop icon displayed on the first bar.
상기 특정 객체는, 적어도 하나의 인물, 적어도 하나의 물건, 상기 동영상 콘텐츠에 포함된 배경, 상기 배경에 포함된 적어도 하나의 객체 중 적어도 하나를 포함하는 이동 단말기.The method of claim 1,
The specific object may include at least one of at least one person, at least one object, a background included in the video content, and at least one object included in the background.
상기 인식된 특정 객체는 적어도 둘 이상의 객체를 포함하고,
상기 제어부는,
제1 객체에 대응하는 제2 바를 제2 객체에 대응하는 제2 바로 이동하여 적어도 둘 이상의 제2 바가 서로 중첩하는 경우, 상기 제1 객체와 제2 객체를 합성하여 생성되는 새로운 프레임 세트에 대응하는 제3 바(a third bar)를 생성하기 위한 사용자 인터페이스를 상기 터치 스크린에 표시하는 이동 단말기.The method of claim 1,
The recognized specific object comprises at least two objects,
The control unit,
When the second bar corresponding to the first object is moved to the second bar corresponding to the second object, and the at least two or more second bars overlap each other, the second frame corresponding to the first object corresponds to a new frame set generated by synthesizing the first object and the second object. A mobile terminal for displaying on the touch screen a user interface for creating a third bar.
상기 사용자 인터페이스는,
상기 제1 객체 또는 상기 제2 객체 중 어느 하나의 객체 포함하는 제1 프레임 영역, 상기 제1 객체 및 상기 제2 객체를 포함하는 제2 프레임 영역을 포함하고,
상기 제어부는,
상기 제1 객체에 대응하는 제2 바를 상기 제1 내지 제2 프레임 영역 중 어느 하나의 프레임 영역으로 이동하는 입력을 수신하는 경우, 상기 제2 바가 위치하는 영역에 따라 제3 바에 매핑되는 프레임을 달리 설정하는 이동 단말기.The method of claim 11,
Wherein the user interface comprises:
A first frame area including one of the first object and the second object, and a second frame area including the first object and the second object,
The control unit,
When receiving an input for moving the second bar corresponding to the first object to any one of the first to second frame areas, the frame mapped to the third bar is different depending on the area where the second bar is located. Mobile terminal to set.
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 또는 제2 객체 중 어느 하나의 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.13. The method of claim 12,
When the second bar corresponding to the first object is located in the first frame area,
The generated third bar corresponds to a frame including any one of the first object and the second object of the video content.
상기 제1 객체에 대응하는 제2 바가 상기 제2 프레임 영역에 위치하는 경우,
상기 생성되는 제3 바는, 상기 동영상 콘텐츠 중 상기 제1 객체 및 제2 객체를 포함하는 프레임에 대응되는 것인 이동 단말기.13. The method of claim 12,
When the second bar corresponding to the first object is located in the second frame area,
The generated third bar corresponds to a frame including the first object and the second object of the video content.
상기 제어부는,
상기 제1 객체에 대응하는 제2 바가 상기 제1 프레임 영역 내지 제2 프레임 영역 중 어느 하나의 영역에 진입하는 경우, 상기 사용자 인터페이스 중 상기 제2 바가 진입한 프레임 영역의 디스플레이 특성을 변경하는 이동 단말기.13. The method of claim 12,
The control unit,
When the second bar corresponding to the first object enters any one of the first frame area and the second frame area, the mobile terminal changes the display characteristics of the frame area in which the second bar enters the user interface. .
상기 제3 바는, 상기 제1 객체와 상기 제2 객체가 합성된 형태를 구분하기 위한 식별 정보를 포함하는 이동 단말기.13. The method of claim 12,
The third bar may include identification information for distinguishing a form in which the first object and the second object are synthesized.
상기 제어부는,
상기 제1 바에 대응하는 프레임 중 상기 제3 바에 대응하는 프레임 구간을 다른 프레임 구간과 구별되도록 상기 제1 바의 디스플레이 특성을 변형하여 표시하는 이동 단말기.13. The method of claim 12,
The control unit,
And a display section of the first bar is modified to display a frame section corresponding to the third bar among the frames corresponding to the first bar so as to be distinguished from other frame sections.
상기 제2 바를 상기 터치 스크린으로부터 벗어나도록 하는 터치 입력을 수신하는 경우, 상기 제2 바에 대응하는 객체를 포함하는 프레임을 상기 동영상 콘텐츠로부터 제거하는 이동 단말기.The method of claim 1,
And when receiving a touch input for moving the second bar away from the touch screen, removing a frame including an object corresponding to the second bar from the video content.
상기 제어부는,
상기 제2 바에 대응하는 객체를 포함하는 프레임이 상기 동영상 콘텐츠로부터 제거되었음을 식별하기 위한 식별 정보를 상기 터치 스크린에 표시하는 이동 단말기.The method of claim 18,
The control unit,
And displaying identification information on the touch screen to identify that the frame including the object corresponding to the second bar has been removed from the video content.
상기 동영상 콘텐츠의 재생이 중단되는 경우, 적어도 하나의 객체를 인식하고, 상기 인식된 객체를 포함하는 적어도 하나의 프레임을 재생 순서에 따라 인덱싱(indexing)하여 생성되는 바(bar)를 상기 인식된 적어도 하나의 객체와 연관하여 상기 터치 스크린에 표시하는 제어부;를 포함하고,
상기 제어부는,
상기 바(bar)의 특정 지점을 선택하는 입력을 수신하는 경우, 상기 그룹화된 프레임 중 상기 특정 지점에 대응하는 프레임을 상기 터치 스크린에 표시하는 이동 단말기.A touch screen displaying a playback screen of video content and a progress bar for controlling playback of the video content; And
When the reproduction of the video content is stopped, at least one object is recognized and at least one bar generated by indexing at least one frame including the recognized object in a playback order is recognized. And a controller which is displayed on the touch screen in association with one object.
The control unit,
When receiving an input for selecting a specific point of the bar, the mobile terminal to display a frame corresponding to the specific point of the grouped frame on the touch screen.
상기 터치 스크린에 대하여 미리 정해진 입력을 수신하는 단계;
상기 미리 정해진 입력에 응답하여 상기 동영상 콘텐츠의 재생을 중단시키는 단계;
상기 재생이 중단된 화면에 포함된 특정 객체를 인식하는 단계; 및
상기 동영상 콘텐츠의 전체 프레임 중 상기 특정 객체를 포함하는 적어도 하나의 프레임을 상기 동영상 콘텐츠와 독립적으로 제어할 수 있는 제2 바(a second bar)를 상기 터치 스크린에 표시하는 단계;
를 포함하는 이동 단말기의 제어 방법.Displaying a playback screen of video content and a first bar on the touch screen for controlling playback of the video content;
Receiving a predetermined input to the touch screen;
Stopping playback of the video content in response to the predetermined input;
Recognizing a specific object included in the screen on which playback is stopped; And
Displaying a second bar on the touch screen to control at least one frame including the specific object among all frames of the video content independently of the video content;
And transmitting the control information to the mobile terminal.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-30 | 2012-07-30 | Mobile terminal and method for controlling of the same |
EP13176431.8A EP2690879B1 (en) | 2012-07-23 | 2013-07-15 | Mobile terminal and method for controlling of the same |
US13/947,318 US9710136B2 (en) | 2012-07-23 | 2013-07-22 | Mobile terminal having video playback and method for controlling of the same |
CN201310311468.8A CN103577063B (en) | 2012-07-23 | 2013-07-23 | Mobile terminal and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-30 | 2012-07-30 | Mobile terminal and method for controlling of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140016497A true KR20140016497A (en) | 2014-02-10 |
KR101909140B1 KR101909140B1 (en) | 2018-10-17 |
Family
ID=50265468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120083045A KR101909140B1 (en) | 2012-07-23 | 2012-07-30 | Mobile terminal and method for controlling of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101909140B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015157714A1 (en) * | 2014-04-10 | 2015-10-15 | Google Inc. | Methods, systems, and media for presenting commerece information relating to video content |
WO2015190821A1 (en) * | 2014-06-11 | 2015-12-17 | (주)피엑스디 | Image player having search bar including event image and non-event image, and operation method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6681043B1 (en) | 1999-08-16 | 2004-01-20 | University Of Washington | Interactive video object processing environment which visually distinguishes segmented video object |
US8787618B2 (en) | 2010-04-13 | 2014-07-22 | Sony Corporation | Content information processing device, content information processing method, content information processing program, and personal digital assistant |
-
2012
- 2012-07-30 KR KR1020120083045A patent/KR101909140B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015157714A1 (en) * | 2014-04-10 | 2015-10-15 | Google Inc. | Methods, systems, and media for presenting commerece information relating to video content |
WO2015190821A1 (en) * | 2014-06-11 | 2015-12-17 | (주)피엑스디 | Image player having search bar including event image and non-event image, and operation method thereof |
KR20150142746A (en) * | 2014-06-11 | 2015-12-23 | (주)피엑스디 | Video play apparatus with search bar including event image and non-event image and operation method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101909140B1 (en) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9710136B2 (en) | Mobile terminal having video playback and method for controlling of the same | |
KR101976178B1 (en) | Mobile terminal and method for controlling of the same | |
KR101935039B1 (en) | Mobile terminal and method for controlling of the same | |
KR101978216B1 (en) | Mobile terminal and method for controlling thereof | |
US9294611B2 (en) | Mobile terminal, electronic system and method of transmitting and receiving data using the same | |
KR101562588B1 (en) | Information providing apparatus and method thereof | |
KR101899819B1 (en) | Mobile terminal and method for controlling thereof | |
KR101860342B1 (en) | Mobile terminal and control method therof | |
KR102196671B1 (en) | Electronic Device And Method Of Controlling The Same | |
KR20140045060A (en) | Mobile terminal and method for controlling thereof | |
KR20140055361A (en) | Mobile terminal and method for controlling of the same | |
KR20140100727A (en) | Electronic Device And Method Of Controlling The Same | |
KR101882277B1 (en) | Mobile terminal and method for controlling thereof | |
KR101951480B1 (en) | Electronic Device And Method Of Controlling The Same | |
KR101919790B1 (en) | Image display device and method for controlling thereof | |
KR101779001B1 (en) | Mobile terminal and control method therof | |
KR101785657B1 (en) | Mobile terminal and Method for searching video using metadata thereof | |
KR101882276B1 (en) | Mobile terminal and method for controlling thereof | |
KR101909140B1 (en) | Mobile terminal and method for controlling of the same | |
KR20150012945A (en) | Mobile terminal and method for controlling the same | |
KR101448650B1 (en) | Terminal and Method for cotrolling the same | |
KR20150068838A (en) | Electronic device and method for controlling of the same | |
KR20130006777A (en) | Mobile terminal and control method for mobile terminal | |
KR20130089476A (en) | Mobile terminal and control method for mobile terminal | |
KR20150064528A (en) | Electronic device and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |