KR20160058001A - Method and system for generating multimedia clip - Google Patents

Method and system for generating multimedia clip Download PDF

Info

Publication number
KR20160058001A
KR20160058001A KR1020150153811A KR20150153811A KR20160058001A KR 20160058001 A KR20160058001 A KR 20160058001A KR 1020150153811 A KR1020150153811 A KR 1020150153811A KR 20150153811 A KR20150153811 A KR 20150153811A KR 20160058001 A KR20160058001 A KR 20160058001A
Authority
KR
South Korea
Prior art keywords
multimedia
input
clip
user
starting point
Prior art date
Application number
KR1020150153811A
Other languages
Korean (ko)
Other versions
KR102392002B1 (en
Inventor
아비세크 신하
아디티 가르지
쉬레야스 나파데이
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/942,482 priority Critical patent/US10381042B2/en
Publication of KR20160058001A publication Critical patent/KR20160058001A/en
Application granted granted Critical
Publication of KR102392002B1 publication Critical patent/KR102392002B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17336Handling of requests in head-ends

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to generation of a multimedia clip from multimedia content without a user input or with a minimum user input without interfering with reproduction of the multimedia content. For the purpose, currently reproduced multimedia content is stored in a buffer. A current time or a current frame is designated as an end point of a multimedia clip. A start point of the multimedia clip is calculated or received. The multimedia clip is generated by extracting a portion between the start point and the end point of the multimedia content stored in the buffer.

Description

멀티미디어 클립을 생성하는 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING MULTIMEDIA CLIP}[0001] METHOD AND SYSTEM FOR GENERATING MULTIMEDIA CLIP [0002]

본 개시는 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 것과 관련된다. 더 자세하게는 멀티미디어 재생을 인터럽트 함이 없이, 사용자 입력 없이 또는 사용자 입력을 최소화하면서 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 방법 및 시스템과 관련된다. The present disclosure relates to generating multimedia clips from multimedia content. More particularly, to a method and system for generating multimedia clips from multimedia content without interrupting multimedia playback, without user input, or with minimal user input.

수년간 오디오, 비디오, 플래쉬 등의 멀티미디어 콘텐트는 여가오락에 있어서 중요 요소였다. 멀티미디어 콘텐트의 인기는 멀티미디어 콘텐트의 되감기, 빨리 감기, 멈춤, 재생, 및 멀티미디어 클립 제작 등의 멀티미디어 조작 기술을 발전시켰다. 그러한 멀티미디어 조작 기술은 알려진 많은 멀티미디어 조작 장치(tool)에 적용 가능하다. 사용자들은 이렇게 우리에게 익숙한 멀티미디어 조작 장치들을 다양한 목적으로 이용할 수 있다. 예를 들어, 멀티미디어 콘텐트를 보면서 사용자가 현재 재생된 멀티미디어 콘텐트의 일부 부분을 멀티미디어 클립(multimedia clip)의 형태로 저장하고 싶은 때가 있을 것이다. 그때 사용자는 먼저 재생 중인 멀티미디어 콘텐트를 일시정지하거나 중지하고, 멀티미디어 클립의 시작점과 끝점을 표시하여야 한다. 이러한 목적을 달성하기 위해 사용자는 멀티미디어 콘텐트를 다시 재생할 필요가 있을 것이다. 이외에도 사용자는 멀티미디어 클립의 저장 위치 등 추가적인 정보를 제공해야 한다. For many years, multimedia content such as audio, video, and flash was an important factor in leisure entertainment. The popularity of multimedia contents has developed multimedia manipulation techniques such as rewinding, fast forwarding, pausing, playing, and creating multimedia clips of multimedia contents. Such multimedia manipulation techniques are applicable to many known multimedia manipulation tools. Users can use these familiar multimedia manipulation devices for a variety of purposes. For example, there may be times when a user wishes to store a part of a currently played multimedia content in the form of a multimedia clip while viewing the multimedia content. At this time, the user must first pause or stop the multimedia content being played, and display the start and end points of the multimedia clip. To accomplish this, the user will need to replay the multimedia content. In addition, the user must provide additional information such as the storage location of the multimedia clip.

더불어서, 특허문서 EP2637172A1은 비디오 편집기구와 비디오 모습 정보의 안내 방법 등을 포함하고 있다. 비디오 편집하는 동안, 비디오 내용은 적어도 하나 이상의 비디오 특성 정보를 발견하기 위해 분석되고, 적어도 하나 이상의 비디오 특성 정보를 포함하고 있는 것으로 발견된 비디오 내용 부분은 편집 스크린에 보여지고, 이를 통하여 사용자에게 비디오 편집 안내가 제공된다.In addition, patent document EP2637172A1 includes a video editing mechanism and a method of guiding video appearance information. During video editing, the video content is analyzed to find at least one video property information, and the portion of the video content that is found to contain at least one or more video property information is displayed on the editing screen, Guidance is provided.

멀티미디어 클리핑 도구에서 알려진 첫 번째 문제는 사용자가 멀티미디어 콘텐트로부터 멀티미디어 클립을 제작함에 있어서 그 재생을 인터럽트하고, 되감고 다시 재생하여 멀티미디어 클립의 시작과 끝점을 표시해야 한다는 점에 있다. 두 번째 문제는 사용자가 많은 내용을 입력해야 하는 부담을 가져야 한다는 것인데, 예를 들어, 멀티미디어 클립의 저장 위치, 시작점 및 끝점 등을 지정해야 하는 것 등이 있다. 세 번째 문제는 우리에게 잘 알려진 멀티미디어 클리핑 도구는 방송 중인 멀티미디어 콘텐트를 클리핑 하는데 이용될 수 없다는 것이다. 왜냐하면 이러한 경우에는 사용자가 방송 중인 멀티미디어 콘텐트를 되감기 하여 다시 재생을 하는 것이 불가능하기 때문이다. 만약 방송 중인 멀티미디어 콘텐트를 녹화하는 장치가 있어서 세 번째 문제가 해결되더라도, 첫 번째와 두 번째 문제는 여전히 유효하다. 그러므로, 잘 알려진 멀티미디어 클리핑 도구로는 오직 녹화된 멀티미디어 콘텐트로부터만 멀티미디어 클립을 제작할 수 있다. 더욱이, 필연적으로 멀티미디어 재생을 인터럽트하며 시작점, 끝점, 멀티미디어 클립을 저장할 위치 등 다양한 입력을 제공해야 한다.The first problem known from the multimedia clipping tool is that the user must interrupt and rewind the playback of the multimedia clip from the multimedia content to display the start and end points of the multimedia clip. The second problem is that the user must be burdened with inputting a lot of content, for example, specifying the storage location, start point and end point of the multimedia clip. The third problem is that our well-known multimedia clipping tools can not be used to clone multimedia content on air. This is because, in this case, it is impossible for the user to rewind the multimedia content being broadcast and reproduce the multimedia content again. Even if the third problem is solved because there is a device that records the multimedia contents being broadcast, the first and second problems are still valid. Therefore, a well known multimedia clipping tool can only produce multimedia clips from recorded multimedia content. In addition, it must inevitably interrupt multimedia playback and provide various inputs, such as a starting point, an end point, and a location for storing multimedia clips.

개시의 목적에 부합하게, 본 개시는 사용자가 원하는 만큼의 멀티미디어 클립(희망 멀티미디어 클립)을 따로 저장하고자 하는 결정은 멀티미디어 클립의 끝점에서 대부분 발생한다는 것에 기초하고 있다. 원하는 멀티미디어 클립을 생성하고자 하는 명령이 입력된 시간/프레임은 자동으로 지정되거나 또는 사용자에 의해 지정될 수 있고, 그 시간/프레임은 끝점으로 지정될 수 있다. 멀티미디어 클립의 시작점은 외부 감지기, 내부 감지기 또는 그것들로부터 제공된 정보를 기반으로 산출되어 정해질 수 있다. 또는 멀티미디어 클립의 시작점은 멀티미디어 클립의 미리 설정된 지속시간에 의해 산출되기도 한다. 또는 사용자 입력을 수신하거나 이에 기초하여 멀티미디어 클립의 시작점이 산출되기도 한다. 현재 재생된 멀티미디어 콘텐트 부분은 버퍼에 저장될 수 있다. 여기서 희망 멀티미디어 클립은 시작점과 끝점에 기초하여 만들어질 수 있다. 이러한 방법으로, 본 개시는 전적으로 자동적으로 몇몇 외부/내부 유발(trigger)에 기초하거나, 또는 반자동적/수동적으로 사용자의 유발에 기초하여, 현재 재생된 내용을 중지 또는 일시 정지 함이 없이 멀티미디어 클립을 생성할 수 있다. 더욱이, 멀티미디어 클립은 방송된 또는 저장/기록된 내용에 대해서 생성될 수 있는데 사용자로부터 전혀 입력을 요구하지 않거나 또는 최소한의 입력만을 요구할 수 있다. 또한, 멀티미디어 클립은 미리 지정된 위치 또는 사용자가 구체적으로 지정한 위치에 상황에 따라 자동적으로 저장될 수 있다.Consistent with the purpose of the disclosure, the present disclosure is based on the fact that the decision to store as many multimedia clips as desired by the user (most likely at the end of the multimedia clip) occurs. The time / frame in which an instruction to create a desired multimedia clip is input may be automatically specified or specified by the user, and the time / frame may be designated as an end point. The starting point of the multimedia clip may be determined based on information provided from an external detector, an internal detector, or the like. Or the starting point of the multimedia clip may be calculated by a preset duration of the multimedia clip. Or a starting point of a multimedia clip is calculated based on receiving user input or based thereon. The currently reproduced multimedia content portion may be stored in a buffer. Here, the desired multimedia clip can be created based on the starting point and the ending point. In this way, the present disclosure provides a multimedia clip that is based entirely automatically on some external / internal triggers, or semi-automatically / passively on a user-initiated basis, without stopping or pausing the currently played content Can be generated. Moreover, multimedia clips may be created for broadcasted or stored / recorded content, which may require no input from the user or require only minimal input. In addition, the multimedia clip can be automatically stored according to a predetermined position or a position specified by the user in a specific situation.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 현재 재생 중인 멀티미디어 콘텐트를 버퍼에 저장하는 단계; 현재 시간 또는 현재 프레임을 상기 멀티미디어 클립의 끝점(end point)으로 지정하는 단계; 상기 멀티미디어 클립의 시작점(start point)을 결정하는 단계; 및 상기 멀티미디어 콘텐트의 상기 시작점과 상기 끝점 사이 부분을 상기 버퍼로부터 추출함으로써, 상기 멀티미디어 클립을 생성하는 단계;를 포함하며, 상기 단계들은 상기 멀티미디어 콘텐트의 재생이 유지되는 동안에 수행되는 것인, 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 방법을 제공할 수 있다.As a technical means for achieving the above-mentioned technical object, a first aspect of the present disclosure relates to a method of reproducing multimedia content, comprising: storing a currently playing multimedia content in a buffer; Designating a current time or current frame as an end point of the multimedia clip; Determining a start point of the multimedia clip; And generating the multimedia clip by extracting a portion between the start point and the end point of the multimedia content from the buffer, wherein the steps are performed while the playback of the multimedia content is maintained. Lt; RTI ID = 0.0 > a < / RTI > multimedia clip.

또한, 본 개시의 제 2 측면은, 현재 재생 중인 멀티미디어 콘텐트를 일시적으로 저장하는 저장부; 및 현재 시간 또는 현재 프레임을 상기 멀티미디어 클립의 끝점(end point)으로 지정하고, 상기 멀티미디어 클립의 시작점(start point)을 결정하며, 상기 멀티미디어 콘텐트의 상기 시작점과 상기 끝점 사이 부분을 상기 저장부로부터 추출하고, 상기 추출된 부분을 이용하여 상기 멀티미디어 클립을 생성하는 제어부를 포함하며, 상기 제어부는 상기 멀티미디어 콘텐트의 재생이 유지되는 동안에 상기 멀티미디어 클립을 생성하는 것인, 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 디바이스를 제공할 수 있다.According to a second aspect of the present disclosure, there is provided an information processing apparatus including: a storage unit for temporarily storing multimedia content currently being reproduced; And designating a current time or a current frame as an end point of the multimedia clip, determining a start point of the multimedia clip, extracting a portion between the start point and the end point of the multimedia content from the storage unit And a controller for generating the multimedia clip using the extracted portion, wherein the controller generates the multimedia clip while the playback of the multimedia content is maintained, the apparatus comprising: a device for generating a multimedia clip from the multimedia content; Can be provided.

또한, 본 개시의 제 3 측면은, 제 1 측면의 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.In addition, the third aspect of the present disclosure can provide a computer-readable recording medium on which a program for executing the method of the first aspect is recorded.

본 개시는 방송 중인 또는 저장/기록된 멀티미디어 콘텐트가 인터럽트 됨이 없이 재생되며 최소한의 입력으로 또는 입력 없이 멀티미디어 클립을 생성할 수 있다는 장점 외에도, 사용자에게 좋은 경험을 제공하며 멀티미디어 클립 생성을 더욱 효율적으로 제공해준다는 장점이 있다. 또한 본 개시는 사용자가 멀티미디어 클립 생성의 거부 명령을 할 수 있는 자유를 제공할 수 있다. 이러한 장점들은 뒤이어 나오는 개시의 상세한 설명을 보면 더욱 자세하게 이해할 수 있을 것이다.The present disclosure is advantageous in that, in addition to the advantage that broadcasted or stored / recorded multimedia content is reproduced without interruption and can generate a multimedia clip with minimal input or no input, it also provides a good experience for the user, It has the advantage of providing. The present disclosure can also provide a user the freedom to make a rejection command of multimedia clip creation. These advantages will be more fully understood from the following detailed description of the disclosure.

본 개시의 장점과 모습을 명확히 하기 위한 묘사는 그것의 실시예를 묘사하는 도면에 의해 행해진다. 몇몇 도면이, 예를 들어, 멀티미디어 클립 생성과 관련된 전형적인 실시예에 대해서만 묘사하는 것은 명세서 범위를 한정하는 것에 해당하지 않는다. 오디오 클립, 비디오 클립, 플래쉬 클립 기타 등등 어떤 유형의 멀티미디어 클립 생성에도 적용 가능하다는 것을 명백히 하는 것이기 때문이다. 본 개시는 뒤따르는 도면에 의해서 구체적으로 묘사되고 설명될 것이다:
도 1은 본 개시의 실시예에 따른 멀티미디어 클리핑 시스템에 대해 묘사하고 있다.
도 2는 본 개시의 실시예에 따른 멀티미디어 클리핑을 위한 멀티미디어 클리퍼의 블록다이어그램에 대해서 묘사하고 있다.
도 3은 본 개시의 실시예에 따른 멀티미디어 클립 생성의 절차 흐름도에 대해 묘사하고 있다.
도 4는 본 개시의 실시예에 따른 사용자의 자동 클리핑을 위한 인터페이스에 대해 묘사하고 있다.
도 5는 본 개시의 실시예에 따른 자동 편집 모드의 흐름을 묘사하는 절차 흐름도에 대해 서술하고 있다.
도 6은 본 개시의 실시예에 따른 반자동 클리핑 요청을 위한 사용자 인터페이스에 대해 묘사하고 있다.
도 7은 본 개시의 실시예에 따른 반자동 클리핑 모드의 흐름을 묘사하는 절차 흐름도에 대해 서술하고 있다.
도 8은 본 개시의 실시예에 따른 수동 클리핑 요청을 위한 사용자 인터페이스에 대해 묘사하고 있다.
도 9는 본 개시의 실시예에 따른 수동 클리핑에서 클리핑 지속시간, 프레임 번호 또는 시작 시간에 대한 단일의 입력과 관련된 사용자 인터페이스에 대해 묘사하고 있다.
도 10은 본 개시의 실시예에 따른 수동 클리핑에서 클립 지속시간, 프레임 번호 또는 시작 시간에 대한 단일의 입력과 관련된 흐름에 대해 묘사하는 절차흐름도에 대해 설명하고 있다.
도 11은 본 개시의 실시예에 따른 클리핑의 시작점을 미세 조정하는 방법을 위한 사용자 인터페이스에 대해 설명하고 있다.
도 12는 본 개시의 실시예에 따른 수동 클리핑에서 텍스쳐로 시간 또는 지속시간을 입력하는 모드의 사용자 인터페이스에 대해 설명하고 있다.
도 13은 본 개시의 실시예에 따른 수동 클리핑에서 텍스쳐 썸네일/프레임 번호 입력 모드의 사용자 인터페이스에 대해 설명하고 있다.
도 14는 본 개시의 실시예에 따른 수동 클리핑에서 텍스쳐 입력 모드의 흐름을 묘사하는 절차 흐름도에 대해 설명하고 있다.
도 15는 본 개시의 실시예에 따른 수동 클리핑에서 제스쳐 입력모드의 사용자 인터페이스에 대해 설명하고 있다.
도 16은 본 개시의 실시예에 따른 수동 클리핑에서 음성 입력 모드의 사용자 인터페이스에 대해 설명하고 있다.
도 17은 본 개시의 실시예에 따른 수동 클리핑에서 제스쳐 또는 음성 입력 모드의 흐름을 묘사하는 절차 흐름도에 대해 설명하고 있다.
도 18은 본 개시의 실시예에 따른 클립 생성 상태를 사용자에게 알리기 위한 사용자 인터페이스에 대해 설명하고 있다.
도 19는 본 개시의 실시예에 따른 클리핑 동작이 사용자에 의해 취소되었을 때, 흐름에 대해 묘사하는 절차 흐름도에 대해 설명하고 있다.
도 20은 본 개시의 실시예에 따른 콘피규레이션 파일 설정에 관한 사용자 인터페이스에 대해 설명하고 있다.
도 21은 본 개시의 실시예에 따른 버퍼 제어의 흐름에 대해 묘사하는 절차 흐름도에 대해 설명하고 있다.
참조 번호가 도면의 구성요소들을 표현하기 위해 최대한 많이 사용됐다. 더욱이, 도면의 요소들이 간단하게 그려지고, 꼭 규격에 맞춰 그려지지 않은 것은 당해 기술분야에 있어 통상의 지식을 가진 자에게 있어서 도움이 될 것이다. 예를 들어, 도면의 몇몇 요소들의 차원은 개시의 모습을 이해하기 쉽게 하기 위해 다른 요소들에 비해 과장될 수 있다. 더불어, 적어도 하나 이상의 요소들은 도면에 관습적인 상징에 의해 나타내어질 수 있고, 세부 도면을 모호하게 하지 않도록 본 개시의 실시 예를 이해하는 것과 관련된 특정 세부 사항만을 보여줄 수 있는데, 이는 당업자가 명세서를 이해하는데 도움을 줄 것이다.
The description for clarifying the advantages and the appearance of the present disclosure is made by the drawings depicting the embodiments thereof. It is not intended to limit the scope of some of the drawings to describing, for example, the exemplary embodiments associated with multimedia clip generation. Audio clips, video clips, flash clips, and the like, as well as other types of multimedia clips. The present disclosure will be described and illustrated in detail by the following figures:
Figure 1 depicts a multimedia clipping system in accordance with an embodiment of the present disclosure.
Figure 2 depicts a block diagram of a multimedia clipper for multimedia clipping in accordance with an embodiment of the present disclosure.
3 depicts a flow diagram of a procedure for generating a multimedia clip according to an embodiment of the present disclosure.
Figure 4 depicts an interface for automatic clipping of a user according to an embodiment of the present disclosure.
5 depicts a flow diagram of a process for depicting the flow of an auto-edit mode according to an embodiment of the present disclosure.
6 depicts a user interface for a semi-automatic clipping request according to an embodiment of the present disclosure.
7 depicts a flow diagram of a procedure illustrating a flow of a semi-automatic clipping mode in accordance with an embodiment of the present disclosure.
8 depicts a user interface for a manual clipping request in accordance with an embodiment of the present disclosure.
Figure 9 depicts a user interface associated with a single input for clipping duration, frame number, or start time in manual clipping in accordance with an embodiment of the present disclosure.
Figure 10 illustrates a procedural flow diagram depicting a flow associated with a single input for clip duration, frame number, or start time in manual clipping in accordance with an embodiment of the present disclosure.
Figure 11 illustrates a user interface for a method of fine-tuning the starting point of clipping according to an embodiment of the present disclosure.
Figure 12 illustrates a user interface of a mode for entering time or duration into a texture in manual clipping according to an embodiment of the present disclosure.
Figure 13 illustrates a user interface of a texture thumbnail / frame number entry mode in manual clipping in accordance with an embodiment of the present disclosure.
Figure 14 illustrates a flow diagram of a process for depicting the flow of a texture input mode in manual clipping according to an embodiment of the present disclosure.
Figure 15 illustrates a user interface of a gesture input mode in manual clipping according to an embodiment of the present disclosure.
Figure 16 illustrates the user interface of the speech input mode in manual clipping in accordance with the embodiment of the present disclosure.
17 illustrates a flow diagram of a procedure for describing the flow of a gesture or voice input mode in manual clipping in accordance with an embodiment of the present disclosure.
Fig. 18 illustrates a user interface for informing a user of a clip creation state according to the embodiment of the present disclosure.
19 illustrates a flow diagram of a procedure for describing a flow when a clipping operation according to an embodiment of the present disclosure has been canceled by a user.
Figure 20 illustrates a user interface for config file configuration according to an embodiment of the present disclosure.
FIG. 21 illustrates a flow diagram of a procedure for describing a flow of buffer control according to an embodiment of the present disclosure.
Reference numerals have been used as much as possible to describe the elements of the drawings. Moreover, it will be appreciated by one of ordinary skill in the art that the elements of the figures are drawn in a simplified manner and are not necessarily drawn to scale. For example, the dimensions of some of the elements in the figures may be exaggerated relative to other elements to facilitate understanding of the appearance of the disclosure. In addition, at least one element may be represented by a conventional symbol in the figures, and may only show certain details relating to understanding embodiments of the disclosure so as not to obscure the detailed drawings, .

발명의 몇몇 필수 실시예는 아래에 나열되어 있다. 하나의 실시예에서, 멀티미디어 콘텐트로부터 멀티미디어 클립을 만드는 방법에 대한 발명은 다음의 단계를 포함할 수 있다 : 현재 재생된 멀티미디어 콘텐트를 버퍼에 저장하는 단계 ; 현재의 시간 또는 현재의 프레임을 멀티미디어 클립의 끝점으로 지정하는 단계 ; 멀티미디어 클립의 시작점을 산출하거나 수신하는 단계 ; 및 멀티미디어 클립의 저장된 부분에서 시작점과 끝점 사이를 버퍼로부터 추출하는 단계이다. 앞서 언급한 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 하지 않으면서 수행된다. Some essential embodiments of the invention are listed below. In one embodiment, the invention of a method for creating a multimedia clip from multimedia content may comprise the steps of: storing the currently reproduced multimedia content in a buffer; Designating a current time or current frame as an end point of a multimedia clip; Calculating or receiving a starting point of a multimedia clip; And extracting from the buffer the starting point and the ending point in the stored portion of the multimedia clip. The aforementioned steps are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 상기 방법은 현재의 시간 또는 현재의 프레임에서 멀티미디어 클립 제작을 위한 명령을 수신하는 단계를 더 포함할 수 있다.In one embodiment, the method may further comprise receiving an instruction for producing a multimedia clip at a current time or current frame.

하나의 실시예에서, 자동 클리핑 모드에서 적어도 하나 이상의 외부 또는 내부 센서를 통해서 끝점을 지정 받을 수 있다.In one embodiment, the endpoint may be designated through at least one or more external or internal sensors in an automatic clipping mode.

하나의 실시예에서, 자동 클리핑 모드에서 명령을 외부 또는 내부 센서를 통해서 수신할 수 있다.In one embodiment, the command can be received through an external or internal sensor in an automatic clipping mode.

하나의 실시예에서, 반자동 클리핑 모드에서 명령을 외부 센서, 내부 센서 또는 사용자 인터페이스를 통해서 수신할 수 있다.In one embodiment, in the semi-automatic clipping mode the command can be received via an external sensor, an internal sensor or a user interface.

하나의 실시예에서, 수동 클리핑 모드에서 명령을 사용자 인터페이스를 통해서 수신할 수 있다.In one embodiment, the command can be received through the user interface in the manual clipping mode.

하나의 실시예에서, 상기 방법은 미리 설정된 위치 또는 사용자가 수시로 지정한 위치에 멀티미디어 클립을 저장할 수 있다.In one embodiment, the method may store a multimedia clip at a preset location or at a location that the user has specified often.

하나의 실시예에서, 자동 클리핑 모드에서 시작점을 수신하는 것은 콘피규레이션 파일로부터 추출된 미리 설정된 지속기간을 이용하여 시작점을 지정하는 것을 포함할 수 있다.In one embodiment, receiving the starting point in the automatic clipping mode may include specifying a starting point using a preset duration extracted from the configuration file.

하나의 실시예에서, 시작점을 산출하는 것은 자동 클리핑 모드에서 외부 또는 내부 센서로부터 수신한 멀티미디어 클립의 끝점과 지속시간을 이용하여 시작점을 산출하는 것을 포함할 수 있다.In one embodiment, computing the starting point may include calculating a starting point using endpoints and durations of the multimedia clips received from an external or internal sensor in an automatic clipping mode.

하나의 실시예에서, 시작점을 산출하는 것은 반자동 클리핑 모드에서 멀티미디어 클립의 끝점과 미리 설정된 지속시간을 이용하여 시작점을 산출하는 것을 포함할 수 있다. 여기서 끝점은 사용자 인터페이스의 입력에 기초하여 지정된다.In one embodiment, calculating the starting point may include calculating the starting point using the endpoint of the multimedia clip and the preset duration in the semi-automatic clipping mode. Where the endpoint is specified based on the input of the user interface.

하나의 실시예에서, 시작점을 수신하는 것은 반자동 클리핑 모드에서 후술하는 두 번째 규칙 세트에 기초하여 외부 또는 외부 센서로부터 시작점을 수신하는 것을 포함할 수 있다. 여기서 끝점은 외부 또는 내부 센서의 입력에 기초하여 정해진다.In one embodiment, receiving the starting point may comprise receiving a starting point from an external or external sensor based on a second set of rules, described below, in a semi-automatic clipping mode. Where the endpoint is determined based on the input of an external or internal sensor.

하나의 실시예에서, 시작점을 산출하거나 수신하는 것은 반자동 클리핑 모드의 사용자 인터페이스 모드의 입력에 기초하여 시작점을 산출하거나 수신하는 것을 포함할 수 있다.In one embodiment, computing or receiving a starting point may include calculating or receiving a starting point based on an input of a user interface mode of a semi-automatic clipping mode.

하나의 실시예에서, 시작점을 수신하는 것은 시작점을 입력으로서 수동 클리핑 모드의 사용자 인터페이스로부터 수신하는 것을 포함할 수 있고, 상기 입력은 그래픽 사용자 인터페이스에 기초한 입력의 하나로서, 텍스쳐 입력, 제스쳐 입력, 음성 입력, 또는 어떤 다른 적당한 입력 체계 등이 있을 수 있다.In one embodiment, receiving a starting point may comprise receiving as input an input from a user interface of a manual clipping mode, the input being one of an input based on a graphical user interface, the input being a texture input, a gesture input, Input, or some other suitable input system.

하나의 실시예에서, 텍스쳐 입력은 지속시간, 시작점 또는 멀티미디어 클립의 시작 프레임 숫자의 입력일 수 있다.In one embodiment, the texture input may be a duration, a starting point, or an input of a starting frame number of a multimedia clip.

하나의 실시예에서, 발명은 자동으로 멀티미디어 클립 콘텐트로부터 멀티미디어 클립을 제작하는 방법을 포함하는데, 방법은 다음의 단계를 포함할 수 있다 ; 현재 재생된 멀티미디어 클립 콘텐트를 버퍼에 저장하는 단계 ; 첫 번째 규칙 세트에 기초하여 멀티미디어 클립 생성을 위한 명령을 만들어 내는 단계 ; 명령을 수신하자마자 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로서 지정하는 단계 ; 멀티미디어 클립의 시작점을 산출하거나 수신하는 단계 ; 및 멀티미디어 클립의 버퍼에 저장된 멀티미디어 클립 콘텐트의 시작점과 끝점 사이 부분을 추출해서 멀티미디어 클립을 생성하는 단계를 포함할 수 있다. 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention includes a method of automatically creating a multimedia clip from multimedia clip content, the method including the steps of: Storing the currently reproduced multimedia clip content in a buffer; Creating a command for multimedia clip creation based on a first set of rules; Designating a current time or current frame as an end point of a multimedia clip upon receipt of an instruction; Calculating or receiving a starting point of a multimedia clip; And extracting a portion between a start point and an end point of the multimedia clip content stored in the buffer of the multimedia clip to generate a multimedia clip. The steps are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 미리 설정된, 후술할 첫 번째 규칙 세트는 멀티미디어 클립의 시작점을 지정하기 위한 또는 멀티미디어 클립 제작을 위한 명령을 생성하기 위한 적어도 하나의 규칙들을 포함할 수 있다.In one embodiment, a predetermined first set of rules, described below, may include at least one rule for specifying a starting point of a multimedia clip or for generating a command for producing a multimedia clip.

하나의 실시예에서, 미리 설정된, 후술할 두 번째 규칙 세트는 멀티미디어 클의 시작점 지정을 위한 적어도 하나의 규칙을 포함할 수 있다.In one embodiment, the preset second set of rules to be described later may include at least one rule for designating the starting point of the multimedia cluster.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 반자동적으로 생성하는 방법을 포함하고 있고, 다음의 단계들을 포함할 수 있다: 현재 재생된 멀티미디어 클립 콘텐트를 버퍼에 저장하는 단계 ; 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하는 단계 ; 멀티미디어 클립의 시작점을 지정하는 단계 ; 및 버퍼로부터 지정된 시작점과 끝점 사이를 저장한 멀티미디어 콘텐트를 추출해서 멀티미디어 클립을 생성하는 단계를 포함할 수 있다. 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다. 시작점이나 끝점의 수동 입력에 기초하여 지정되고 반면에 다른 것들은 수동 입력에 기초하지 않는다.In one embodiment, the invention includes a method for semi-automatically generating a multimedia clip from multimedia content, the method comprising the steps of: storing the currently played multimedia clip content in a buffer; Designating a current time or current frame as an end point of a multimedia clip; Designating a starting point of a multimedia clip; And generating multimedia clips by extracting the multimedia content stored between the start point and the end point designated from the buffer. The steps are performed without interrupting the playback of the multimedia content. It is specified based on manual input of the start point or end point, while the others are not based on manual input.

하나의 실시예에서, 발명은 멀티미디어 클립 콘텐트로부터 반자동적으로 멀티미디어 클립을 생성하는 방법을 포함하고, 방법은 다음의 단계들을 포함할 수 있다 : 현재 재생된 멀티미디어 콘텐트를 버퍼에 저장하는 단계 ; 멀티미디어 클립의 끝점으로서 현재 시간과 현재 프레임을 지정하는 단계 ; 미리 설정된 멀티미디어 클립의 지속시간과 끝점에 기초하여 시작점을 산출하는 단계 ; 및 멀티미디어 콘텐트의 시작점과 끝점의 사이 부분을 저장한 것을 버퍼에서 추출해서 멀티미디어 클립을 생성하는 단계를 포함할 수 있다. 여기서 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention comprises a method of semi-automatically generating a multimedia clip from multimedia clip content, the method comprising the steps of: storing the currently played multimedia content in a buffer; Designating a current time and a current frame as end points of the multimedia clip; Calculating a starting point based on the duration and the end point of the preset multimedia clip; And generating a multimedia clip by extracting a portion between the start point and the end point of the multimedia content from the buffer. Wherein the steps are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 상기 방법은 사용자 인터페이스의 현재 시간 또는 현재 프레임에서 멀티미디어 클립 생성을 위한 명령을 수신하는 것을 포함할 수 있다.In one embodiment, the method may include receiving an instruction for generating a multimedia clip at the current time or current frame of the user interface.

하나의 실시예에서, 상기 방법은 미리 설정된 멀티미디어 클립의 지속시간을 추출하기 위해 콘피규레이션 파일에 접근하는 것을 포함할 수 있다.In one embodiment, the method may include accessing a configuration file to extract a duration of a predetermined multimedia clip.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 반자동적으로 멀티미디어 클립을 생성하는 방법을 포함한다. 방법은 다음의 단계로 구성될 수 있다 : 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하는 단계 ; 첫 번째 규칙 세트에 기초하여 멀티미디어 클립 제작을 위한 명령을 생성하는 단계 ; 명령에 따라 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 ; 사용자 인터페이스에 기초하여 멀티미디어 클립의 시작점을 산출 또는 수신하기 ; 및 버퍼에 저장된 멀티미디어 콘텐트의 시작점과 끝점 사이 부분을 추출해서 멀티미디어 클립을 생성하는 단계를 포함할 수 있다. 여기서 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention includes a method of semi-automatically generating multimedia clips from multimedia content. The method may comprise the steps of: storing the currently played multimedia content in a buffer; Generating an instruction for creating a multimedia clip based on a first rule set; Designating the current time or current frame as an end point of the multimedia clip according to the command; Calculating or receiving a starting point of a multimedia clip based on a user interface; And extracting a portion between a start point and an end point of the multimedia content stored in the buffer to generate a multimedia clip. Wherein the steps are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 입력으로 지속시간, 시작 시간, 또는 멀티미디어 클립의 시작 프레임 숫자 등이 있을 수 있다.In one embodiment, the input may be a duration, a start time, or a starting frame number of a multimedia clip.

하나의 실시예에서, 입력은 그래픽 사용자 인터페이스의 하나로서 입력, 텍스쳐 입력, 제스쳐 입력, 또는 음성 입력에 기초할 수 있다.In one embodiment, the input may be based on input, texture input, gesture input, or voice input as one of the graphical user interfaces.

하나의 실시예에서, 발명은 반자동적으로 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 방법을 포함하고, 다음의 단계를 포함할 수 있다 : 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하는 단계 ; 사용자 입력에 기초하여 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로서 지정하는 단계 ; 두 번째 규칙 세트에 기초하여 멀티미디어 클립의 시작점을 자동적으로 지정하는 단계 ; 및 버퍼에 저장된 멀티미디어 콘텐트의 시작과 끝점 사이 부분을 추출해서 멀티미디어 클립을 제작하는 단계를 포함할 수 있다. 여기서 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다. 그리고 시작점 또는 끝점의 지정은 수동 입력에 기초하여 지정되고, 다른 부분은 수동 입력에 기초하지 않고 지정된다. In one embodiment, the invention comprises a method of semi-automatically generating a multimedia clip from multimedia content, the method comprising the steps of: storing the currently played multimedia content in a buffer; Designating a current time or current frame as an end point of a multimedia clip based on user input; Automatically specifying a starting point of a multimedia clip based on a second rule set; And extracting a portion between the start and end points of the multimedia content stored in the buffer to produce a multimedia clip. Wherein the steps are performed without interrupting the playback of the multimedia content. And the designation of the start point or the end point is specified based on the manual input, and the other part is specified based on the manual input.

하나의 실시예에서, 방법은 사용자 인터페이스로부터의 현재 시간 또는 현재 프레임에서 멀티미디어 클립 제작을 위한 명령을 수신하는 것을 포함할 수 있다.In one embodiment, the method may include receiving a current time from the user interface or an instruction for making a multimedia clip in the current frame.

하나의 실시예에서, 입력으로 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 숫자가 있을 수 있다.In one embodiment, the input may be a duration, a start time, or a start frame number of a multimedia clip.

하나의 실시예에서, 입력은 사용자 그래픽 인터페이스의 하나로서 입력, 텍스쳐 입력, 제스쳐 입력 또는 음성 입력에 기초할 수 있다.In one embodiment, the input may be based on an input, a texture input, a gesture input, or a voice input as one of the user graphical interfaces.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하기 위한 시스템을 포함한다. 시스템은 시스템 작동을 조절하기 위한 콘트롤러, 버퍼에 현재 재생된 멀티미디어 콘텐트를 저장하기 위한 저장부, 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로서 지정하기 위한, 멀티미디어 클립의 시작점을 산출하거나 수신하기 위한, 또 버퍼로부터 멀티미디어 클립 콘텐트의 시작점과 끝점 사이의 저장된 부분을 불러와서 멀티미디어 클립을 제작하기 위한, 멀티미디어 클리퍼로 구성될 수 있다. 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다. 그리고 시작점과 끝점을 지정함에 있어서는 수동 입력에 기초하지만 다른 것에 있어서는 수동 입력에 기초하지 않는다.In one embodiment, the invention includes a system for generating multimedia clips from multimedia content. The system includes a controller for adjusting the system operation, a storage for storing the multimedia content currently being played back in the buffer, a memory for specifying the current time or the current frame as the end point of the multimedia clip, And a multimedia clipper for creating a multimedia clip by calling a stored portion between the start and end points of the multimedia clip content from the buffer. The functions are performed without interrupting the playback of the multimedia content. It is based on manual input in specifying start and end points, but not in others.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 수동적으로 만드는 방법을 포함한다. 방법은 다음과 같은 단계를 포함할 수 있다 : 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하는 단계 ; 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하는 단계 ; 사용자 인터페이스로부터 받은 입력에 기초하여 멀티미디어 클립의 시작점을 산출 또는 수신하는 단계 ; 및 버퍼에 저장된 멀티미디어 콘텐트의 시작과 끝점 사이 부분을 추출해서 멀티미디어 클립을 생성하는 단계. 상기 단계들은 멀티미디어 콘텐트를 인터럽트 함이 없이 수행된다. In one embodiment, the invention includes a method for manually creating multimedia clips from multimedia content. The method may include the steps of: storing the currently played multimedia content in a buffer; Designating a current time or current frame as an end point of a multimedia clip; Calculating or receiving a starting point of the multimedia clip based on the input received from the user interface; And extracting a portion between the start and end points of the multimedia content stored in the buffer to generate a multimedia clip. The steps are performed without interrupting the multimedia content.

하나의 실시예에서, 상기 방법은 사용자 인터페이스에서 현재의 시간 또는 현재의 프레임에 멀티미디어 클립을 생성하는 것을 포함할 수 있다.In one embodiment, the method may include generating a multimedia clip at the current time or current frame in the user interface.

하나의 실시예에서, 상기 입력은 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 숫자가 있을 수 있다.In one embodiment, the input may be a duration, a start time, or a start frame number of a multimedia clip.

하나의 실시예에서, 상기 입력은 입력, 텍스쳐 입력, 제스쳐 입력, 또는 음성 입력에 기초한 사용자 그래픽 인터페이스 중의 하나일 수 있다.In one embodiment, the input may be one of a user graphical interface based on an input, a texture input, a gesture input, or a voice input.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 시스템을 포함한다. 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 조절하기 위한 콘트롤러 ; 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하기 위한 저장부 ; 및 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 멀티미디어 클립의 시작점을 산출 또는 수신하기 위한, 그리고 버퍼에 저장되어 있는 멀티미디어 콘텐트의 시작점과 끝점 사이 부분을 추출해서 멀티미디어 클립을 생성하기 위한 멀티미디어 클리퍼. 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다. In one embodiment, the invention includes a system for generating multimedia clips from multimedia content. The system may comprise: a controller for controlling operation of the system; A storage unit for storing the currently reproduced multimedia content in a buffer; And for generating or receiving a starting point of a multimedia clip for specifying a current time or a current frame as an end point of the multimedia clip and for extracting a portion between a start point and an end point of the multimedia content stored in the buffer, Multimedia clipper. The functions are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 시스템은 현재의 시간 또는 현재의 프레임에서 멀티미디어 클립을 생성하기 위해 입력을 수신하는 입력부를 포함할 수 있다. 여기서 입력은 수동 모드의 사용자 인터페이스로부터 수신하거나 적어도 하나 이상의 자동 클리핑 모드의 외부 센서 또는 내부 센서에서 수신한다.In one embodiment, the system may include an input for receiving input to generate a multimedia clip at the current time or current frame. Wherein the input is received from a user interface in a passive mode or received from an external sensor or an internal sensor in at least one automatic clipping mode.

하나의 실시예에서, 시스템은 멀티미디어 콘텐트를 실행하기 위한 출력부를 더 포함할 수 있다.In one embodiment, the system may further comprise an output for executing the multimedia content.

하나의 실시예에서, 명령은 자동 클리핑 모드의 외부 센서 또는 내부 센서로부터 수신할 수 있다.In one embodiment, the command may be received from an external sensor or an internal sensor in an automatic clipping mode.

하나의 실시예에서, 명령은 반자동 클리핑 모드의 외부 센서, 내부 센서, 또는 사용자 인터페이스에서 수신할 수 있다.In one embodiment, the command may be received at an external sensor, an internal sensor, or a user interface in semi-automatic clipping mode.

하나의 실시예에서, 명령은 수동 클리핑 모드의 사용자 인터페이스로부터 수신할 수 있다.In one embodiment, the command may be received from a user interface in a manual clipping mode.

하나의 실시예에서, 멀티미디어 클리퍼는 다음의 구성을 포함할 수 있다 : 멀티미디어 클립 생성을 위한 유발을 찾는 디텍션 모듈 ; 멀티미디어 클립의 시작점과 끝점을 다루도록 설정된 셀렉터 모듈 ; 사용자와의 상호작용을 위해 사용자 인터페이스를 제공하도록 설정된 프레젠테이션 모듈 ; 버퍼를 관리하도록 설정된 버퍼 모듈 ; 멀티미디어 클립을 생성하고 저장하도록 설정된 클리핑 모듈, 그리고 버퍼 모듈, 프레젠테이션 모듈 및 클리핑 모듈 사이에서 인터페이스로 동작하도록 설정된 프레임 그래버 모듈.In one embodiment, the multimedia clipper may comprise the following configuration: a detection module for finding an incentive to generate a multimedia clip; A selector module set to handle start and end points of a multimedia clip; A presentation module configured to provide a user interface for interaction with a user; A buffer module configured to manage a buffer; A clipping module configured to create and store a multimedia clip, and a frame grabber module configured to interface with a buffer module, a presentation module, and a clipping module.

하나의 실시예에서, 멀티미디어 클리퍼를 위한 설정은 콘피규레이션 파일에 저장되어 있을 수 있고, 콘피규레이션 파일은 미리 설정된 멀티미디어 클립의 지속시간, 미리 설정된 시작시간, 미리 설정된 시작 프레임 숫자, 썸네일 크기, 보여지는 썸네일들의 숫자, 버퍼 크기, 버퍼 위치, 미리 설정된 위치, 그리고 소셜 네트워킹 웹사이트에 직접적인 업로드가 가능한 자격과 더불어 url을 포함할 수 있다.In one embodiment, the settings for the multimedia clipper may be stored in a configuration file, and the configuration file may include a duration of a predetermined multimedia clip, a preset start time, a preset start frame number, a thumbnail size, You can include url with the number of thumbnails shown, buffer size, buffer location, preset location, and qualifications that can be uploaded directly to the social networking website.

하나의 실시예에서, 멀티미디어 클리퍼는 자동 클리핑 모드의 외부 센서 또는 내부 센서에서 시작점을 수신할 수 있다.In one embodiment, the multimedia clipper may receive a starting point from an external sensor or an internal sensor in an automatic clipping mode.

하나의 실시예에서, 멀티미디어 클리퍼는 시작점을 끝점과, 자동 클리핑 모드의 외부 센서 또는 내부 센서에서 수신한 멀티미디어 클립의 미리 설정된 지속시간을 이용하여 산출할 수 있다.In one embodiment, the multimedia clipper may calculate the starting point using an endpoint and a preset duration of a multimedia clip received from an external sensor or an internal sensor in an automatic clipping mode.

하나의 실시예에서, 멀티미디어 클리퍼는 반자동 클리핑 모드에서 시작점을 끝점과 멀티미디어 클립의 미리 설정된 지속시간을 가지고 산출할 수 있는데, 여기서 끝점은 사용자 인터페이스에서 수신한 입력을 기초로 지정될 수 있다.In one embodiment, the multimedia clipper may calculate the starting point in the semiautomatic clipping mode with an endpoint and a preset duration of the multimedia clip, where the endpoint may be specified based on the input received at the user interface.

하나의 실시예에서, 멀티미디어 클리퍼는 시작점을 반자동 클리핑 모드의 두 번째 규칙 세트를 이용하여 산출할 수 있다. 여기서 끝점은 사용자 인터페이스로부터 수신한 입력에 기초하여 지정될 수 있다.In one embodiment, the multimedia clipper may calculate the starting point using a second set of rules in a semi-automatic clipping mode. Where the endpoint may be specified based on the input received from the user interface.

하나의 실시예에서, 멀티미디어 클리퍼는 시작점을 반자동 클리핑 모드의 사용자 인터페이스로부터 수신한 입력에 기초하여 산출 또는 전달 받을 수 있는데, 여기서 끝점은 외부 센서 또는 내부 센서에 기초하여 지정될 수 있다. In one embodiment, the multimedia clipper may be calculated or delivered based on an input received from a user interface in a semi-automatic clipping mode, where the endpoint may be specified based on an external sensor or an internal sensor.

하나의 실시예에서, 멀티미디어 클리퍼는 시작점을 끝점과 수동 클리핑 모드에서 사용자 인터페이스로부터 수신한 멀티미디어 클립의 지속시간을 이용하여 산출할 수 있다.In one embodiment, the multimedia clipper may calculate the starting point using the endpoint and the duration of the multimedia clip received from the user interface in the manual clipping mode.

하나의 실시예에서, 멀티미디어 클리퍼는 사용자 인터페이스를 통해 시작점을 수동 클리핑 모드에서 입력으로서 수신할 수 있고, 상기 입력은 입력, 텍스쳐 입력, 제스쳐 입력, 음성 입력, 또는 다른 적당한 입력에 기초한 사용자 그래픽 인터페이스 중의 하나가 될 수 있다.In one embodiment, a multimedia clipper may receive a starting point as an input in a manual clipping mode via a user interface, and the input may include a user interface, such as a user interface, based on an input, a texture input, a gesture input, a voice input, It can be one.

하나의 실시예에서, 텍스쳐 입력으로 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 숫자 중 하나를 입력할 수 있다..In one embodiment, the texture input may enter one of the duration, start time, or start frame number of the multimedia clip.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 자동적으로 멀티미디어 클립을 만드는 시스템을 포함하는데, 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 제어하기 위한 콘트롤러 ; 첫 번째 규칙 세트에 기초하여 멀티미디어 클립을 생성하기 위한 명령을 생성하기 위한 내부 센서 ; 버퍼에 있는 현재 재생된 멀티미디어 콘텐트를 저장하기 위한 저장부 ; 및 내부 센서로부터의 명령에 따라 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 멀티미디어 클립의 시작점을 산출하기 위한, 그리고 버퍼에 저장된 멀티미디어 콘텐트의 시작점과 끝점 사이 부분을 추출해서 멀티미디어 클립을 생성하기 위한 멀티미디어 클리퍼. 여기서 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention comprises a system for automatically creating a multimedia clip from multimedia content, the system comprising: a controller for controlling operation of the system; An internal sensor for generating an instruction to generate a multimedia clip based on a first set of rules; A storage for storing currently reproduced multimedia content in a buffer; And for designating the current time or the current frame as an end point of the multimedia clip according to a command from the internal sensor and for calculating a starting point of the multimedia clip and extracting a portion between the start point and the end point of the multimedia content stored in the buffer, Multimedia clipper for creating. Wherein the functions are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 시스템은 멀티미디어 클립을 현재의 시간 또는 현재의 프레임에서 생성하기 위해 내부 센서로부터 명령을 수신하기 위한 입력부를 포함할 수 있다.In one embodiment, the system may include an input for receiving instructions from an internal sensor to generate a multimedia clip at the current time or current frame.

하나의 실시예에서, 멀티미디어 클리퍼는 시작점을 지속시간, 시작시간, 또는 멀티미디어 클립의 시작 프레임 숫자를 두 번째 규칙 세트에 기초하여 산출할 수 있다.In one embodiment, the multimedia clipper may calculate a starting point based on a second set of rules, the duration, start time, or start frame number of the multimedia clip.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 반자동적으로 생성하기 위한 시스템을 포함한다. 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 제어하기 위한 콘트롤러 ; 버퍼에 현재 재생된 멀티미디어 콘텐트를 저장하기 위한 저장부 ; 그리고 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 멀티미디어 클립의 시작점을 지정하기 위한, 그리고 멀티미디어 콘텐트의 시작점과 끝점 사이의 부분으로서 버퍼에 저장된 멀티미디어 클립 부분을 버퍼로부터 추출해서 멀티미디어 클립을 생성하기 위한 멀티미디어 클리퍼. 여기서 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행되고, 시작점 또는 끝점의 지정은 수동 입력에 기초하고 반면에 다른 것은 수동 입력에 기초하지 않는다.In one embodiment, the invention includes a system for semi-automatically generating multimedia clips from multimedia content. The system may comprise: a controller for controlling operation of the system; A storage unit for storing the multimedia content currently reproduced in the buffer; And extracting the multimedia clip portion stored in the buffer as a portion between the starting point and the ending point of the multimedia content for designating a starting point of the multimedia clip and designating the current time or the current frame as an end point of the multimedia clip, Multimedia clipper for creating. Where the functions are performed without interrupting the playback of the multimedia content, and the designation of the start or end point is based on manual input, while the others are not based on manual input.

하나의 실시예에서, 발명은 반자동적으로 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하기 위한 시스템을 포함한다. 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 제어하기 위한 콘트롤러 ; 현재 재생된 멀티미디어 콘텐트를 버퍼에 저장하기 위한 저장부 ; 그리고 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 미리 설정된 멀티미디어 클립의 지속시간과 끝점에 기초하여 멀티미디어 클립의 시작점을 산출하기 위한, 그리고 멀티미디어 콘텐트의 시작점과 끝점 사이 부분으로서 버퍼에 저장된 부분을 추출해서 멀티미디어 클립을 생성하기 위한 멀티미디어 클리퍼. 여기서 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention includes a system for semi-automatically generating multimedia clips from multimedia content. The system may comprise: a controller for controlling operation of the system; A storage unit for storing the currently reproduced multimedia content in a buffer; And for calculating the starting point of the multimedia clip based on the duration and end point of the preset multimedia clip for designating the current time or current frame as the end point of the multimedia clip and for storing the data in the buffer as the portion between the start point and the end point of the multimedia content A multimedia clipper for extracting portions to create multimedia clips. Wherein the functions are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 시스템은 사용자 인터페이스로부터의 현재 시간 또는 현재 프레임에서 멀티미디어 클립을 생성하기 위한 명령을 수신하기 위해 입력부를 포함할 수 있다.In one embodiment, the system may include an input to receive a current time from a user interface or an instruction to generate a multimedia clip in the current frame.

하나의 실시예에서, 멀티미디어 클리퍼는 미리 설정된 멀티미디어 클립의 지속시간을 추출하기 위해 저장부에 저장되어 있는 콘피규레이션 파일에 접근(access)할 수 있다.In one embodiment, the multimedia clipper may access the configuration file stored in the storage to extract the duration of the preset multimedia clip.

하나의 실시예에서, 발명은 반자동적으로 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 시스템을 포함한다. 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 제어하기 위한 콘트롤러 ; 내부 센서 또는 두 번째 규칙 세트에 기초하여 멀티미디어 클립을 생성하기 위한 명령을 발생하기 위한 것 ; 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하기 위한 저장부 ; 및 내부 센서로부터의 명령에 따라 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 사용자 인터페이스 입력으로부터 받은 입력에 기초하여 멀티미디어 클립의 시작점을 산출 또는 수신하기 위한, 그리고 시작점과 끝점 사이의 멀티미디어 콘텐트 부분을 버퍼로부터 추출해서 멀티미디어 클립을 생성하기 위한 멀티미디어 클리퍼. 여기서 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention includes a system for semi-automatically generating multimedia clips from multimedia content. The system may comprise: a controller for controlling operation of the system; Generating an instruction to generate a multimedia clip based on an internal sensor or a second set of rules; A storage unit for storing the currently reproduced multimedia content in a buffer; And for calculating or receiving a starting point of a multimedia clip based on an input received from a user interface input for designating the current time or the current frame as an end point of the multimedia clip according to an instruction from the internal sensor, A multimedia clipper for extracting content parts from buffers to create multimedia clips. Wherein the functions are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 시스템은 멀티미디어 클립을 현재의 시간 또는 현재의 프레임에서 생성하기 위해 내부 센서로부터 명령을 수신하기 위한 입력부를 더 포함할 수 있다.In one embodiment, the system may further include an input for receiving instructions from an internal sensor to generate a multimedia clip at the current time or current frame.

하나의 실시예에서, 입력은 지속시간, 시작 시간, 또는 멀티미디어 클립의 시작 프레임 숫자일 수 있다.In one embodiment, the input may be a duration, a start time, or a start frame number of a multimedia clip.

하나의 실시예에서, 입력은 입력, 텍스쳐 입력, 제스쳐 입력, 음성 입력 또는 다른 적당한 입력에 기초한 사용자 그래픽 인터페이스 중의 하나일 수 있다.In one embodiment, the input may be one of a user graphical interface based on an input, a texture input, a gesture input, a voice input, or other suitable input.

하나의 실시예에서, 발명은 멀티미디어 콘텐트로부터 멀티미디어 클립을 수동적으로 생성하는 시스템을 포함한다. 시스템은 다음으로 구성될 수 있다 : 시스템의 작동을 제어하기 위한 콘트롤러 ; 현재 재생한 멀티미디어 콘텐트를 버퍼에 저장하기 위한 저장부 ; 및 현재 시간 또는 현재 프레임을 멀티미디어 클립의 끝점으로 지정하기 위한, 사용자 인터페이스로부터 받은 입력에 기초하여 멀티미디의 클립의 시작점을 산출 또는 수신하기 위한, 그리고 멀티미디어 콘텐트의 시작점과 끝점 사이 부분으로서 버퍼에 저장된 부분을 추출해와 멀티미디어 클립을 생성하는 멀티미디어 클리퍼. 여기서 상기 기능들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행된다.In one embodiment, the invention includes a system for manually generating multimedia clips from multimedia content. The system may comprise: a controller for controlling operation of the system; A storage unit for storing the currently reproduced multimedia content in a buffer; And for calculating or receiving the start point of the multimedia clip based on the input received from the user interface for designating the current time or current frame as the end point of the multimedia clip and for storing the start point and end point of the multimedia content A multimedia clipper that extracts portions and creates multimedia clips. Wherein the functions are performed without interrupting the playback of the multimedia content.

하나의 실시예에서, 시스템은 사용자 인터페이스부로부터 현재의 시간 또는 현재의 프레임에서 멀티미디어 클립을 생성하기 위한 명령을 수신하기 위해 입력부를 포함할 수 있다.In one embodiment, the system may include an input to receive instructions from a user interface portion at a current time or in a current frame to generate a multimedia clip.

하나의 실시예에서, 입력은 지속시간, 시작 시간, 또는 멀티미디어 클립의 시작 프레임 숫자를 포함할 수 있다.In one embodiment, the input may include a duration, a start time, or a start frame number of a multimedia clip.

하나의 실시예에서, 입력은 입력, 텍스쳐 입력, 제스쳐 입력, 음성 입력, 또는 다른 적당한 입력에 기초한 사용자 그래픽 인터페이스 중 하나일 수 있다.In one embodiment, the input may be one of a user graphical interface based on an input, a texture input, a gesture input, a voice input, or other suitable input.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein. In the drawings, the same reference numerals are used to denote like elements throughout the specification for the purpose of clearly illustrating the present disclosure.

본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.Although the terms used in this disclosure have been described in general terms that are currently used in consideration of the functions referred to in this disclosure, they are intended to encompass various other terms depending on the intention or circumstance of the skilled artisan, . Accordingly, the terms used in the present disclosure should not be construed as merely the names of the terms, but rather on the meaning of the terms and throughout the present disclosure.

또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다. Also, the terms first, second, etc. may be used to describe various elements, but the elements should not be limited by these terms. These terms are used for the purpose of distinguishing one component from another.

또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Moreover, the terms used in this disclosure are used only to describe specific embodiments and are not intended to be limiting of the present disclosure. The singular expressions include plural meanings unless the context clearly dictates singular. In addition, throughout the specification, when a part is referred to as being "connected" to another part, it is not limited to a case where it is "directly connected", but also an "electrically connected" . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

본 명세서, 특히, 특허 청구 범위에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.In this specification, and in particular, the words " above " and similar indications used in the claims may refer to both singular and plural. Further, if there is no description explicitly specifying the order of the steps describing the method according to the present disclosure, the steps described may be performed in any suitable order. The present disclosure is not limited by the order of description of the steps described.

본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.The phrases "in some embodiments" or "in one embodiment" appearing in various places in this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and / or software configurations that perform particular functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented with algorithms running on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic configuration, signal processing, and / or data processing, and the like. Terms such as " mechanism, " " element, " " means, " and " configuration " and the like are widely used and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Also, the connection lines or connection members between the components shown in the figures are merely illustrative of functional connections and / or physical or circuit connections. In practical devices, connections between components can be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the accompanying drawings.

다음 설명은 사용자로부터 전혀 정보를 수신하지 않거나 또는 최소한으로 입력 정보를 수신함으로써 오디오, 비디오, 플래쉬, 기타 멀티미디어 콘텐트의 재생에 영향을 주지 않는 방법과 시스템에 대한 것으로서 도면과 함께 설명된다. 개시는, 예를 들어 시나리오로 이용되고, 여기서 사용자는 멀티미디어 콘텐트를 보면서 생성, 저장, 그리고/또는 재생되는 멀티미디어 콘텐트를 공유하고 싶어할 수 있다. 다른 시나리오에서, 외부 센서는 전적으로 자동적인 방법으로 멀티미디어 클립의 생성을 유발할 수 있다. 시나리오에서, 본 개시로 인해, 멀티미디어 클립은 전혀 없는 또는 최소한의 입력을 통해 최근 콘텐트의 재생을 인터럽트 함이 없이 생성될 수 있다.The following description is presented with reference to a method and system that does not affect the playback of audio, video, flash, or other multimedia content by not receiving information from the user at all or receiving input information at a minimum. Initiation is used, for example, in a scenario where a user may want to share multimedia content that is created, stored, and / or played back while viewing multimedia content. In other scenarios, the external sensor may cause the generation of the multimedia clip in a fully automatic manner. In the scenario, due to this disclosure, a multimedia clip can be created without interruption of playback of recent content with no or minimal input.

대부분의 사례에서, 멀티미디어 콘텐트를 생성하고 보존하기 위한 결정은 사용자가 희망하는 멀티미디어 클립의 끝점 부근에서 이루어질 수 있다. 멀티미디어 클립은 시작점 및 끝점이 결정됨으로써 생성될 수 있다. 본 개시에서는, 사용자가 멀티미디어 콘텐트를 보고 있으면 외부 유발이 있거나 사용자의 동작으로 인해 현재의 프레임 혹은 현재의 시간이 멀티미디어 클립의 끝점으로 지정될 수 있다. 시작점은 자동 모드의 어떤 외부 센서로부터의 입력에 기초하여 산출될 수 있고, 또는 미리 설정된 클립 지속시간이 반자동 모드의 멀티미디어 클립의 시작점을 산출하는데 이용될 수 있다. 수동 모드에서, 사용자는 클립의 지속시간을 변경함으로써 시작점을 바꾸거나 시작점 또는 시작 프레임을 지정함으로써 시작점을 바꿀 수 있다. 사용자는 입력, 텍스쳐 입력, 제스쳐 입력, 음성 입력, 또는 적당한 입력에 기초한 사용자 인터페이스 중의 하나 이상을 통하여 입력을 제공할 수 있다. 시작점, 끝점 및 콘피규레이션 파일에 기초하여, 멀티미디어 클립은 사용자 특화된 또는 미리 설정된 저장 장소에 생성되고 저장될 수 있다. 이 과정에서 끝점은 알려져 있고, 시작점은 사용자로부터 입력을 수신하거나 또는 산출될 수 있고, 또는 센서로부터 산출되거나 수신될 수 있으므로 리버스 클리핑으로 불릴 수 있다. 센서는 시스템의 외부 또는 내부적으로 수행될 수 있다. In most cases, the decision to create and preserve the multimedia content may be made near the endpoint of the multimedia clip that the user desires. The multimedia clip may be created by determining a start point and an end point. In this disclosure, if the user is viewing the multimedia content, there may be an external trigger, or the current frame or current time due to the user's action may be designated as the end point of the multimedia clip. The starting point can be calculated based on the input from any external sensor in the automatic mode, or the preset clip duration can be used to calculate the starting point of the multimedia clip in the semi-automatic mode. In the manual mode, the user can change the starting point by changing the starting point by changing the duration of the clip or by specifying the starting point or starting frame. A user may provide input via one or more of an input, a texture input, a gesture input, a voice input, or a user interface based on a suitable input. Based on the starting point, end point and configuration file, the multimedia clips can be created and stored in a user-specific or preset storage location. In this process the endpoint is known and the starting point can be called reverse clipping since it can be received or computed from the user or can be computed or received from the sensor. The sensor can be performed either externally or internally of the system.

본 개시의 첫 번째 측면에 따라, 클리핑 과정은 완벽하게 그 자체로 동작하며 소프트웨어, 하드웨어 또는 이들의 조합으로 구성되며 검출, 분석 또는 상황 보고가 가능한 외부/내부 센서로부터 클립 생성이 유발될 수 있다. 외부/내부 센서는 하나 또는 그 이상의 무드(mood) 디텍터, 감시 카메라, 이미지 프로세서 등을 포함할 수 있는데, 이것은 첫 번째 규칙 세트와 두 번째 규칙 세트에 각각 기초하여 끝점 및/또는 시작점 및/또는 클립 생성 지속시간을 추적할 수 있다. 이러한 규칙들은 다음의 예시를 통해 이해가능 할 것이다. 보안시스템이 외부/내부 센서의 역할을 수행하고 있는 예시를 가정하자. 보안시스템은 감시카메라와, 감시카메라와 결합된 이미지 프로세서를 포함할 수 있다. 보안시스템은 미리 설정된 첫 번째 규칙 세트에 기초해서 멀티미디어 클립 생성을 유발하도록 설정되어 있을 수 있다. 미리 설정된 첫 번째 규칙 세트는 현재 콘텐트의 멀티미디어 클립 생성을 위하여 필요로 하는 어떤 미리 설정된 규칙을 포함할 수 있다. 그러한 미리 설정된 규칙들은 클립 생성을 유발하는 것에 제한되지 않고, (1) 어떤 비정상적인 행동이 어떤 주체(subject)에 의해 수행될 때, 또는 (2) 캡쳐된 장면이 임계 퍼센트 이상으로 변형될 때, 또는 (3) 장면에서 오디오가 정지되어 캡쳐 되었을 때를 포함할 수 있다. 첫 번째 규칙 세트는 기본적으로 멀티미디어 클립의 끝점을 지정하며 리버스 클리핑 과정 수행을 시작하기 위함에 있다. 비슷하게, 미리 설정된 두 번째 규칙 세트는 멀티미디어 클립의 시작점을 지정하도록 제공될 수 있다. 미리 설정된 두 번째 규칙 세트는 멀티미디어 클립의 시작점을 규정하기 위한 미리 설정된 규칙을 포함할 수 있다. 첫 번째 규칙을 위한 예시에 계속하여, 미리 설정된 두 번째 규칙을 위한 예시들은 소정 프레임 또는 소정 시간을 시작점으로 지정하는데 제한되지 않고 (1) 주체가 장면 안으로 들어올 때, 또는 (2) 캡쳐된 장면이 변하기 시작할 때, 또는 (3) 오디오의 캡쳐된 장면이 시작할 때와 같이 설정될 수 있다.In accordance with the first aspect of the present disclosure, the clipping process operates entirely by itself and can be triggered by clipping from external / internal sensors that are comprised of software, hardware, or a combination thereof and that are capable of detection, analysis or status reporting. The external / internal sensor may include one or more mood detectors, surveillance cameras, image processors, etc., which may include an endpoint and / or a starting point and / or a clip You can track the creation duration. These rules can be understood through the following examples. Assume that the security system is acting as an external / internal sensor. The security system may include a surveillance camera and an image processor coupled with a surveillance camera. The security system may be configured to trigger multimedia clip creation based on a first set of pre-established rules. The preset first rule set may include any preset rule needed for multimedia clip generation of the current content. Such predetermined rules are not limited to triggering clip generation, but may also be applied to (1) when some abnormal behavior is performed by a subject, or (2) when the captured scene is transformed beyond a critical percentage, or (3) when the audio is stopped and captured in the scene. The first set of rules specifies the endpoint of the multimedia clip by default and is intended to start the reverse clipping process. Similarly, a preset second rule set may be provided to specify the starting point of the multimedia clip. The preset second set of rules may include predetermined rules for defining the starting point of the multimedia clip. Following the example for the first rule, the examples for the preset second rule are not limited to specifying a predetermined frame or a predetermined time as a starting point, (1) when the subject enters the scene, or (2) , Or (3) when the captured scene of the audio starts.

본 개시의 두 번째 측면에 따를 때, 지속시간이 미리 설정된 멀티미디어 클립은, 반자동적 방법으로 미리 설정된 위치 혹은 이용자 특화된 위치에 저장되는데, 여기서 멀티미디어 클립을 생성하라는 명령만이 유일한 사용자 입력이 될 수 있다. 멀티미디어 클립의 끝점은 사용자에 의해 제공되고, 시작점은 미리 설정된 지속시간 또는 두 번째 규칙 세트에 기초하여 산출될 수 있다. 또는, 멀티미디어 클립의 끝점은 첫 번째 규칙 세트에 기초해서 내부/외부 센서에 의해 제공되고, 반면에 시작점은 사용자 입력에 기초해서 산출되거나 수신될 수 있다. 이러한 예시들은 본 개시에 따른 멀티미디어 클립의 반자동적 생성의 범위에 포함될 수 있다. According to the second aspect of the present disclosure, a multimedia clip with a preset duration is stored in a semi-automatic manner at a pre-set or user-specific location, where only the command to create a multimedia clip can be the only user input . The end point of the multimedia clip is provided by the user, and the starting point can be calculated based on the preset duration or the second rule set. Alternatively, the end point of the multimedia clip may be provided by an internal / external sensor based on a first set of rules, while a starting point may be computed or received based on user input. These examples may be included in the scope of semi-automatic generation of a multimedia clip according to the present disclosure.

개시의 세 번째 측면에 따라, 만약 사용자가 지속시간/시작시간/멀티미디어 클립의 시작 프레임을 바꾸기를 원한다면, 대응하는 지속시간의 입력은 수동 모드에서 획득될 수 있다. 멀티미디어 클립은 수동모드에서 지속 시간의 입력에 따라 생성되고, 미리 설정된 위치나 수시로 제공된 사용자 특화된 위치에 저장될 수 있다.According to the third aspect of the disclosure, if the user wishes to change the start time / start time / start frame of the multimedia clip, the input of the corresponding duration can be obtained in the passive mode. The multimedia clip is generated in accordance with the input of the duration in the manual mode, and may be stored at a predetermined position or at a user-specific position provided at any time.

개시의 네 번째 측면에 따라, 사용자는 아마도 클립의 시작점을 수동적으로 미세조정하기를 원할 수 있다. 이를 위해 일련의 프레임 썸네일 시퀀스가 사용자에게 디스플레이 될 수 있다. 프레임 썸네일 시퀀스의 중간 썸네일은 시작 프레임으로서 강조되어 표시되고, 사용자는 원하는 시작 프레임을 고르기 위해 프레임 썸네일 시퀀스 내의 프레임 썸네일들 중 하나를 선택할 수 있다. 사용자는 터치스크린, 제스쳐, 음성 입력, 텍스쳐 입력, 또는 다른 적당한 입력 등과 같은 메커니즘을 이용하여 이러한 입력을 제공할 수 있다.In accordance with the fourth aspect of the disclosure, the user may perhaps wish to manually fine-tune the starting point of the clip. To this end, a series of frame thumbnail sequences may be displayed to the user. The middle thumbnail of the frame thumbnail sequence is highlighted as the start frame and the user can select one of the frame thumbnails in the frame thumbnail sequence to select the desired start frame. The user may provide such input using a mechanism such as a touch screen, gesture, voice input, texture input, or other suitable input.

하나의 실시예에서, 본 개시는 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 시스템 내에서, 멀티미디어 클립의 생성 중에는 멀티미디어 재생을 인터럽트 하지 않고 수행될 수 있다. In one embodiment, the present disclosure may be performed in a system for generating a multimedia clip from multimedia content, without interrupting multimedia playback during generation of the multimedia clip.

도 1은 본 개시의 실시예에 따른 멀티미디어 클리핑 시스템(100)을 나타내는 도면이다. 시스템(100)은 멀티미디어 클립을 생성하는 디바이스를 포함할 수 있다. 시스템(100)은, 예를 들어, 텔레비전, 독립형의, 분리된 또는 웹 상의 컴퓨팅 시스템, 셋톱 박스, 및 멀티미디어 재생 도구를 포함할 수 있으나, 이에 한정되지 않는다. 멀티미디어 콘텐트는 방송 중인 또는 저장/기록된 멀티미디어일 수 있다. 도 1에서와 같이, 시스템(100)은 콘트롤러(101)를 포함한다. 콘트롤러(101)는 시스템(100)의 멀티미디어 클립을 생성하기 위한 전반적인 동작을 제어하고, 시스템의 다른 콤포넌트들과 통신한다. 콘트롤러(101)는 마이크로 콘트롤러(micro controller) 또는 센트럴 프로세싱 유닛(central processing unit)의 적어도 하나 이상의 형태로 구현될 수 있다. 콘트롤러(101)에 더해서, 시스템(100)은 입력부(102), 출력부(103), 저장부(104), 멀티미디어 클리퍼(105), 및 옵셔널 센서(106)를 포함한다.1 is a diagram illustrating a multimedia clipping system 100 in accordance with an embodiment of the present disclosure. The system 100 may include a device for generating multimedia clips. The system 100 may include, but is not limited to, a television, a stand-alone, discrete or on-web computing system, a set-top box, and a multimedia playback tool. The multimedia content may be broadcast or stored / recorded multimedia. As in FIG. 1, the system 100 includes a controller 101. The controller 101 controls the overall operation for generating the multimedia clips of the system 100 and communicates with other components of the system. The controller 101 may be implemented in at least one form of a micro controller or a central processing unit. In addition to the controller 101, the system 100 includes an input 102, an output 103, a storage 104, a multimedia clipper 105, and an optional sensor 106.

입력부(102)는 사용자 입력, 외부 입력, 또는 센서 입력, 예를 들어 멀티미디어 콘텐트의 현재 시간 또는 현재 프레임에서 멀티미디어 클립을 생성하기 위한 명령을 수신할 수 있다. 예를 들어, 입력부(102)는 입력 포트, 터치스크린 디스플레이, 스타일러스, 디지털 펜, 마이크로폰, 및 카메라를 포함할 수 있으나, 이에 제한되지 않는다. 멀티미디어 콘텐트는 오디오 스피커 또는 디스플레이 스크린과 같은 출력부(103)에서 재생된다. 하나의 실시예에서, 출력 디바이스는 인식 가능한 입력을 취하는 것이 가능하다. 예를 들어, 출력 디바이스는 터치 스크린 디스플레이를 포함할 수 있으나, 이에 한정되지 않는다. 터치스크린 디스플레이는 입력부(102)와 출력부(103)로 동작할 수 있다. 하나의 실시예에서, 출력부(103)는, 예를 들어, 셋톱박스와 같이 시스템(100)에 제공되지 않을 수 있다. 그러한 경우에, 출력부(103)는 시스템(100)의 외부의 장치일 수 있다. 더욱이, 저장부(104)는 버퍼에 있는 멀티미디어 콘텐트의 현재 재생한 부분을 저장하는데, 그것은 필요에 따라 일시적으로 제공된 한정된 공간이고 미리 설정된 저장 위치이다. The input unit 102 may receive a user input, an external input, or a sensor input, for example, to generate a multimedia clip at the current time or current frame of the multimedia content. For example, input 102 may include, but is not limited to, an input port, a touch screen display, a stylus, a digital pen, a microphone, and a camera. The multimedia content is played back at the output 103, such as an audio speaker or display screen. In one embodiment, the output device is capable of taking a recognizable input. For example, the output device may include, but is not limited to, a touch screen display. The touch screen display may operate as an input unit 102 and an output unit 103. In one embodiment, the output 103 may not be provided to the system 100, such as, for example, a set-top box. In such a case, the output 103 may be a device external to the system 100. Moreover, the storage unit 104 stores the currently reproduced portion of the multimedia content in the buffer, which is a limited space temporarily provided as needed and is a preset storage location.

입력부(102)는 완전 자동 클리핑 모드(자동 모드) 또는 반자동 클리핑 모드(반자동 모드)에서 외부 센서(나타나지 않음) 또는 부수적 내부 센서(106)로부터의 클리핑 명령 및 연관 입력들을 수신할 수 있다. 이런 외부 센서/내부 센서는 소프트웨어 모듈이거나 하드웨어 또는 그 조합일 수 있으며, 자동 또는 반자동 클리핑 모드에서 적어도 하나 이상의 클리핑 입력을 제공할 수 있다. 적어도 하나 이상의 클리핑 입력은 수동 클리핑 모드에서 사용자에 의해 제공될 수 있다. 그러한 입력들의 예시는 생성될 멀티미디어 클립의 끝점 그리고/또는 시작점을 지정하기 위한 입력을 포함한다. 소프트웨어/하드웨어 모듈에 대신하여, 적어도 하나 이상의 센서들은 같은 목적을 위해 제공된다. 한 예에서, 디지털 이미지 프로세서와 관련된 CCTV는 외부 센서 또는 내부 센서(106)로서 작동하도록 이용된다. 외부센서 그리고 내부 센서(106)의 다른 예시는, 무드 디텍터에 한정되지 않고, 감시카메라, 이미지 프로세서, 그리고 그들의 조합을 포함한다.The input 102 may receive clipping commands and associated inputs from an external sensor (not shown) or a secondary internal sensor 106 in a fully automatic clipping mode (automatic mode) or a semi-automatic clipping mode (semi-automatic mode). Such an external sensor / internal sensor may be a software module, hardware or a combination thereof, and may provide at least one clipping input in an automatic or semiautomatic clipping mode. At least one clipping input may be provided by the user in the manual clipping mode. An example of such inputs includes an input for specifying an end point and / or a starting point of a multimedia clip to be generated. Instead of a software / hardware module, at least one or more sensors are provided for the same purpose. In one example, the CCTV associated with the digital image processor is utilized to operate as an external sensor or internal sensor 106. [ Other examples of external sensors and internal sensors 106 are not limited to mood detectors but include surveillance cameras, image processors, and combinations thereof.

또는, 입력부(102)는 클리핑 명령을 수신하고 사용자 인터페이스로부터의 입력(나타나지 않음)과 연관한다. 현재 시간 또는 프레임은 클리핑 명령을 수신한 때이다. 멀티미디어 클리퍼(105)는 멀티미디어 클립의 시작점을 산출하거나 수신할 수 있다. 이러한 목적으로, 멀티미디어 클리퍼(105)는 외부 센서, 부수적인 내부 센서(106), 또는 사용자로부터 적어도 하나 이상의 클리핑 입력을 수신할 수 있다. 더불어, 멀티미디어 클리퍼(105)는 버퍼에 저장된 멀티미디어 콘텐트에서 시작점과 끝점 사이 부분을 추출함으로써 멀티미디어 클립을 생성할 수 있다. 멀티미디어 클립은 현재 재생하는 콘텐트를 인터럽트 함이 없이 생성될 수 있다. 하나의 실시예에서, 멀티미디어 클리퍼(105)는 프로그램의 조정 하에 멀티미디어 콘텐트로부터 멀티미디어 클립을 생성할 수 있다. 프로그램은 프로그래머블 칩/IC와 같은 섬세한 하드웨어, 또는 소프트웨어를 통해 실행될 수 있다. 또한, 도 1에서는 멀티미디어 클리퍼(105)가 콘트롤러(101)과 별개의 유닛인 것으로 설명되었지만, 이에 제한되지 않는다. 멀티미디어 클리퍼(105)의 일부 또는 전부의 기능은 콘트롤러(101)에 의해 구현될 수도 있다.Alternatively, input 102 receives a clipping command and associates it with an input (not shown) from the user interface. The current time or frame is when a clipping command is received. The multimedia clipper 105 may calculate or receive the starting point of the multimedia clip. For this purpose, the multimedia clipper 105 may receive at least one clipping input from an external sensor, an additional internal sensor 106, or a user. In addition, the multimedia clipper 105 may generate a multimedia clip by extracting a portion between the start point and the end point in the multimedia content stored in the buffer. The multimedia clip may be created without interrupting the content that is currently being played back. In one embodiment, the multimedia clipper 105 may generate a multimedia clip from the multimedia content under the control of the program. The program may be executed through fine hardware, such as a programmable chip / IC, or software. 1, the multimedia clipper 105 is described as being a separate unit from the controller 101, but the present invention is not limited thereto. The function of part or all of the multimedia clipper 105 may be implemented by the controller 101. [

도 2는 시스템(100)의 멀티미디어 클리퍼(105)의 개시에 대한 실시예에 따른 블록다이어그램을 보여준다. 보이는 바와 같이, 멀티미디어 클리퍼(105)는 사용자 명령을 수신하고 클리핑 프로세스를 실행시키는 디텍션 모듈(200)을 포함하고, 클립 생성에 있어서 시작점과 끝점을 관리하는 셀렉터 모듈(201)을 포함하고, 클립 생성에 있어서 사용자 인터페이스를 제공하는 프레젠테이션 모듈(202)을 포함하고, 버퍼(클립 생성을 위한 멀티미디어 콘텐트의 일시적인 저장)를 다루는 버퍼모듈(203)을 포함하고, 버퍼모듈(203)과 다른 모듈과의 인터페이스 역할을 담당하는 프레임 그래버 모듈(204, frame grabber module)을 포함하고, 클립 생성과 저장에 관계된 클리핑모듈(205)을 포함하며, 사용자 우선순위와 관련된 설정을 제공하는 콘피규레이션 파일(206)을 포함할 수 있다. 또는, 콘피규레이션 파일(206)은 저장부(104)에 저장될 수 있으나, 이에 제한되지 않는다. 멀티미디어 클리퍼(105)의 각각의 요소들은 아래 자세히 설명된다.FIG. 2 shows a block diagram according to an embodiment of the disclosure of a multimedia clipper 105 of the system 100. FIG. As shown, the multimedia clipper 105 includes a detection module 200 that receives a user command and executes a clipping process, and includes a selector module 201 for managing start and end points in clip creation, And a buffer module 203 for handling a buffer (temporary storage of multimedia contents for generating a clip). The buffer module 203 includes a presentation module 202 for providing a user interface, Includes a clipping module 205 associated with creating and storing clips, including a frame grabber module 204 serving as a role, and a configuration file 206 providing settings related to user priority . Alternatively, the configuration file 206 may be stored in the storage unit 104, but is not limited thereto. Each element of the multimedia clipper 105 is described in detail below.

디텍션모듈(200)은 클리핑 프로세스를 시작하기 위한 유발을 수신한다. 하나의 실시예에서, 디텍션모듈(200)은 유발을 수신하고 사용자로부터 연관 입력을 수신할 수 있다. 다른 실시예에서, 디텍션모듈(200)은 유발을 수신하고, 외부센서(207) 또는 내부센서(106)로부터 연관 입력을 수신할 수 있다. 또한, 디텍션모듈(200)은 셀렉터 모듈(201)에 내장될 수 있다.The detection module 200 receives the trigger to start the clipping process. In one embodiment, the detection module 200 can receive triggering and receive an association input from a user. In another embodiment, the detection module 200 may receive triggering and receive an association input from an external sensor 207 or an internal sensor 106. In addition, the detection module 200 may be embedded in the selector module 201.

셀렉터모듈(201)은 클립 생성에 있어서 시작점과 끝점을 다룬다(deal). 이러한 목적으로, 상기 디텍션 모듈(200)은 사용자, 외부 센서(207) 또는 내부 센서(106)로부터의 유발을 추적할 수 있다.The selector module 201 deals with starting and ending points in clip creation. For this purpose, the detection module 200 may track the trigger from the user, the external sensor 207 or the internal sensor 106.

클리핑 프로세스를 위한 사용자 유발은 시스템(100)의 인터페이스를 통해 직접(directly) 주어지거나 또는 입력부(102)와 같은 몇몇 다른 입력 소스에 의해 주어질 수 있다. 클리핑 프로세스를 위한 사용자 유발은 디텍션 모듈(200)에 의해 인식되거나 단독으로 식별될 수 있다. 하나의 실시예에서, 이러한 인식 가능한 입력은 리모트, 터치스크린, 동작, 음성 입력, 또는 어떤 다른 호환이 되는 장치에 의해 수신할 수 있고 디텍션 모듈(200)에 의해 셀렉터 모듈(201)과 통신될 수 있다. 더불어, 셀렉터 모듈(201)은 사용자 입력을 수신 하기 위해, 클립 생성을 위한 사용자 요구에 따라 프레젠테이션 모듈(202)을 불러올 수 있다. 사용자 입력을 수신한 후에, 셀렉터 모듈(201)은 시작점을 산출하기 위한 디폴트 값을 불러오기 위해 콘피규레이션 파일(206)에 접근할 수 있다. 사용자에 의해 클리핑이 요구된 시간은 끝점으로서 취급될 수 있다. 만약 지속시간이 제공된다면 시작점은 끝점에서 지속시간을 뺌으로써 산출될 수 있다. 사용자에 의해 변경된 시작점은 셀렉터 모듈(201)에 의해서 추적되고 저장될 수 있다. 시작점이 결정되면 셀렉터 모듈(201)은 최종적으로 결정된 시작과 끝점을 통한 클립 생성을 위해 클리핑 모듈(205)을 불러(invoke)올 수 있다.The user induction for the clipping process may be given directly through the interface of the system 100 or may be given by some other input source such as the input 102. The user inducement for the clipping process can be recognized by the detection module 200 or can be singly identified. In one embodiment, this recognizable input may be received by a remote, touch screen, operation, voice input, or some other compatible device and communicated to the selector module 201 by the detection module 200 have. In addition, the selector module 201 may invoke the presentation module 202 according to a user's request for creating a clip, in order to receive user input. After receiving the user input, the selector module 201 may access the configuration file 206 to retrieve a default value for calculating the starting point. The time at which clipping is requested by the user can be treated as an end point. If duration is provided, the starting point can be calculated by subtracting the duration from the endpoint. The starting point changed by the user can be tracked and stored by the selector module 201. Once the starting point is determined, the selector module 201 may invoke the clipping module 205 to generate a clip through the finally determined start and end points.

자동 모드에서, 외부 센서(207) 또는 내부 센서(106)는 클리핑 프로세스를 유발하고(trigger), 셀렉터 모듈(201)은 끝점과 함께 시작점 또는 지속 시간을 외부센서(207) 또는 내부센서(106)로부터 수신할 수 있다. 하나의 실시예에서, 센서는 오직 끝점만 제공할 수 있고, 미리 설정된 지속시간은 콘피규레이션 파일(206)로부터 수신될 수 있다. 셀렉터 모듈(201)은 시작점 및 끝점을 이용하여 멀티미디어 클립을 생성을 위한 클리핑 모듈(205)을 소환하고, 나머지 모든 요구되는 설정은 콘피규레이션 파일(206)로부터 추출될 수 있다. In the automatic mode, the external sensor 207 or the internal sensor 106 triggers a clipping process and the selector module 201 sends the start point or duration together with the end point to the external sensor 207 or the internal sensor 106. [ Lt; / RTI > In one embodiment, the sensor may only provide endpoints, and a predetermined duration may be received from the configuration file 206. [ The selector module 201 may summon the clipping module 205 for generating a multimedia clip using the start and end points and all the other required settings may be extracted from the configuration file 206. [

반자동 모드의 하나의 실시예에서, 셀렉터 모듈(201)은 사용자로부터 끝점을 수신하고, 시작점은 콘피규레이션 파일로부터 수신하거나 두 번째 규칙 세트에 의한 센서로부터 획득될 수 있다.In one embodiment of the semi-automatic mode, the selector module 201 may receive an endpoint from a user, the starting point may be received from a configuration file, or may be obtained from a sensor by a second rule set.

반자동 모드의 다른 실시예에서, 끝점은 첫 번째 규칙 세트에 기초해서 센서로부터 수신되고 시작점은 사용자에 의해 정의될 수 있다.In another embodiment of the semi-automatic mode, the endpoint is received from the sensor based on the first set of rules and the starting point can be defined by the user.

프레젠테이션 모듈(202)는 다양한 사용자 인터페이스(UI)를 통한 모든 사용자 상호작용에 관련이 있다. 사용자 인터페이스는, 예를 들어, 반자동 또는 수동 클리핑을 위한 사용자 입력을 가져오기 위한 사용자 인터페이스를 포함할 수 있다. 또한, 사용자 인터페이스는, 예를 들어, 클립 지속시간이 콘피규레이션 파일(206)에 저장된 지속시간과 상이할 필요가 있는 경우 클립의 지속시간/시작시간/시작프레임의 사용자 입력을 수신하는, 수동 클리핑을 위한 사용자 인터페이스를 포함할 수 있다. 또한, 사용자 인터페이스는, 예를 들어, 시작점을 미세조정하기 위한 사용자 인터페이스가 있다. 프레젠테이션 모듈(202)은 셀렉터모듈(201)에 의해 호출되고, 사용자 인터페이스에 대한 입력은 리모트 입력, 터치 스크린을 통한 입력, 제스쳐 입력, 음성 입력, 양립 가능한 모바일 또는 다른 입력 디바이스를 통한 입력에 의해 제공될 수 있다.Presentation module 202 is related to all user interaction through various user interfaces (UIs). The user interface may include a user interface for fetching user input, for example, semi-automatic or manual clipping. In addition, the user interface may be manually configured to receive a user input of the duration / start time / start frame of the clip if, for example, the clip duration needs to differ from the duration stored in the configuration file 206 And may include a user interface for clipping. In addition, the user interface has, for example, a user interface for fine-tuning the starting point. The presentation module 202 is invoked by the selector module 201 and the input to the user interface is provided by a remote input, input via a touch screen, gesture input, voice input, input via a compatible mobile or other input device .

수동 클리핑 모드(수동 모드)에서, 썸네일 스트립은 서로 다른 시간에 해당하는 썸네일 프레임을 보여준다. 썸네일 스트립은 시작점의 미세 조정을 위해서 필요하다. 썸네일 스트립을 보여주기 위해, 프레젠테이션 모듈(202)은 프레임 그래버 모듈(204)과 통신한다. 하나의 실시예에서, 정확한 시작 프레임 지점은 강조 표시되고, 썸네일 스트립의 중간에 위치할 수 있다. 썸네일 스트립을 통한 네비게이팅(navigating)을 위하여, 썸네일 스트립에서 시작점을 바꾸기 위한 입력은 화살표키, 터치 스크린, 또는 제스쳐 제어에 관한 사용자 그래픽 인터페이스를 통해 주어질 수 있다. 또한, 썸네일 스트립에서 시작점을 바꾸기 위한 입력은 시스템(100)에 의존할 수 있다. 이 경우, 썸네일은 네비게이팅 되고 새로운 시작점이 선택되며, 그리고 나서 프레임 그래버 모듈(204)이 새로운 선택점 주변의 프레임을 얻기 위해 다시 연결될 수 있다.In the manual clipping mode (manual mode), the thumbnail strip shows thumbnail frames corresponding to different times. Thumbnail strips are needed to fine tune the starting point. To show the thumbnail strip, the presentation module 202 communicates with the frame grabber module 204. In one embodiment, the correct starting frame point is highlighted and may be located in the middle of the thumbnail strip. For navigating through the thumbnail strip, input for changing the starting point in the thumbnail strip may be given via a user graphical interface with arrow keys, touch screen, or gesture control. In addition, the input for changing the starting point in the thumbnail strip may depend on the system 100. In this case, the thumbnail is navigated and a new starting point is selected, and then the frame grabber module 204 can be reconnected to obtain a frame around the new selection point.

어떠한(any) 클리핑 모드에서, 시작 프레임(시작점)의 지정이 완료되면, 시작점은 프레젠테이션 모듈(202)로부터 셀렉터 모듈(201)로 통신된다. 이후 프레젠테이션 모듈(202)은 클립 생성 상태를 사용자에게 알려줄 수 있다.In any clipping mode, when the start frame is specified, the starting point is communicated from the presentation module 202 to the selector module 201. The presentation module 202 may then inform the user of the clip creation state.

버퍼모듈(203)은 멀티미디어 콘텐트가 재생될 때마다 멀티미디어 플레이어 또는 시스템(100)에 의해 호출될 수 있다. 버퍼모듈(203)은 버퍼와 관련된 모든 동작들을 관리할 수 있다. 버퍼모듈(203)은, 예를 들어, 버퍼 생성, 버퍼 파괴 및 버퍼 플러싱을 수행할 수 있다. 또한, 버퍼모듈(203)은, 예를 들어, 재생 중인 콘텐트와 동기화된 기록 중인 콘텐트의 타임 스탬프를 유지하는 동작을 수행할 수 있다. 콘피규레이션 파일(206)에 정의된 사용자 설정에 기초하여, 버퍼모듈(203)은 원본 콘텐트를 저장하기 위한 버퍼를 생성할 수 있다. 버퍼가 꽉 차면(fulled), First In First Out(FIFO)와 같은 삭제 규칙에 따라, 추가적인 기록을 위한 공간을 생성하기 위하여 버퍼의 적어도 일부는 비워질 수 있다. 또한, 만약 사용자가 기록 가능 시간의 범위를 초과하여 클립 지속시간을 요구한다면, 최대한 허용될 수 있는 클립 지속시간을 알려주는 알림 메시지가 제공될 수 있다.The buffer module 203 may be invoked by the multimedia player or system 100 whenever the multimedia content is played back. The buffer module 203 may manage all operations related to the buffer. The buffer module 203 may perform buffer creation, buffer destruction, and buffer flushing, for example. In addition, the buffer module 203 may perform operations of, for example, maintaining the timestamp of the content being recorded synchronized with the content being played back. Based on the user settings defined in the configuration file 206, the buffer module 203 may generate a buffer for storing the original content. If the buffer is full, at least a portion of the buffer may be emptied to create space for additional writes, according to deletion rules such as First In First Out (FIFO). Also, if the user requires a clip duration exceeding the range of recordable time, a notification message may be provided informing the maximum allowable clip duration.

프레임 그래버 모듈(204)은 버퍼모듈(203)과 상호작용하는 유일한 모듈일 수 있으며, 최종 클립 생성을 위하여 썸네일 스트립 또는 원본 멀티미디어를 위한 프레임을 되찾아 올 수 있다. 프레임 그래버 모듈(204)은 썸네일 생성을 위한 프레임 추출을 위해 요구되는 일련의 타임 스탬프를 버퍼 모듈(203)과 통신할 수 있다. 하나의 실시예에서, 버퍼 모듈(203)은 셋톱 박스, 텔레비전, 외부 저장공간, 또는 심지어 클라우드에서도 디바이스의 능력에 따라 실행될 수 있다. 버퍼를 위해 사용되는 메모리는 언제나 활성화 되어야 있어야 할 수 있다. The frame grabber module 204 may be the only module that interacts with the buffer module 203 and may retrieve a thumbnail strip or a frame for the original multimedia for final clip creation. The frame grabber module 204 may communicate with the buffer module 203 a series of timestamps required for frame extraction for thumbnail generation. In one embodiment, the buffer module 203 may be executed in accordance with the capabilities of the device in a set-top box, a television, an external storage space, or even in the cloud. The memory used for the buffer may have to be active at all times.

프레임 그래버 모듈(204)은 버퍼모듈(203)과 다른 모듈 사이의 인터페이스로 동작할 수 있다. 시작점을 미세 조절하기 위해, 프레임 그래버 모듈(204)은 버퍼모듈(203)로부터 멀티미디어 콘텐트의 일부를 추출한 후에 썸네일을 생성하여 프레젠테이션 모듈(202)에게 제공할 수 있다. 프레젠테이션 모듈(202)은 프레임 그래버 모듈(204)을 시작점과 함께 불러온다. 프레임 그래버 모듈(204)은 썸네일 크기, 썸네일 사이의 시간 차이, 그리고 디스플레이 될 썸네일 숫자와 같은 썸네일 관련 정보를 콘피규레이션 파일(206)로부터 획득할 수 있다. 프레임 그래버 모듈(204)은 시작점, 썸네일 사이의 시간 차이, 및 썸네일 숫자를 이용하여 썸네일 스트립을 위한 일련의 타임 스탬프를 산출할 수 있다. 시작점 주변에 보여진 몇 개의 프레임은 시작 프레임을 미세 조정하기 위하여 이용될 수 있다. The frame grabber module 204 may operate as an interface between the buffer module 203 and another module. To fine tune the starting point, the frame grabber module 204 may extract a portion of the multimedia content from the buffer module 203 and then generate a thumbnail and provide it to the presentation module 202. Presentation module 202 invokes frame grabber module 204 with a starting point. The frame grabber module 204 may obtain thumbnail related information, such as thumbnail size, time difference between thumbnails, and the number of thumbnails to be displayed, from the configuration file 206. The frame grabber module 204 may calculate a series of timestamps for the thumbnail strip using the starting point, the time difference between the thumbnails, and the thumbnail number. Several frames shown around the start point can be used to fine tune the start frame.

썸네일 스트립을 위한 일련의 타임 스탬프와 함께, 프래임 그래버 모듈(204)은 타임 스탬프의 시간들에서의 프레임을 제공하기 위해 버퍼 모듈(203)과 통신할 수 있다. 이후, 썸네일들이 이러한 프레임들로부터 생성되고, 디스플레이를 위해 프레젠테이션 모듈(202)에 제공될 수 있다.With a series of timestamps for the thumbnail strip, the frame grabber module 204 can communicate with the buffer module 203 to provide frames at times of the timestamp. Thumbnails may then be generated from these frames and presented to the presentation module 202 for display.

시작점이 결정되면, 프레임 그래버 모듈(204)은 멀티 미디어 클립을 생성하는데 이용되는 시작점과 끝점 사이의 원본 멀티미디어를 제공하기 위하여 클리핑 모듈(205)과 연결될 수 있다. 프래임 그래버 모듈(204)은 원본 멀티미디어를 제공하기 위해 버퍼 모듈(203)과 컨택 하고, 원본 멀티미디어는 클리핑 모듈(205)에 제공될 수 있다.Once the starting point is determined, the frame grabber module 204 may be coupled with the clipping module 205 to provide the original multimedia between the starting and ending points used to create the multimedia clip. The frame grabber module 204 contacts the buffer module 203 to provide the original multimedia, and the original multimedia may be provided to the clipping module 205.

클리핑 모듈(205)은 멀티미디어 클립을 생성하기 위해 시작점 및 끝점에 대한 정보와 함께 셀렉터 모듈(201)에 의해 불려진다. 클리핑 모듈(205)은 그 시작점과 끝점 사이의 시간에 대응되는 원본 멀티미디어를 제공하고 멀티미디어 클립을 생성하기 위하여, 시작점 및 끝점과 함께 프레임 그래버 모듈(204)과 통신할 수 있다. 멀티미디어 클립은 저장부(104)와 같은 저장매체에 저장될 수 있다. 저장 매체의 위치는 콘피규레이션 파일(206)에서 추출될 수 있다.The clipping module 205 is called by the selector module 201 with information about the start and end points to create a multimedia clip. The clipping module 205 may communicate with the frame grabber module 204 along with the start and end points to provide the original multimedia corresponding to the time between its start and end points and to create a multimedia clip. The multimedia clip may be stored in a storage medium such as the storage unit 104. The location of the storage medium may be extracted in the configuration file 206.

클리핑모듈(205)은 콘피규레이션 파일(206)로부터 경로를 획득하여 멀티미디어 클립을 저장하기 위한 저장 매체(104)를 호출하고, 저장 매체(104)에 멀티미디어 클립을 저장할 수 있다. 또는, 멀티미디어 클립은 사용자 특화된 저장 위치에 저장되고, 사용자로부터 수신될 수 있다. 저장 공간은, 클리핑이 수행되는 디바이스의 능력(capability)에 따라, 셋톱 박스, 텔레비전, 외부 저장공간, 클라우드 또는 소셜 사이트의 직접 업로드 가능한 저장 공간일 수 있다. The clipping module 205 may obtain a path from the configuration file 206 to call the storage medium 104 for storing the multimedia clip and store the multimedia clip on the storage medium 104. [ Alternatively, the multimedia clip may be stored in a user-specific storage location and received from a user. The storage space may be a directly uploadable storage space of a set-top box, a television, an external storage space, a cloud or a social site, depending on the capability of the device on which the clipping is performed.

콘피규레이션 파일(206)은 클리핑 프로세스를 위한 다양한 콘피규레이션을 유지할 수 있다. 예를 들어, 콘피규레이션 파일(206)은 멀티미디어 클립의 미리 설정된 지속시간, 미리 설정된 시작 시간, 미리 설정된 시작 프레임 번호, 썸네일 사이즈, 보여질 썸네일들, 버퍼 사이즈, 버퍼 위치, 미리 설정된 저장 위치, 및 소셜 네트워킹 웹사이트에 대한 직접 업로드 자격을 포함하는 url에 관한 설정 값을 포함할 수 있다. 한편, 더 많은 파라미터들이 콘피규레이션 파일(206)에 저장 가능하다. 콘피규레이션 파일(206)은 모든 모듈들(201-205)들과 상호작용하는데, 이러한 모든 모듈들에 요구되는 설정 값을 저장하기 때문이다. 콘피규레이션 파일(206)은 사용자에 의해 제공되는 최근 값으로 업데이트 될 수 있다.The configuration file 206 may maintain various configurations for the clipping process. For example, the configuration file 206 may include a preset duration of the multimedia clip, a preset start time, a preset start frame number, a thumbnail size, thumbnails to be viewed, a buffer size, a buffer location, And settings for url including direct upload entitlement to a social networking website. On the other hand, more parameters can be stored in the configuration file 206. The configuration file 206 interacts with all of the modules 201-205 because it stores the required settings for all these modules. The configuration file 206 may be updated with the latest value provided by the user.

하나의 실시예에서, 최종적으로 생성된 멀티미디어 클립은 서버에도 저장될 수 있고, 소셜 네트워킹 사이트 상에서 직접적으로 공유될 수 있다. 모든 이러한 것은, 사용자의 UI 명령을 통해, 콘피규레이션 파일에 설정되거나 생성 시간에 업로드 될 수 있다.In one embodiment, the finally created multimedia clip may be stored on a server and may be shared directly on a social networking site. All of this can be set in the configuration file or uploaded at the time of creation, via the user's UI command.

외부 센서(207) 또는 내부 센서(106)는 시스템(100)에 유발(trigger) 신호를 제공하고 사용자의 개입 없이 클립 생성 프로세스를 자동적으로 수행하는데 이용될 수 있다. 외부 센서(207) 또는 내부 센서(106)는 멀티미디어 클립의 시작점과 끝점을 제공할 수 있다. 외부 센서(207) 또는 내부 센서(106)는 검출, 분석, 상황 보고 등이 가능한 어떠한 센서도 포함 가능하고, 이에 따라 유발을 발생시키는 것이 가능하다. 외부 센서(207) 또는 내부 센서(106)는, 예를 들어, 무드 센서, 이미지 프로세서, 그리고 그와 비슷한 것 일 수 있다. 시작과 끝점은 셀렉터 모듈(201)에 통신된다. 이러한 동작 모드에서는 프레젠테이션 모듈(202)은 자동적으로 시작하는 클립 생성과 클립 생성의 상태를 전달해 주는 사용자 인터페이스를 보여주는 역할 이외의 역할은 수행하지 않을 수 있다.The external sensor 207 or the internal sensor 106 may be used to provide a trigger signal to the system 100 and automatically perform the clip generation process without user intervention. The external sensor 207 or the internal sensor 106 may provide the start and end points of the multimedia clip. The external sensor 207 or the internal sensor 106 can include any sensor capable of detecting, analyzing, and reporting the situation, and thus can generate triggering. The external sensor 207 or the internal sensor 106 may be, for example, a mood sensor, an image processor, and the like. The start and end points are communicated to the selector module 201. In this operation mode, the presentation module 202 may not perform a role other than the role of showing a user interface for conveying the state of automatically generating a clip and a clip generation.

외부 센서(207) 또는 내부 센서(106)는 그 역할을 마무리하면서 첫 번째 규칙 세트에 기초해서 디텍션 모듈(200)에게 유발을 제공한다. 미리 설정된 규칙의 첫 번째 세트는 최근 콘텐트의 멀티미디어 클립이 생성되는 것을 요구하고, 멀티미디어 클립의 끝점을 지정하고 클리핑 프로세스를 시작하는 몇몇 미리 설정된 규칙을 포함할 수 있다. 그러한 규칙의 한 예로, 이미지 프로세서를 포함하는 CCTV 카메라는, 관찰되는 지역에서 사람이 비정상적인 행동을 했을 때, 비디오 클립의 생성을 유발(trigger)할 수 있다.The external sensor 207 or the internal sensor 106 provides triggering to the detection module 200 based on the first set of rules while completing its role. The first set of preset rules may include some preset rules that require the multimedia clip of the recent content to be created, specify the end point of the multimedia clip, and begin the clipping process. As an example of such a rule, a CCTV camera, including an image processor, can trigger the creation of a video clip when a person has unusual behavior in the area being observed.

비디오 클립의 유발이 생성되었을 때, 시작점은, 두 번째 규칙 세트에 기초하여, 외부 센서(207) 또는 내부 센서(106)에 의해 통신될 수 있다. 위의 예에서, 관찰되는 지역에 사람이 등장한 시각은 비디오 클립의 시작점으로 지정될 수 있다. 미리 설정된 규칙의 두 번째 규칙 세트는 멀티미디어 클립의 시작점을 지정하는 그 어떠한 미리 설정된 규칙도 포함한다. When the trigger of the video clip is generated, the starting point may be communicated by the external sensor 207 or the internal sensor 106, based on the second set of rules. In the above example, the time of appearance of the person in the observed region may be designated as the starting point of the video clip. The second rule set of the preset rule includes any predetermined rule for specifying the start point of the multimedia clip.

도 3은 멀티미디어 콘텐트에서 멀티미디어 클립을 생성하기 위한 방법의 플로우 차트에 대해서 설명한다. 단계 301에서, 현재 재생 중인 멀티미디어 콘텐트는 버퍼에 저장된다. 단계 302에서, 현재 시간 혹은 프레임에서 멀티미디어 클립을 생성하기 위한 명령이 수신되거나 생성될 수 있다. 명령은 자동 모드의 외부 센서 또는 내부 센서에서 제공될 수 있다. 또 다른 방법으로는, 명령은 반자동 모드 또는 수동 모드에서 사용자에 의해 제공될 수 있다. 단계 303에서, 현재 시간 또는 현재 프레임은 멀티미디어 클립의 끝점으로서 지정될 수 있다. 단계 304에서, 멀티미디어 클립의 시작점은 산출되거나 수신될 수 있다. 단계 305에서, 멀티미디어 클립은 버퍼에 저장된 멀티미디어 콘텐트의 시작점과 끝점 사이 부분을 추출함으로써 만들어지는데, 여기서 상기 단계들은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 수행될 수 있다. 단계 306에서, 멀티미디어 클립은 미리 설정된 저장 위치 또는 수시로 정해진 사용자 특화된 위치에 저장될 수 있다.Figure 3 illustrates a flow chart of a method for generating multimedia clips in multimedia content. In step 301, the currently playing multimedia content is stored in a buffer. In step 302, an instruction to generate a multimedia clip in the current time or frame may be received or generated. The command may be provided by an external sensor or an internal sensor in the automatic mode. Alternatively, the command may be provided by the user in a semi-automatic or manual mode. In step 303, the current time or current frame may be designated as the end point of the multimedia clip. In step 304, the starting point of the multimedia clip may be calculated or received. In step 305, the multimedia clip is created by extracting the portion between the start and end points of the multimedia content stored in the buffer, wherein the steps can be performed without interrupting the playback of the multimedia content. In step 306, the multimedia clip may be stored at a predetermined storage location or at a user-specific location determined at any time.

자동 클리핑 모드인 경우에, 단계 304에서, 시작점은 외부 센서/ 내부 센서에서 수신되거나 또는 외부 센서/내부 센서에서 제공된 멀티미디어 클립의 지속시간과 끝점을 이용하여 산출될 수 있다. 반자동 클리핑 모드인 경우에, 단계 304에서, 시작점은 미리 설정된 멀티미디어 클립모드의 지속시간과 끝점을 이용해서 산출될 수 있다. 수동 클리핑 모드인 경우에, 단계 304에서, 시작점은 사용자에 의해 제공된 멀티미디어 클립의 지속시간과 끝점을 이용하여 산출되거나, 또는 UI에 기반한 입력, 텍스쳐 입력, 제스쳐 입력 또는 음성 입력과 같은 사용자 입력으로부터 수신될 수 있다. 텍스쳐 입력은 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 번호를 위한 입력일 수 있다. In the case of the automatic clipping mode, in step 304, the starting point may be calculated using the duration and end point of the multimedia clip received at the external sensor / internal sensor or provided at the external sensor / internal sensor. In the case of the semi-automatic clipping mode, in step 304, the starting point can be calculated using the duration and end point of the preset multimedia clip mode. In the case of the manual clipping mode, the starting point is calculated using the duration and end point of the multimedia clip provided by the user, or received from the user input such as UI based input, texture input, gesture input or voice input . The texture input may be an input for the duration, start time or start frame number of the multimedia clip.

하나의 실시예에서, 상기 방법은 멀티미디어 콘텐트로부터 자동적으로 멀티미디어 클립을 생성하기 위해 수행될 수 있다. 언급된 실시예에서, 상기 방법은 첫 번째 규칙 세트 및 멀티미디어 클립을 생성하기 위한 명령에 기초한 추가적인 단계(도 3에는 보이지 않음)를 포함할 수 있다. 또한, 단계 303에서, 끝점은 수신된 명령에 따라 지정될 수 있다. 또한, 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 넘버는 두 번째 규칙 세트에 기초해서 멀티미디어 클립의 시작점을 산출하기 위해 산출될 수 있다.In one embodiment, the method may be performed to automatically generate a multimedia clip from the multimedia content. In the mentioned embodiment, the method may include a first set of rules and an additional step (not shown in Fig. 3) based on instructions for generating a multimedia clip. Further, in step 303, the end point may be specified according to the received command. In addition, the duration, start time or start frame number of the multimedia clip may be calculated to calculate the starting point of the multimedia clip based on the second set of rules.

하나의 실시예에서, 상기 방법은 멀티미디어 콘텐트로부터 멀티미디어 클립을 반자동적으로 생성하기 위해 수행될 수 있다. 언급한 실시예에서, 단계 302에서, 멀티미디어 콘텐트를 생성하기 위한 명령은 사용자 인터페이스로부터 수신되고 시작점은 단계 304의 멀티미디어 클립의 미리 설정된 또는 디폴트 지속시간과 끝점으로부터 산출된다. 또한, 이러한 멀티미디어 클립의 미리 설정된 또는 디폴트 지속시간은 콘피규레이션 파일로부터 획득될 수 있다. In one embodiment, the method may be performed to semi-automatically generate a multimedia clip from the multimedia content. In the mentioned embodiment, at step 302, a command for generating multimedia content is received from the user interface and the starting point is calculated from the preset or default duration and end point of the multimedia clip of step 304. [ In addition, a preset or default duration of such a multimedia clip may be obtained from the configuration file.

다른 실시예에서, 상기 방법은 멀티미디어 콘텐트로부터 멀티미디어 클립을 반자동적으로 생성하기 위해 수행될 수 있다. 언급한 실시예에서, 상기 방법은 첫 번째 규칙 세트에 기초해서 멀티미디어 클립을 생성하기 위한 명령을 발생시키는 추가적인 단계(그림에 보이지 않음)를 포함할 수 있다. 더욱이, 단계303에서, 끝점은 수신된 명령에 따라 지정될 수 있다. 또한, 단계 304에서, 시작점은 사용자 입력에 기초해서 산출되거나 수신될 수 있다. 사용자 입력은 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 넘버일 수 있다. 더욱이, 사용자 입력은 UI 기반의 입력, 문자 입력, 제스쳐 입력, 또는 음성 입력 일 수 있다. In another embodiment, the method may be performed to semi-automatically generate a multimedia clip from the multimedia content. In the described embodiment, the method may include an additional step (not shown) for generating an instruction to generate a multimedia clip based on the first set of rules. Moreover, in step 303, the end point may be specified in accordance with the received command. Further, at step 304, the starting point may be calculated or received based on the user input. The user input may be a duration, a start time, or a start frame number of a multimedia clip. Moreover, the user input may be UI based input, character input, gesture input, or voice input.

하나의 실시예에서, 상기 방법은 최소한의 사용자 입력에 의해 멀티미디어 콘텐트로부터 수동적으로 멀티미디어 클립을 생성하기 위해 수행될 수 있다. 언급된 실시예에서, 멀티미디어 콘텐트를 생성하기 위한 명령은 사용자에 의해 단계 302에서 제공되고, 시작점은 단계 304의 사용자 입력에 기초하여 산출되거나 수신될 수 있다. 이런 사용자 입력은 지속시간, 시작 시간 또는 멀티미디어 클립의 시작 프레임 넘버일 수 있다. 더욱이, 사용자 입력은 UI 기반의 입력, 텍스쳐 입력, 제스쳐 입력, 음성 입력 또는 적당한 입력일 수 있다. In one embodiment, the method may be performed to manually generate a multimedia clip from the multimedia content with minimal user input. In the embodiment described, the instructions for generating the multimedia content are provided by the user at step 302, and the starting point may be calculated or received based on the user input of step 304. Such user input may be a duration, a start time, or a start frame number of a multimedia clip. Furthermore, the user input may be a UI-based input, a texture input, a gesture input, a voice input, or a suitable input.

사용자 또는 외부센서(207)또는 내부센서(106)가 클리핑 프로세스를 유발할 때, 디텍션 모듈(200)이 시작(initiate)될 수 있다. 사용자가 클리핑 프로세스를 유발하면, 디텍터 모듈(200)은 프레젠테이션 모듈(202)을 호출하는 셀렉터 모듈(201)을 호출하고, 사용자는 반자동 모드와 수동모드 중에서 클리핑 모드를 선택할 것을 요청 받는다. 클리핑 모드는 세 카테고리로 분류될 수 있다 : (1) 자동 모드: 클립 생성 프로세스를 위해 사용자로부터 입력을 따로 요구하지 않고, 입력은 외부 센서(207)또는 내부 센서(106) 또는 콘피규레이션 파일(206)로부터 획득됨; (2) 반자동 클리핑 모드: 하나의 사용자 입력이 요구됨; (3) 수동 클리핑 모드: 수동 클리핑 모드는 다음의 5개의 모드로 더 세분화됨. (a) 하나의 입력에 의한 변경 - 클립 지속시간/ 시작시간/ 시작 프레임 ; (b) 시간 입력을 통한 시작점 변경 ; (c) 프레임 숫자 입력을 통한 시작점 변경 ; (d) 손 동작을 통한 시작점 변경 ; (e) 음성 입력을 통한 시작점 변경. 위에 언급된 모드들의 각각의 동작은 아래에 자세하게 설명되어 있다. When the user or external sensor 207 or internal sensor 106 causes a clipping process, the detection module 200 may be initiated. When the user causes the clipping process, the detector module 200 calls the selector module 201 which calls the presentation module 202, and the user is asked to select the clipping mode from the semi-automatic mode and the manual mode. Clipping mode can be grouped into three categories: (1) Automatic mode: the input does not require any input from the user for the clip generation process, and the input is either the external sensor 207 or the internal sensor 106 or the configuration file 206; (2) Semi-automatic clipping mode: one user input is required; (3) Manual clipping mode: The manual clipping mode is further subdivided into the following five modes. (a) Change by one input - Clip duration / start time / start frame; (b) changing the starting point by time input; (c) Change starting point by inputting frame number; (d) changing the starting point through hand motion; (e) Changing the starting point through voice input. The operation of each of the above-mentioned modes is described in detail below.

전체 클리핑 프로세스는 사용자로부터의 어떠한 입력을 요구함이 없이 자동적으로 수행될 수 있다. 클리핑 프로세스는 사용자에 의해 콘피규레이션 파일(206) 내에 설정된 정보, 끝점을 지정하기 위한 첫 번째 규칙 세트, 및 시작점/ 클립 지속시간을 지정하기 위한 두 번째 규칙 세트에 기초해서, 3개의 상이한 방법에 의해 수행될 수 있다. 세 개의 자동 모드에서 어떤 것이든, 클리핑 작동이 시작되고 완료된 때에 상태 알림은 사용자에게 보여질 수 있다. The entire clipping process can be performed automatically without requiring any input from the user. The clipping process is performed by the user in three different ways, based on the information set in the configuration file 206, the first rule set for specifying the end point, and the second rule set for specifying the start point / clip duration ≪ / RTI > In any of the three automatic modes, the status notification can be shown to the user when the clipping operation is initiated and completed.

이 모드에서, 외부 센서(207)또는 내부 센서(106)는 사용자로부터 어떠한 입력을 요구함이 없이 자동 클리핑 프로세스를 유발한다. 끝점은 첫 번째 규칙 세트에 기초해서 지정되고, 반면에 시작점은 콘피규레이션 파일(206)로부터 자동적으로 채워지는데, 클립의 지속시간이 미리 설정될 수 있다. 더욱이, 멀티미디어 클립은 콘피규레이션 파일(206) 내의 설정에 따라 미리 설정된 위치에 저장될 수 있다. In this mode, the external sensor 207 or the internal sensor 106 causes an automatic clipping process without requiring any input from the user. The endpoint is specified based on the first set of rules, while the starting point is automatically populated from the configuration file 206, and the duration of the clip can be preset. Moreover, the multimedia clip may be stored at a preset location according to the settings in the configuration file 206. [

사용자는 사용자 인터페이스로부터 자동 클리핑이 시작되었다는 것을 확인할 수 있다. 사용자 인터페이스(400)는 도 4에 예시되어 있다. 클리핑 동작이 완료되면, 멀티미디어 클립의 상태가 사용자에게 보여진다. 도 5는 자동 클리핑 모드에서의 동작을 나타내는 플로우 차트(500)를 보여준다. 단계 501이 시작한 후에, 멀티미디어 플레이어 또는 시스템(100)으로부터의 명령에 기초하여 버퍼는 단계 502에서 버퍼의 용량에 따라 멀티 미디어 콘텐트의 현재 재생 중인 부분을 기록(record)한다. 멀티미디어 콘텐트가 재생되고 있지 않으면 버퍼는 비활성화될 수 있다. 동작 중 아무 때나 만약 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 꺼지면 (단계 503) 버퍼가 단계 504에서 닫히고(flushed), 클리핑 프로세스는 단계 505에서 종료된다. 단계 506에서, 자동화 클리핑은 첫 번째 규칙 세트에 기초하여 외부 센서(207)또는 내부 센서(106)로 인해 유발된다. 이후, 단계 507에서, 특정한 시각 또는 프레임이 멀티미디어 클립의 끝점으로 지정되고 클립의 시작점은 콘피규레이션 파일(206)에서 얻어진다 (이 경우, 사용자는 멀티미디어 클립의 지속시간을 미리 설정해 둘 수 있다). 그렇지 않으면, First In First Out (FIFO)와 같은 삭제 정책에 기초해서 버퍼는 현재 재생 중인 콘텐트를 기록하고 오래된 콘텐트를 삭제하는 것을 반복해야 한다. 시작점과 끝점에 기초해서, 시작점과 끝점 사이에 있는 멀티미디어 콘텐트의 저장된 부분은 멀티미디어 클립을 생성하기 위해 자동으로 불러와진다. 멀티미디어 클립은 콘피규레이션 파일에서 구체화된 미리 설정된 위치에 저장된다. 이러한 방법으로, 사용자 입력 없이 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 생성될 수 있다.The user can confirm from the user interface that automatic clipping has begun. The user interface 400 is illustrated in FIG. When the clipping operation is completed, the status of the multimedia clip is displayed to the user. FIG. 5 shows a flowchart 500 illustrating operation in the automatic clipping mode. After step 501 begins, the buffer, based on instructions from the multimedia player or system 100, records the currently playing portion of the multimedia content according to the capacity of the buffer in step 502. [ If the multimedia content is not being played back, the buffer may be deactivated. At any time during operation, if the system is switched off / shut down or the multimedia player is turned off (step 503), the buffer is flushed in step 504 and the clipping process is terminated in step 505. At step 506, the automated clipping is triggered by either the external sensor 207 or the internal sensor 106 based on the first set of rules. Then, at step 507, a specific time or frame is designated as the end point of the multimedia clip and the start point of the clip is obtained in the configuration file 206 (in this case, the user can preset the duration of the multimedia clip) . Otherwise, based on a deletion policy such as First In First Out (FIFO), the buffer must repeat recording the currently playing content and deleting the old content. Based on the starting and ending points, the stored portion of the multimedia content between the starting and ending points is automatically loaded to create a multimedia clip. The multimedia clip is stored at a predetermined location specified in the configuration file. In this way, a multimedia clip without user input can be generated without interrupting the playback of the multimedia content.

이 모드에서, 외부 센서(207) 또는 내부 센서(106)는 사용자로부터 어떠한 입력을 요구함이 없이 클리핑 프로세스를 유발한다. 시작점은 두 번째 규칙 세트에 기초하여 결정된다. 끝점은 콘피규레이션 파일(206)로부터 자동적으로 획득되며, 사용자는 클립의 지속시간을 미리 설정할 수 있다. 멀티미디어 클립은 콘피규레이션 파일(206) 내의 설정 값에 따른 미리 설정된 위치에 저장된다. In this mode, the external sensor 207 or internal sensor 106 causes a clipping process without requiring any input from the user. The starting point is determined based on the second set of rules. The endpoint is automatically obtained from the configuration file 206, and the user can preset the duration of the clip. The multimedia clip is stored at a predetermined position according to the setting value in the configuration file 206. [

사용자는 사용자 인터페이스로부터 자동 클리핑이 시작되었다고 안내 받을 것이다. 그러한 사용자 인터페이스(400)는 도 4에 보여진다. 클리핑 동작이 완료되면, 멀티미디어 클립의 상태가 사용자에게 보여진다. 도 5는 자동 클리핑 모드에서의 동작을 묘사하는 플로우차트(500)를 보여준다. 단계 501이 시작한 후에, 단계 502에서 멀티미디어 플레이어 또는 시스템(100)으로부터의 명령에 기초하여 버퍼는 용량에 따라 멀티미디어 콘텐트의 현재 재생 중인 부분을 저장할 수 있다. 멀티미디어 콘텐트가 재생 되고 있 않을 때 버퍼는 비활성화 될 수 있다. 동작 중 아무 때나 만약 시스템이 꺼지거나 멀티미디어 플레이어가 종료되면 (단계 503), 버퍼가 단계 504에서 닫히고, 클리핑 프로세스는 단계 505에서 종료될 수 있다. 단계 506에서, 자동화 클리핑은 두 번째 규칙 세트에 기초하여 외부 센서(207)또는 내부 센서(106)로 인해 유발되고, 이후, 단계 507에서 특정한 시간 또는 프레임이 멀티미디어 클립의 끝점으로 지정되고 클립의 시작점은 콘피규레이션 파일(206)에서 얻어진다 (여기서 사용자는 이미 멀티미디어 클립의 지속시간을 설정하였다). 그렇지 않으면, First In First Out (FIFO)와 같은 삭제 정책에 의거해서 버퍼는 현재 재생 중인 콘텐트를 기록하고 오래된 콘텐트를 삭제하는 것을 반복해야 한다. 시작점과 끝점에 기초해서, 시작점과 끝점 사이에 있는 멀티미디어 콘텐트의 저장된 부분은 멀티미디어 클립을 생성하기 위해 불러와진다. 멀티미디어 클립은 콘피규레이션 파일에서 구체화된 미리 설정된 위치에 저장된다. 이러한 방법으로, 사용자 입력 없이 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 생성된다. The user will be notified that automatic clipping has begun from the user interface. Such a user interface 400 is shown in FIG. When the clipping operation is completed, the status of the multimedia clip is displayed to the user. Figure 5 shows a flowchart 500 depicting the operation in the automatic clipping mode. After step 501 begins, the buffer may store the currently playing portion of the multimedia content according to capacity, based on instructions from the multimedia player or system 100, The buffer may be deactivated when the multimedia content is not being played. At any time during operation, if the system is turned off or the multimedia player is terminated (step 503), the buffer is closed in step 504 and the clipping process may be terminated in step 505. At step 506, the automated clipping is triggered by the external sensor 207 or the internal sensor 106 based on the second set of rules, and then at step 507 a particular time or frame is designated as the end point of the multimedia clip, Is obtained in the configuration file 206 (where the user has already set the duration of the multimedia clip). Otherwise, based on a deletion policy such as First In First Out (FIFO), the buffer must repeat recording the currently playing content and deleting old content. Based on the starting and ending points, the stored portion of the multimedia content between the starting and ending points is loaded to create a multimedia clip. The multimedia clip is stored at a predetermined location specified in the configuration file. In this way, multimedia clips without user input are generated without interrupting the playback of the multimedia content.

이 모드에서, 외부 센서(207) 또는 내부 센서(106)는 사용자로부터 어떠한 입력을 요구함이 없이 클리핑 프로세스를 유발한다. 시작점은 두 번째 규칙 세트에 기초하여 결정된다. 끝점은 콘피규레이션 파일(206)로부터 자동적으로 채워지고 여기서 사용자는 클립의 미리 설정된 지속시간을 가지고 있다. 멀티미디어 클립은 콘피규레이션 파일(206) 내의 설정에 따른 미리 설정된 위치에 저장된다. In this mode, the external sensor 207 or internal sensor 106 causes a clipping process without requiring any input from the user. The starting point is determined based on the second set of rules. The endpoint is automatically populated from the configuration file 206 where the user has a preset duration of the clip. The multimedia clip is stored at a predetermined location according to the setting in the configuration file 206. [

사용자는 사용자 인터페이스로부터 자동 클리핑이 시작되었다고 안내 받을 것이다. 그러한 사용자 인터페이스(400)는 도 4에 보여진다. 클리핑 동작이 완료되면, 멀티미디어 클립의 상태는 사용자에게 보여진다. 도 5는 자동 클리핑 모드의 동작을 묘사하는 플로우차트(500)를 보여준다. 단계 501이 시작한 후에, 단계 502에서 멀티미디어 플레이어 또는 시스템(100)으로부터의 명령에 기초하여 버퍼는 용량에 따라 멀티미디어 콘텐트의 현재 재생 중인 부분을 저장할 수 있다. 멀티미디어 콘텐트가 재생되지 않을 때 버퍼는 비활성화 될 수 있다. 동작 중 아무때나 만약 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 꺼지면 (단계 503), 버퍼가 단계 504에서 닫히고, 클리핑 프로세스는 단계 505에서 종료된다. 단계 506에서, 자동화 클리핑은 첫 번째 규칙 세트에 기초하여 외부 센서(207)또는 내부 센서(106)로 인해 유발되고, 이후 단계 507에서 특정한 시간 또는 프레임이 멀티미디어 클립의 끝점으로 지정되고 클립의 시작점은 콘피규레이션 파일(206)에서 얻어진다 (여기서 사용자는 이미 멀티미디어 클립의 지속시간을 설정하였다). 그렇지 않으면, First In First Out (FIFO)와 같은 삭제 정책에 기초해서 버퍼는 현재 재생 중인 콘텐트를 기록하고 오래된 콘텐트를 삭제하는 것을 반복해야 한다. 시작점과 끝점에 기초해서, 시작점과 끝점 사이에 있는 멀티미디어 콘텐트의 저장된 부분은 멀티미디어 클립을 생성하기 위해 자동으로 불러와진다. 멀티미디어 클립은 콘피규레이션 파일에서 구체화된 미리 설정된 위치에 저장된다. 이러한 방법으로, 아무 입력도 사용자로부터 수신하지 않고 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 생성된다. The user will be notified that automatic clipping has begun from the user interface. Such a user interface 400 is shown in FIG. When the clipping operation is completed, the state of the multimedia clip is shown to the user. Figure 5 shows a flowchart 500 depicting the operation of the automatic clipping mode. After step 501 begins, the buffer may store the currently playing portion of the multimedia content according to capacity, based on instructions from the multimedia player or system 100, The buffer may be deactivated when the multimedia content is not being played. At any time during operation, if the system is switched off / shut down or the multimedia player is turned off (step 503), the buffer is closed at step 504 and the clipping process is terminated at step 505. In step 506, the automated clipping is triggered by the external sensor 207 or the internal sensor 106 based on the first set of rules, and then in step 507 a particular time or frame is designated as the end point of the multimedia clip, Is obtained in the configuration file 206 (where the user has already set the duration of the multimedia clip). Otherwise, based on a deletion policy such as First In First Out (FIFO), the buffer must repeat recording the currently playing content and deleting the old content. Based on the starting and ending points, the stored portion of the multimedia content between the starting and ending points is automatically loaded to create a multimedia clip. The multimedia clip is stored at a predetermined location specified in the configuration file. In this way, no input is received from the user and the multimedia clip is created without interrupting the playback of the multimedia content.

위에 제시된 자동 모드에서, 자동으로 생성된 멀티미디어 클립은 아마 콘피규레이션 파일(206)의 미리 설정된 특정 위치 또는 이를 대신하여 수시로 제공되는 사용자 특화된 위치에 저장된다.In the above-described automatic mode, the automatically generated multimedia clip is stored in a user-specified location, which is often provided at a predetermined or predetermined location of the configuration file 206.

이 모드에서, 사용자는 클리핑 프로세스를 유발한다. 이후, 디텍터 모듈(200)은 유발에 응답하며, 디텍터 모듈(200)은 반자동 클리핑 모드 옵션(601)과 수동 클리핑 모드 옵션(602)과 같은 클리핑 모드 셀렉션 옵션(600)을 디스플레이 하는 프레젠테이션 모듈(202)을 불러오는 셀렉터 모듈(201)을 불러온다. 만약 사용자가 반자동 클리핑 모드 옵션(601)을 선택하면, 그 때가 사용자가 한 번 상호작용할 필요가 있는 시간이고 이후 멀티미디어 클립이 자동적으로 생성되고 미리 설정된 위치 또는 추가적으로 수시로 지정된 사용자 특화 위치에 저장된다. 반자동 클리핑 모드에서, 다른 관련된 정보는 콘피규레이션 파일(206)로부터 추출된다. 프레젠테이션 모듈(202)을 통해 사용자 입력을 획득한 후에, 셀렉터 모듈(201)은 콘피규레이션 파일(206)에 접근하고 클립 지속시간을 추출해낸다. 또한, 셀렉터 모듈(201)은 시작점을 산출하고 클리핑모듈(205)은 클립 생성을 위한 시작과 끝점과 함께 호출된다. 클리핑 모듈(205)은 콘피규레이션 파일(206)로부터 미리 설정된 저장 위치를 추출하고 미리 설정된 저장 위치에 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자로부터 수신된 사용자에 의해 특화된 저장 위치에 저장될 수 있다. 상태 알림은 반자동 클리핑 동작이 완료되면 사용자에게 보여진다.In this mode, the user triggers a clipping process. The detector module 200 then responds to the trigger and the detector module 200 includes a presentation module 202 that displays a clipping mode selection option 600 such as a semi-automatic clipping mode option 601 and a manual clipping mode option 602. The semi- The selector module 201 is called. If the user selects the semi-automatic clipping mode option 601, then it is the time that the user needs to interact once and then the multimedia clip is automatically created and stored at the pre-set location or additionally at the designated user-specific location. In the semi-automatic clipping mode, other relevant information is extracted from the configuration file 206. After acquiring user input via the presentation module 202, the selector module 201 accesses the configuration file 206 and extracts the clip duration. The selector module 201 also calculates the starting point and the clipping module 205 is called with the start and end points for clip creation. The clipping module 205 extracts a preset storage location from the configuration file 206 and stores the multimedia clip in a preset storage location. Alternatively, the multimedia clip may be stored in a storage location specialized by the user received from the user. The status notification is shown to the user when the semiautomatic clipping operation is complete.

언급한 반자동 실시예에서, 사용자 유발은 끝점을 제공하고 미리 설정된 콘피규레이션 파일(206)에 저장된 지속시간은 시작점을 산출하기 위해 이용될 수 있다. 다른 반자동 실시예에서, 센서는 첫 번째 규칙 세트에 기초해서 끝점을 제공하고, 반면에 사용자 유발은 시작점을 제공할 수 있다. 다른 반자동 실시예에서, 사용자는 끝점을 제공하고, 반면에 센서 유발은 두 번째 규칙 세트에 기초해서 시작점을 제공할 수 있다.In the mentioned semi-automatic embodiment, the user induction provides an endpoint and the duration stored in the preset configuration file 206 can be used to calculate the starting point. In another semi-automatic embodiment, the sensor provides an endpoint based on the first set of rules, while user induction can provide a starting point. In another semi-automatic embodiment, the user provides an end point, while the sensor induction may provide a starting point based on a second set of rules.

도 7은 반자동 클리핑 모드에서의 동작을 묘사하는 플로우차트(700)에 대해 보여준다. 단계 701이 시작한 후에, 버퍼는 단계 702에서 멀티미디어 플레이어 또는 시스템(100)으로부터의 명령에 기초해서, 버퍼의 용량에 기초하여 멀티미디어 콘텐트의 현재 재생 중인 부분에 대한 기록을 시작한다. 여기서 멀티미디어 콘텐트가 재생되지 않을 때 버퍼가 비활성화 될 수 있다. 단계 703에서 시스템이 꺼지거나 멀티미디어 플레이어가 종료되는 어떠한 때에나, 단계 704에서 버퍼는 닫히고 클리핑 프로세스는 단계 705에서 종료된다. 단계 706에서, 반자동 클리핑에 대한 유발(trigger)이 수신된다. 단계 707에서, 클립은 다음 세 가지 방법 중 하나로 생성 된다 : (1) 사용자 유발은 끝점을 지정하고, 반면에 미리 설정된 콘피규레이션 파일로부터 추출된 지속시간은 시작점을 산출하기 위해 사용된다 ; 또는 (2) 센서 유발은 첫 번째 규칙 세트에 기초하여 끝점을 지정하고, 반면에 사용자 유발/입력은 시작점 지정하기 위하여 요구된다 ; 또는 (3) 사용자 유발은 끝점을 지정하고, 반면에 센서 유발은 두 번째 규칙 세트에 기초하여 시작점을 지정한다. 반면에, 버퍼는 현재 재생 중인 콘텐트를 기록하고 오래된 콘텐트를 First In First Out(FIFO)과 같은 삭제 정책에 기초하여 제거하는 것을 반복한다. 시작점과 끝점에 기초하여, 멀티미디어 콘텐트의 시작점과 끝점 사이의 저장된 부분은 멀티미디어 클립을 생성하기 위해 추출된다. 멀티미디어 클립은 콘피규레이션 파일에 구체화된 미리 설정된 위치에 저장되거나 또는 수시로 제공되는 사용자 특화된 위치에 저장된다. 이러한 방법으로, 클리핑 프로세스를 시작하기 위한 오직 하나의 입력이 사용자로부터 수신되며, 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 생성되며 어떠한 더 이상의 사용자로부터의 입력을 요구하지 않는다.FIG. 7 shows a flowchart 700 depicting operation in a semi-automatic clipping mode. After step 701 has begun, the buffer begins recording, at step 702, based on the command from the multimedia player or system 100, the currently playing portion of the multimedia content based on the capacity of the buffer. Where the buffer may be deactivated when the multimedia content is not being reproduced. At any time when the system is turned off in step 703 or the multimedia player is terminated, the buffer is closed in step 704 and the clipping process is terminated in step 705. At step 706, a trigger for semi-automatic clipping is received. In step 707, the clip is created in one of three ways: (1) user induction specifies the end point, while the duration extracted from the preset configuration file is used to calculate the starting point; Or (2) the sensor induction specifies an endpoint based on the first set of rules, whereas user induction / input is required to specify a starting point; Or (3) user triggers specify an endpoint, while sensor triggers specify a starting point based on a second set of rules. On the other hand, the buffer records the currently playing content and repeats the removal of old content based on a deletion policy such as First In First Out (FIFO). Based on the starting and ending points, the stored portion between the starting and ending points of the multimedia content is extracted to generate a multimedia clip. The multimedia clip is stored at a predetermined location specified in the configuration file or at a user-specific location provided at any time. In this way, only one input for starting the clipping process is received from the user, and the multimedia clip is created without interrupting the playback of the multimedia content and does not require input from any further users.

사용자는 상호적인 클립 생성을 요청할 수 있다. 이것은 사용자로부터 제공된 입력에 기초하여 5가지 다른 방법으로 행해질 수 있다. 만약 사용자가 시작점을 미세조정하고 싶다면, 아래 언급된 단일의 입력 모드는 사용자에 의해 선택될 수 있고, 그렇지 않다면 다른 수동 모드 중에 어떤 것이나 골라질 수 있다. 수동 모드중의 어떤 것이나, 클리핑 동작이 완료되면 상태 알림이 사용자에게 보여진다.The user can request to create a mutual clip. This can be done in five different ways based on the input provided by the user. If the user wishes to fine-tune the starting point, the single input mode mentioned below can be selected by the user, or else any of the other manual modes can be selected. When any of the manual modes or the clipping operation is complete, a status notification is displayed to the user.

이러한 수동 모드에서, 사용자는 클립 생성을 유발한다. 이후, 디텍터 모듈(200)은 유발에 응답하고, 반자동 클리핑 모드 옵션(601) 그리고 수동 클리핑 모드 옵션(602)과 같은 클리핑 모드의 선택 옵션(600)을 나타내는 프레젠테이션 모듈(202)을 불러오는 셀렉터 모듈(201)을 불러올 수 있다. 만약 사용자가 도 8에 보여지는 것과 같이 수동 클리핑 모드 옵션(602)을 고른다면, 셀렉터 모듈(201)은 수동 클리핑 모드의 선택을 주기 위해 프레젠테이션 모듈(202)을 다시 불러온다(re-invoke). 만약 사용자가 지속시간/시작시간/프레임 숫자를 변경하는 모드를 고른다면, 연관된 사용자 인터페이스(900)가, 도 9에 보이는 것과 같이, 지속시간/시작시간/프레임 숫자를 위한 단일 입력을 입력하기 위해 디스플레이 될 수 있다. 하나의 실시예에서, 사용자 인터페이스(900)는, 지속시간/시작시간/프레임 숫자를 수신하기 위한 텍스트박스(901), 지속시간/ 시작시간/ 프레임 숫자를 확정하기 위한 OK 버튼(902), 동작을 취소하기 위한 취소버튼(903), 및 지속시간, 시작시간, 프레임 숫자 입력 옵션 중에서 적어도 하나를 선택하기 위한 라디오 버튼(904)을 포함할 수 있다. 동작에 있어서, 지속시간/시작시간/프레임 숫자는 셀렉터 모듈(201)에 통신되고, 시작점은 수신한 지속시간/시작시간/프레임 숫자에 기초하여 산출된다. 그 이후, 클리핑 모듈(205)은 클립 생성을 위한 시작점, 끝점과 함께 불러와진다. 클리핑 모듈(205)은 미리 설정된 저장 위치를 콘피규레이션 파일(206)로부터 추출하고 미리 설정된 저장 위치에 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자로부터 수신된 사용자 특화된 저장 위치에 저장된다. In this manual mode, the user causes clip generation. Thereafter, the detector module 200 is responsive to the trigger and includes a selector module (not shown) that invokes the presentation module 202 representing a clipping mode selection option 600, such as a semi-automatic clipping mode option 601 and a manual clipping mode option 602 201). If the user selects the manual clipping mode option 602 as shown in FIG. 8, the selector module 201 re-invokes the presentation module 202 to give a choice of the manual clipping mode. If the user chooses a mode to change the duration / start time / frame number, the associated user interface 900 may be used to input a single input for duration / start time / frame number, Can be displayed. In one embodiment, the user interface 900 includes a text box 901 for receiving a duration / start time / frame number, an OK button 902 for determining a duration / start time / frame number, And a radio button 904 for selecting at least one of a duration time, a start time, and a frame number input option. In operation, the duration / start time / frame number is communicated to the selector module 201, and the starting point is calculated based on the received duration / start time / frame number. Thereafter, the clipping module 205 is loaded with the starting and ending points for clip creation. The clipping module 205 extracts a preset storage location from the configuration file 206 and stores the multimedia clip in a preset storage location. Alternatively, the multimedia clip is stored in a user-specific storage location received from the user.

도 10은 지속시간/시작시간/프레임 숫자 변경과 함께 수동 클리핑 모드를 위한 동작을 묘사하는 플로우차트(1000)에 대해 설명한다. 단계 1001을 시작한 후에, 단계 1002에서 버퍼가 멀티미디어 플레이어 또는 시스템(100)으로부터의 명령에 기초한, 멀티미디어 콘텐트의 현재 재생 중인 부분을 버퍼의 용량에 따라 기록하기 시작한다. 멀티미디어 콘텐트가 재생되지 않을 때 버퍼는 비활성화 될 수 있다. 동작 중 아무 때나 만약 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 꺼지면 (단계 1003), 버퍼가 단계 1004에서 닫히고, 클리핑 프로세스는 단계 1005에서 종료된다. 지속시간/시작시간/프레임 숫자 변경과 함께 클리핑은 단계 1006에서 사용자에 의해서만 유발될 수 있으며, 특정한 시간 또는 프레임이 멀티미디어 클립의 끝점으로 지정될 수 있다. 그렇지 않으면, First In First Out (FIFO)와 같은 삭제 정책에 기초해서 버퍼는 현재 재생 중인 콘텐트를 기록하고 오래된 콘텐트를 삭제하는 것을 반복해야 한다. 단계 1007에서, 클립의 시작점은 시스템(100)에 의해 제공된 다이얼로그(dialog)에서 사용자에 의해 새로이 입력된 지속시간/ 시작시간/ 멀티미디어 클립의 프레임 숫자에 기초하여 산출될 수 있다. 시스템(100)에 의해 제공된 다이얼로그(dialog)에는 최근에 입력된 지속시간/ 시작시간/ 멀티미디어 클립의 프레임 숫자가 표시될 수 있으며, 사용자는 지속시간/ 시작시간/ 멀티미디어 클립의 프레임 숫자를 변경하기 위하여 새로운 값을 입력할 수 있다. 시작점과 끝점에 기초해서, 시작점과 끝점 사이에 있는 멀티미디어 콘텐트의 저장된 부분은 멀티미디어 클립을 생성하기 위해 자동으로 불러와진다(단계 1008). 멀티미디어 클립은 콘피규레이션 파일에 구체화된 것과 같이 미리 설정된 위치에 저장되거나 수시로 제공되는 사용자 특화된 위치에 저장된다. 이러한 방법으로, 오직 두 입력이 사용자로부터 수신된다; 하나는 단지 클리핑 프로세스를 시작하기 위한 것이고, 다른 하나는 지속시간/ 시작프레임/ 멀티미디어 클립의 시작시간을 위한 것이다. 더욱이, 아무런 다른 입력도 사용자로부터 수신하지 않고 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이 생성될 수 있다. Figure 10 illustrates a flowchart 1000 depicting the operation for the manual clipping mode with duration / start time / frame number change. After starting step 1001, in step 1002, the buffer begins to record the currently playing portion of the multimedia content, based on commands from the multimedia player or system 100, in accordance with the capacity of the buffer. The buffer may be deactivated when the multimedia content is not being played. At any time during operation, if the system is switched off / shut down or the multimedia player is turned off (step 1003), the buffer is closed in step 1004 and the clipping process is terminated in step 1005. Clipping with duration / start time / frame number change can only be triggered by the user in step 1006 and a particular time or frame can be designated as the end point of the multimedia clip. Otherwise, based on a deletion policy such as First In First Out (FIFO), the buffer must repeat recording the currently playing content and deleting the old content. In step 1007, the starting point of the clip may be calculated based on the duration time / start time / frame number of the multimedia clip newly input by the user in a dialog provided by the system 100. The dialog provided by the system 100 may display the last entered durations / start times / frame numbers of the multimedia clips, and the user may change the duration / start time / frame number of the multimedia clip You can enter a new value. Based on the starting and ending points, the stored portion of the multimedia content between the starting and ending points is automatically loaded to create a multimedia clip (step 1008). The multimedia clip is stored at a pre-set location as specified in the configuration file or at a user-specific location that is often provided. In this way, only two inputs are received from the user; One for just starting the clipping process and the other for the duration of the duration / start frame / multimedia clip. Moreover, no other input is received from the user and the multimedia clip can be created without interrupting the playback of the multimedia content.

이러한 수동모드에서, 사용자는 클립 생성을 유발한다. 그러고 나서, 디텍터 모듈(200)은 유발(trigger)에 응답하고, 반자동 클리핑 모드와 수동 클리핑 모드와 같은 옵션을 포함하는 클리핑 모드 선택 옵션을 나타내는 프레젠테이션 모듈(202)을 불러오는 셀렉터 모듈(201)을 불러올 수 있다. 만약 사용자가 수동 클리핑 모드를 고른다면, 셀렉터 모듈(201)은 도 11에 도시된 바와 같은 수동 클리핑 모드들 중에 하나를 선택하기 위한 항목(1100)을 제공하기 위해 프레젠테이션 모듈(202)을 다시 불러올 수 있다. 만약 사용자가 도 12에 보여지는 것과 같이 텍스쳐의 시간/지속시간을 입력하는 수동모드를 고른다면 프레젠테이션모듈(202)은 프레임 썸네일을 제공하기 위해 프래임 그래버 모듈(204)과 통신할 수 있다. 여기서 현재 시작점은 프레임 썸네일들의 중간에 강조 표시 될 수 있다. 프레임 그래버 모듈(204)은 콘피규레이션 파일(206)에 접근하며, 썸네일 사이즈 정보, 썸네일 사이의 시간 차이, 및 보여질 썸네일 숫자와 같은 썸네일 관련 정보를 획득한다. 프레임 그래버 모듈(204)은, 시작점 및 콘피규레이션 파일 정보에 기초하여, 프레임 썸네일들을 위하여 요구되는 타임스트립을 생성할 수 있다. 타임 스트립 상의 시간에 기초하여, 프레임 그래버 모듈(204)은 버퍼모듈(203)과 통신하고 타임 스탬프를 위한 프레임을 요청할 수 있다. 버퍼모듈(203)은 요청된 프레임들을 프레임 그래버 모듈(204)에 제공하는데, 프레임 그래버 모듈(204)에 제공된 프레임들은 썸네일로 변환될 수 있다. 썸네일은, 사용자가 원하는 시작점을 선택하는데 이용될 수 있으며, 썸네일은 사용자에게 디스플레이 되기 위하여 프레젠테이션 모듈(202)에게 제공될 수 있다. In this manual mode, the user causes clip generation. The detector module 200 then responds to a trigger and invokes a selector module 201 that invokes a presentation module 202 that represents a clipping mode selection option including options such as a semi-automatic clipping mode and a manual clipping mode. . If the user chooses the manual clipping mode, the selector module 201 can reload the presentation module 202 to provide an item 1100 for selecting one of the manual clipping modes as shown in FIG. 11 have. The presentation module 202 may communicate with the frame grabber module 204 to provide a frame thumbnail if the user chooses a passive mode to enter the time / duration of the texture as shown in FIG. Where the current starting point can be highlighted in the middle of the frame thumbnails. The frame grabber module 204 accesses the configuration file 206 and obtains thumbnail related information such as thumbnail size information, time difference between thumbnails, and the number of thumbnails to be viewed. The frame grabber module 204 may generate the time strips required for frame thumbnails based on the starting point and configuration file information. Based on the time on the time strip, the frame grabber module 204 may communicate with the buffer module 203 and request a frame for a time stamp. The buffer module 203 provides the requested frames to the frame grabber module 204, wherein the frames provided to the frame grabber module 204 can be converted to thumbnails. The thumbnail may be used to select a desired starting point by the user, and the thumbnail may be provided to the presentation module 202 for display to the user.

도 12는 텍스쳐의 시간/지속기간 입력을 통해 시작점을 변경하는 수동 모드를 위한 사용자 그래픽 인터페이스(1200)를 나타낸다. 사용자 그래픽 인터페이스(1200)에서, 썸네일들(1201-1205)이 도 12에서와 같이 디스플레이 될 수 있다. 시작점 프레임(1203)이 썸네일 스트립의 중심에 위치하고 강조 표시될 수 있으며, 썸네일 스트립의 양쪽에는 네비게이션을 위한 화살표(1206)가 표시될 수 있다. 네비게이션을 위한 화살표와 더불어서, 시간 입력을 위한 입력 텍스트 박스(1207), 확인을 위한 버튼(1208) 및 취소를 위한 버튼(1209)이 디스플레이 될 수 있다. 사용자는 지속시간/시작시간을 텍스쳐 입력으로 입력하거나, 썸네일 스트립을 한 칸씩 이동시키고 썸네일의 사용자 그래픽 인터페이스를 이용하여 선택 입력을 함으로써, 자유롭게 입력을 제공할 수 있다. Figure 12 shows a user graphical interface 1200 for a passive mode that changes the starting point through a time / duration input of the texture. In the user graphical interface 1200, thumbnails 1201-1205 may be displayed as in FIG. A start point frame 1203 may be located at the center of the thumbnail strip and highlighted, and arrows 1206 for navigation may be displayed on both sides of the thumbnail strip. In addition to the arrows for navigation, an input text box 1207 for time entry, a button 1208 for confirmation, and a button 1209 for cancellation can be displayed. The user can freely input by inputting the duration / start time as a texture input, moving the thumbnail strip one space at a time, and making a selection input using the user graphic interface of the thumbnail.

사용자 입력에 기초해서, 선택된 프레임의 시간은 프레시(fresh) 타임 스트립이나 썸네일을 생성하기 위하여 프레임 그래버 모듈(204)에게 통신될 수 있다. 위의 과정은 반복되고 이러한 과정은 시작점이 고정되지 않거나 클리핑 동작이 사용자에 의해 취소되기 전까지 계속될 수 있다.Based on the user input, the time of the selected frame may be communicated to the frame grabber module 204 to generate a fresh time strip or thumbnail. The above process is repeated and this process can continue until the starting point is not fixed or the clipping operation is canceled by the user.

시작점을 고정하면, 시작시간 또는 클립 지속시간은 프레젠테이션 모듈(202)에 의해 셀렉터 모듈(201)로 통신된다. 셀렉터 모듈(201)은 시작점을 생성시키기 위해 입력을 조정하고, 클립 생성을 위해 시작점과 끝점과 함께 클리핑 모듈(205)을 불러온다. 클리핑 모듈(205)은 콘피규레이션 파일(206)로부터 미리 설정된 저장 위치를 알아내고, 미리 설정된 저장 위치에 있는 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자에 의해 입력된 사용자 특화된 저장 위치에 저장된다. 만약 사용자가 클리핑 동작을 취소한다면, 콘피규레이션 파일(206)은 이전 값들을 유지한다.When the starting point is fixed, the start time or clip duration is communicated to the selector module 201 by the presentation module 202. The selector module 201 adjusts the input to create a start point and loads the clipping module 205 along with the start and end points for clip creation. The clipping module 205 finds a preset storage location from the configuration file 206 and stores the multimedia clip at the preset storage location. Alternatively, the multimedia clip is stored in a user-specific storage location entered by the user. If the user cancels the clipping operation, the configuration file 206 retains the previous values.

이러한 수동 모드에서, 사용자는 클립 생성을 유발(trigger)한다. 다음으로, 디텍터 모듈(200)은 유발(trigger)에 응답하고, 반자동 클리핑 모드와 수동 클리핑 모드와 같은 옵션을 포함하는 클리핑 모드 선택 옵션을 나타내는 프레젠테이션 모듈(202)을 불러오는 셀렉터 모듈(201)을 불러올 수 있다. 만약 사용자가 수동 클리핑 모드를 선택한다면, 셀렉터 모듈(201)은 수동 클리핑 모드에서 선택옵션을 나타내는 프레젠테이션 모듈(202)을 불러온다. 만약 사용자가 도 13에서 보이는 것처럼 프레임 숫자 또는 썸네일 숫자 선택을 통해 시작점을 변화시키는 수동 모드를 선택한다면, 프레젠테이션 모듈(202)은 프레임 그래버 모듈(204)과 썸네일 숫자 1-5, 시작점 3을 제공하기 위해 통신한다. 프레임 그래버 모듈(204)은 콘피규레이션 파일(206)에 액세스(access)하고, 썸네일 사이즈 정보, 프레임 썸네일 시간 차이, 및 보여질 썸네일 숫자와 같은 썸네일 관련 정보를 추출한다. 시작점과 추출된 정보에 기초한 프레임 그래버 모듈(204)은 프레임 썸네일을 요구하는 타임 스트립을 생성한다. 타임스트립 상의 시간에 기초하여, 프레임 그래버 모듈(204)은 버퍼모듈(203)과 통신하고, 타임 스탬프를 위한 프레임을 요청할 수 있다. 버퍼모듈(203)은 요청된 프레임들을 프레임 그래버 모듈(204)에 제공하는데, 프레임 그래버 모듈(204)에 제공된 프레임들은 썸네일로 변환될 수 있다. 썸네일은 정확한 시작점 선택을 위해 사용자에게 보이기 위해 프레젠테이션 모듈(202)에 제공될 수 있다. 프레젠테이션 모듈(202)은 썸네일 숫자 1-5를 썸네일에 추가한다. 시작점 프레임 3은 썸네일 스트립의 중앙에 강조 표시되는 방식과 같이 썸네일이 디스플레이 될 수 있으며, 썸네일 스트립의 양 사이드에는 썸네일을 네비게이션하기 위한 화살표(1301)가 디스플레이 될 수 있다. 네비게이션을 위한 화살표(1301)의 옆에는 썸네일 숫자를 텍스트 입력으로 입력 받기 위한 입력 박스(1302)가 디스플레이 될 수 있으며, 확인을 위한 버튼(1303) 및 취소를 위한 버튼(1304)이 표시될 수 있다. 사용자는 썸네일 상에 주어진 썸네일 숫자를 입력하거나, 썸네일 스트립을 네비게이팅 하는 동안 화살표(1301)를 통한 입력에 기초한 사용자 그래픽 인터페이스를 통하여 시작 프레임을 선택할 수 있다. 사용자는 사용자 입력에 기초하여 텍스쳐 입력을 제공하거나 네비게이팅을 할 수 있으며, 선택된 프레임의 시간은 새로운 타임 스트립과 썸네일을 생성하기 위하여 프레임 그래버 모듈(204)에게 통신될 수 있다. 위의 과정은 반복되고 이런 프로세스는 시작점이 확정되지 않거나 클리핑 동작이 사용자에 의해 취소되기 전까지 계속될 수 있다.In this manual mode, the user triggers the creation of a clip. The detector module 200 then responds to a trigger and calls the selector module 201 which invokes the presentation module 202 indicating a clipping mode selection option including options such as a semi-automatic clipping mode and a manual clipping mode. . If the user selects the manual clipping mode, then the selector module 201 loads the presentation module 202, which represents the selection option in the manual clipping mode. 13, the presentation module 202 provides the frame grabber module 204 with the thumbnail numbers 1-5 and the start point 3, as shown in FIG. 13, if the user selects a manual mode that changes the starting point through the selection of a frame number or a thumbnail number . The frame grabber module 204 accesses the configuration file 206 and extracts thumbnail related information such as thumbnail size information, frame thumbnail time difference, and the number of thumbnails to be viewed. The frame grabber module 204 based on the starting point and the extracted information generates a time strip that requires a frame thumbnail. Based on the time on the time strip, frame grabber module 204 may communicate with buffer module 203 and request a frame for timestamp. The buffer module 203 provides the requested frames to the frame grabber module 204, wherein the frames provided to the frame grabber module 204 can be converted to thumbnails. The thumbnail may be provided to the presentation module 202 for viewing to the user for correct starting point selection. Presentation module 202 adds thumbnail numbers 1-5 to the thumbnail. A starting point frame 3 may be displayed in a manner such that it is highlighted in the center of the thumbnail strip and an arrow 1301 for navigating the thumbnail may be displayed on both sides of the thumbnail strip. An input box 1302 for receiving a thumbnail number as text input may be displayed next to the arrow 1301 for navigation and a button 1303 for confirmation and a button 1304 for cancellation may be displayed . The user may enter a given thumbnail number on the thumbnail or select a start frame via the user graphical interface based on input via arrow 1301 while navigating the thumbnail strip. A user may provide or navigate the texture input based on user input and the time of the selected frame may be communicated to the frame grabber module 204 to generate a new time strip and thumbnail. The above process is repeated and this process can continue until the starting point is not determined or the clipping operation is canceled by the user.

하나의 예에서, 사용자는 희망하는 썸네일을 직접 제공하지 않을 수 있으며, 현재 재생 중인 멀티미디어 콘텐트의 희망하는 부분으로 가기 위한 임의의 썸네일 숫자를 제공할 수 있다. 상기 임의의 썸네일 숫자 주변의 썸네일 스트립이 디스플레이 될 때 상기 임의의 썸네일이 썸네일 스트립의 중간에서 강조되게 표시될 수 있으며, 사용자는 GUI에 기초한 선택 입력이나 희망하는 썸네일의 썸네일 숫자를 지정하는 텍스쳐 입력을 통하여 희망 썸네일을 선택할 수 있다. 하지만, 만약 상기 임의의 썸네일 숫자가 희망하는 썸네일이 아닌 경우에, 사용자는 희망하는 썸네일을 위치시키기 위해 썸네일 스트립에서 네비게이션을 위한 화살표를 이용하여 추가로 네비게이팅 하거나, 사용자의 직관에 기초한 다른 임의의 숫자를 입력할 수 있다. In one example, the user may not provide the desired thumbnail directly and may provide an arbitrary thumbnail number to go to the desired portion of the currently playing multimedia content. When the thumbnail strip around the arbitrary thumbnail number is displayed, the arbitrary thumbnail may be highlighted in the middle of the thumbnail strip, and the user may input a texture input specifying the thumbnail number of the desired input, A desired thumbnail can be selected. However, if the arbitrary thumbnail number is not the desired thumbnail, the user may further navigate using the arrow for navigation in the thumbnail strip to locate the desired thumbnail, or any other arbitrary number of other arbitrary thumbnails based on the user's intuition You can enter a number.

시작점이 확정되면, 시작점은 프레젠테이션 모듈(202)로부터 셀렉터 모듈(201)로 전해진다. 셀렉터 모듈(201)은 클립 생성을 위하여 시작점, 끝점과 함께 클리핑 모듈(205)을 불러올 수 있다. 클리핑 모듈(205)은 콘피규레이션 파일(206)로부터 미리 설정된 저장 위치를 추출하고 미리 설정된 저장 위치에 있는 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자 특화된 저장 위치에 저장된다. 만약 사용자가 클리핑 동작을 취소한다면, 콘피규레이션 파일(206)은 이전 값을 유지한다.Once the starting point is determined, the starting point is passed from the presentation module 202 to the selector module 201. The selector module 201 can call up the clipping module 205 with a start point and an end point for clip creation. The clipping module 205 extracts a preset storage location from the configuration file 206 and stores the multimedia clip in the preset storage location. Alternatively, the multimedia clip is stored in a user-specific storage location. If the user cancels the clipping operation, the configuration file 206 retains the previous value.

도 14는 수동 클리핑 모드에서 텍스쳐 시간 또는 프레임 입력을 위한 흐름을 묘사하는 플로우차트(1400)에 대해 보여준다. 단계 1401에서 시작한 후에, 단계 1402에서 버퍼는 시스템(100) 또는 멀티미디어 플레이어의 명령에 기초해서 현재 재생한 멀티미디어 콘텐트 부분을 버퍼의 용량에 따라 기록하기 시작한다. 멀티미디어 콘텐트가 재생되지 않을 때 버퍼는 비활성화 될 수 있다. 단계 1403에서 동작 중에 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 종료되면, 단계 1404에서 버퍼는 닫히고, 클리핑 프로세스는 단계 1405에서 종료될 수 있다. 단계 1406에서 클리핑이 사용자에 의해 유발 되었을 때 특정 시간 또는 프레임이 멀티미디어 클립의 끝점으로 지정된다. 단계 1407에서, 도 12 및 도 13에서와 같이 시작 시간 또는 지속 시간 또는 시작 프레임 숫자와 같은 형태로 사용자로부터 클립의 시작점을 수신하기 위하여, 최근 사용된 값 혹은 디폴트 값과 함께 셀렉션 윈도우가 표시될 수 있다. 단계 1408에서 사용자가 시작점에 만족하지 못할 때, 단계 1409에서 사용자는 시간 또는 프레임 숫자와 같은 텍스쳐 입력을 함으로써 시작점을 선택하거나 GUI 화살표를 이동시키면서 시작점을 선택할 수 있다. 단계 1408에서 사용자가 만족하면, 셀렉션 윈도우는 단계 1410에서 닫힌다. 이와 함께, 시작점과 끝점 사이에 있는 멀티미디어 콘텐트의 저장된 부분은 멀티미디어 클립을 생성하기 위해 추출되고, 멀티미디어 클립은 콘피규레이션 파일에서 구체화된 미리 설정된 위치에 저장되거나 또는 사용자 특화된 위치에 저장된다. 이러한 방법으로, 오직 세 가지 입력이 사용자로부터 수신될 수 있다; 첫 번째는 단지 클리핑 프로세스를 시작하는 것이고, 두 번째는 희망하는 수동모드를 선택하는 것이고, 세 번째는 멀티미디어 클립을 위한 시작점을 제공하는 것이다. 더욱이, 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이, 그리고 사용자로부터 어떤 다른 입력을 요구함이 없이 생성된다.14 shows a flowchart 1400 depicting a flow for texture time or frame input in the manual clipping mode. After starting in step 1401, in step 1402, the buffer starts recording the portion of the multimedia content currently played back based on the command of the system 100 or the multimedia player, according to the capacity of the buffer. The buffer may be deactivated when the multimedia content is not being played. If the system is switched off / shut down during operation in step 1403 or the multimedia player is terminated, the buffer is closed in step 1404 and the clipping process may be terminated in step 1405. In step 1406, a specific time or frame is designated as the end point of the multimedia clip when clipping is triggered by the user. In step 1407, a selection window may be displayed with a recently used value or a default value to receive the start point of the clip from the user in the form of a start time or duration or a start frame number, as in Figures 12 and 13 have. When the user is not satisfied with the starting point in step 1408, the user can select a starting point by selecting a starting point by moving a GUI arrow or by selecting a starting point by inputting a texture such as a time or frame number in step 1409. [ If the user is satisfied at step 1408, the selection window is closed at step 1410. At the same time, the stored portion of the multimedia content between the start and end points is extracted to create a multimedia clip, and the multimedia clip is stored at a predetermined location specified in the configuration file or in a user-specific location. In this way, only three inputs can be received from the user; The first is just to start the clipping process, the second is to select the desired manual mode, and the third is to provide a starting point for the multimedia clip. Moreover, the multimedia clip is created without interrupting the playback of the multimedia content, and without requiring any other input from the user.

수동 모드에서, 사용자는 클립 생성을 유발한다. 그리고 나서, 디텍터 모듈(200)은 유발에 응답하고, 반자동 클리핑 모드와 수동 클리핑 모드와 같은 옵션을 포함하는 클리핑 모드 선택 옵션을 나타내는 프레젠테이션 모듈(202)을 불러오는 셀렉터모듈(201)을 불러올 수 있다. 만약 사용자가 수동 클리핑 모드를 선택한다면, 셀렉터모듈(201)은 수동 클리핑 모드에서 선택 옵션을 나타내는 프레젠테이션 모듈(202)을 불러온다. 하나의 실시예에서, 사용자는 제스쳐 입력을 통한 수동모드의 시작점 변화를 선택할 것이다. 상기 선택을 위한 사용자 인터페이스는 제스쳐 입력을 취하는 장치에서 요구되지 않는다. 그러고 나서, 프레젠테이션 모듈(202)은 도 15에 있는 것과 같이 시작점이 있는 프레임 썸네일을 제공하기 위해 프레임 그래버 모듈(204)과 통신한다. 프레임 그래버 모듈(204)은 콘피규레이션 파일(206)에 접근하고 썸네일 사이즈 정보, 썸네일 사이의 시간 차이, 보여질 썸네일 숫자와 같은 썸네일 관련된 정보를 획득한다. 프레임 그래버 모듈(204)은 시작점과 콘피규레이션 파일 정보에 기초해서 프레임 썸네일을 요구하는 타임 스트립을 생성한다. 타임 스트립에서의 시간에 기초해서, 프레임 그래버 모듈(204)은 버퍼 모듈(203)과 통신하고 타임스탬프를 위한 프레임을 요구한다. 버퍼모듈(203)은 상기 프레임을 프레임 그래버 모듈(204)에 제공하고 프레임은 썸네일로 변환된다. 이러한 썸네일은 희망하는 시작점의 선택을 위해 사용자에게 디스플레이 될 수 있도록 프레젠테이션 모듈(202)에 제공된다. In the manual mode, the user causes the clip to be generated. The detector module 200 may then invoke a selector module 201 that responds to triggering and invokes a presentation module 202 that indicates a clipping mode selection option including options such as a semi-automatic clipping mode and a manual clipping mode. If the user selects the manual clipping mode, then the selector module 201 loads the presentation module 202, which represents the selection option in the manual clipping mode. In one embodiment, the user will select a starting point change in the manual mode via gesture input. The user interface for the selection is not required in the device taking the gesture input. The presentation module 202 then communicates with the frame grabber module 204 to provide a starting frame thumbnail as shown in FIG. The frame grabber module 204 accesses the configuration file 206 and obtains thumbnail-related information, such as thumbnail size information, time difference between thumbnails, and the number of thumbnails to be viewed. The frame grabber module 204 generates a time strip that requires a frame thumbnail based on the starting point and the configuration file information. Based on the time in the time strip, the frame grabber module 204 communicates with the buffer module 203 and requires a frame for a time stamp. The buffer module 203 provides the frame to the frame grabber module 204 and the frame is converted to a thumbnail. These thumbnails are provided to the presentation module 202 so that they can be displayed to the user for selection of the desired starting point.

도 15는 수동모드에서 제스쳐를 통해 시작점을 변경하기 위한 사용자 그래픽 인터페이스(1500)에 대해 서술한다. 현재의 시작점 프레임(1503)이 썸네일 스트립의 중간에 강조되어 표시되는 방식으로 썸네일(1501-1505)이 디스플레이 되며, 스트립의 양 측면 위에 화살표(1506)가 디스플레이 된다. 사용자는 제스쳐를 통해 썸네일 스트립을 네비게이팅 하면서 시작 프레임을 선택하는 입력할 수 있다. 선택된 프레임의 시간은 현재의 타임 스트립과 썸네일을 발생시키기 위해 프레임 그래버 모듈(204)에 통신된다. 위의 과정은 반복되고 이러한 과정은 시작점이 확정되지 않거나 클리핑 동작이 사용자에 의해 취소되기까지 계속된다.FIG. 15 illustrates a user graphical interface 1500 for changing a starting point through a gesture in a passive mode. Thumbnails 1501-1505 are displayed in such a way that the current starting point frame 1503 is highlighted in the middle of the thumbnail strip and an arrow 1506 is displayed on both sides of the strip. The user can enter a thumbnail strip to navigate through the gesture and select a starting frame. The time of the selected frame is communicated to the frame grabber module 204 to generate the current time strip and thumbnail. The above process is repeated and this process continues until the starting point is not confirmed or the clipping operation is canceled by the user.

시작점이 확정되면, 시작점은 프레젠테이션 모듈(202)로부터 셀렉터 모듈(201)에 통신된다. 셀렉터 모듈(201)은 시작점을 발생시키기 위해 입력을 조작하고(만약 필요하다면), 또한 셀렉터 모듈(201)은 클립 생성을 위해 시작점 및 끝점과 함께 클리핑 모듈(205)을 불러온다. 클리핑 모듈(205)은 콘피규레이션 파일(206)로부터 미리 설정된 저장 위치를 추출하고, 미리 설정된 저장 위치에 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자 특화된 저장 위치에 저장되는데, 사용자 특화된 위치는 사용자에 의해 수시로 수신된다. 만약 사용자가 클리핑 동작을 취소하면, 콘피규레이션 파일(206)은 이전의 값들을 유지한다.Once the starting point is determined, the starting point is communicated from the presentation module 202 to the selector module 201. The selector module 201 manipulates the input to generate a start point (if necessary), and the selector module 201 also invokes the clipping module 205 with a start point and an end point for clip creation. The clipping module 205 extracts a preset storage location from the configuration file 206 and stores the multimedia clip in a preset storage location. Alternatively, the multimedia clip is stored in a user-specific storage location, where the user-specific location is received by the user from time to time. If the user cancels the clipping operation, the configuration file 206 retains the previous values.

수동모드에서 사용자는 클립 생성을 유발한다. 그러고 나서, 디텍터 모듈(200)은 유발에 응답하고, 반자동 클리핑 모드와 수동 클리핑 모드와 같은 옵션을 포함하는 클리핑 모드 선택 옵션을 나타내는 프레젠테이션 모듈(202)을 불러오는 셀렉터 모듈(201)을 불러올 수 있다. 만약 사용자가 수동 클리핑 모드를 고른다면, 셀렉터 모듈(201)은 수동 클리핑 모드에서 다양한 유형의 입력을 취하는 디바이스에 대한 선택권을 주기 위한 프레젠테이션 모듈(202)을 다시 불러온다. 하나의 실시예에서, 음성 입력을 통해 사용자는 수동 모드에서 시작점 변경을 선택할 수 있다. 상기 선택을 위한 사용자 인터페이스는 본질적으로 음성 입력을 취하는 디바이스에게는 필요하지 않다. 그리고 나서, 프레젠테이션 모듈(202)은 도 16에서 보여지는 것과 같이 시작점이 있는 프레임 썸네일을 제공하기 위해 프레임 그래버 모듈(204)과 통신한다. 프레임 그래버 모듈(204)은 콘피규레이션 파일(206)에 접근하고 가령 썸네일 사이즈, 썸네일 사이의 시간 차이, 그리고 보여지게 될 썸네일의 숫자와 같은 썸네일 관련된 정보를 획득할 수 있다. 프래임 그래버 모듈(204)은 시작점 및 콘피규레이션 파일 정보에 기초해서 프레임 썸네일이 요구되는 타임 스트립을 생성한다. 타임스트립 상의 시간에 기초해서, 프레임 그래버 모듈(204)은 버퍼 모듈(203)과 통신하고 시간 스탬프를 위한 프레임을 요구한다. 버퍼 모듈(203)은 상기 프레임을 프레임 그래버 모듈(204)에 제공하고, 프레임은 썸네일로 전환된다. 전환된 썸네일은 프레젠테이션 모듈(202)에 주어지는데, 희망하는 시작점의 선택을 위해 사용자에게 보여지도록 하기 위함이다. In manual mode, the user triggers the creation of a clip. The detector module 200 may then invoke a selector module 201 that responds to the trigger and invokes the presentation module 202 indicating a clipping mode selection option including options such as a semi-automatic clipping mode and a manual clipping mode. If the user selects the manual clipping mode, the selector module 201 re-invokes the presentation module 202 to give a choice for the device to take various types of input in the manual clipping mode. In one embodiment, through voice input, the user can select a starting point change in the manual mode. The user interface for the selection is essentially not needed for devices that take voice input. The presentation module 202 then communicates with the frame grabber module 204 to provide a starting frame thumbnail as shown in FIG. The frame grabber module 204 may access the configuration file 206 and obtain thumbnail related information such as, for example, the thumbnail size, the time difference between the thumbnails, and the number of thumbnails to be viewed. The frame grabber module 204 generates a time strip for which a frame thumbnail is required based on the starting point and the configuration file information. Based on the time on the time strip, the frame grabber module 204 communicates with the buffer module 203 and requires a frame for the time stamp. The buffer module 203 provides the frame to the frame grabber module 204, and the frame is converted to a thumbnail. The converted thumbnail is given to the presentation module 202 so that it can be shown to the user for selection of the desired starting point.

도 16은 수동 모드에서 음성 입력을 통해 시작점을 변경하기 위한 사용자 그래픽 인터페이스(1600)를 설명한다. 현재의 시작점 프레임(1603)은 썸네일 스트립의 중간에 강조 표시되는 방식으로 썸네일(1601-1605)이 표시되고, 스트립의 양 옆에 화살표(1606)가 표시될 수 있다. 사용자는 썸네일 스트립을 검색하면서 시작 프레임을 선택하는데 있어서 마이크로폰을 통해 입력을 제공할 수 있고, 이것은 음성 입력 인터페이스(1607)를 통해 실현될 수 있다. 선택된 프레임의 시간은 새로운 타임 스트립과 썸네일을 생성시키기 위해 프레임 그래버 모듈(204)에 전달된다. 위의 과정은 반복되고 이 과정은 시작점이 고정되지 않거나 또는 클리핑 동작이 사용자에 의해 취소되기까지 계속된다.Figure 16 illustrates a user graphical interface 1600 for changing a starting point through voice input in the passive mode. The current starting point frame 1603 may be displayed in the middle of the thumbnail strip and the thumbnails 1601-1605 may be displayed and an arrow 1606 may be displayed on both sides of the strip. The user can provide input through the microphone in selecting the start frame while searching for the thumbnail strip, which can be realized through the audio input interface 1607. [ The time of the selected frame is passed to the frame grabber module 204 to generate a new time strip and thumbnail. The above process is repeated and this process continues until the starting point is not fixed or the clipping operation is canceled by the user.

시작점이 결정되면, 시작점은 프레젠테이션 모듈(202)에 의해 셀렉터 모듈(201)로 통신된다. 셀렉터 모듈(201)은 시작점을 생성시키기 위해 입력을 조정하고 클립 생성을 위해 시작점, 끝점과 함께 클리핑 모듈(205)을 불러온다. 클리핑 모듈(205)은 콘피규레이션 파일(206)로부터 미리 설정된 저장 위치를 알아내고, 미리 설정된 저장 위치에 멀티미디어 클립을 저장한다. 또는, 멀티미디어 클립은 사용자 특화된 저장 위치에 저장되고, 사용자 특화된 저장 위치는 사용자로부터 수시로 수신된다. 만약 사용자가 클리핑 동작을 취소한다면, 콘피규레이션 파일(206)은 지난 값들을 유지한다. Once the starting point is determined, the starting point is communicated to the selector module 201 by the presentation module 202. The selector module 201 adjusts the input to create a start point and loads the clipping module 205 along with the start and end points for clip creation. The clipping module 205 finds a preset storage location from the configuration file 206 and stores the multimedia clip in a preset storage location. Alternatively, the multimedia clip is stored in a user-specific storage location, and the user-specific storage location is received from the user from time to time. If the user cancels the clipping operation, the configuration file 206 retains the past values.

도 17은 수동 클리핑 모드에서 동작 또는 음성 입력의 흐름에 대해 묘사하는 플로우 차트(1700)에 대해 서술한다. 단계 1701에서 시작한 후에, 단계 1702에서 버퍼는 시스템(100) 또는 멀티미디어 플레이어의 명령에 기초해서 현재 재생한 멀티미디어 콘텐트 부분을 용량에 따라 기록하기 시작한다. 멀티미디어 콘텐트가 재생되지 않을 때 버퍼는 비활성화 될 수 있다. 동작 중에 단계 1703에서 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 닫히면, 단계 1704에서 버퍼는 닫히고 클리핑 프로세스는 단계 1705에서 끝난다. 단계 1706에서 클리핑이 사용자에 의해 유발 되었을 때 단계 1707에서 시스템은 최근 사용된 값 또는 디폴트 값과 함께 셀렉션 윈도우를 시작하고 시작프레임을 강조 표시한다. 유발(trigger)가 수신된 시간 또는 프레임은 멀티미디어 클립의 끝점으로 지정된다. 만약 사용자가 단계 1708에서의 디폴트 시작점에 만족하지 못한다면, 단계 1709에서 클립의 시작점은 도 15, 16과 관련하여 위에서 설명된 바와 같이 셀렉션 윈도우에 제스쳐 입력이나 음성 입력이 사용자에 의해 입력됨으로써 수신된다. 단계 1708에서 사용자가 시작점이나 프레임에 만족할 때까지, 사용자는 단계 1709에서 제스쳐 입력이나 음성 입력을 통해 시작점을 선택할 수 있다. 사용자가 단계 1708에서 만족한 경우, 단계 1710에서 셀렉션 윈도우는 닫힌다. 단계 1710에서 셀렉션 윈도우가 닫히고 멀티미디어 콘텐트의 시작점과 끝점 사이의 저장된 부분은 멀티미디어 클립을 생성하기 위해 추출된다. 멀티미디어 클립은 콘피규레이션 파일에서 구체화된 미리 설정된 위치에 저장되거나 또는 수시로 제공된 사용자 특화된 위치에 저장된다. 한편, 사용자로부터 수신되는 입력은 다음의 세 가지를 포함할 수 있다 ; 첫 번째 입력은 단지 클리핑 과정을 시작하는 것이고, 두 번째 입력은 수동 모드에서 희망하는 타입을 선택하는 것이고, 세 번째 입력은 제스쳐나 음성 입력을 통해 멀티미디어 클립을 위한 시작점을 제공하는 것이다. 더욱이, 멀티미디어 클립은 멀티미디어 콘텐트의 재생을 인터럽트 함이 없이, 또 사용자로부터 어떠한 다른 입력을 요구함이 없이 생성된다.17 illustrates a flow chart 1700 depicting the flow of operation or voice input in the manual clipping mode. After starting in step 1701, in step 1702, the buffer starts recording the portion of the multimedia content currently being played back based on the commands of the system 100 or the multimedia player. The buffer may be deactivated when the multimedia content is not being played. If the system is switched off / shut down at step 1703 during operation or the multimedia player is closed, at step 1704 the buffer is closed and the clipping process ends at step 1705. When clipping has been triggered by the user in step 1706, the system starts the selection window with the most recently used value or default value and highlights the start frame in step 1707. The time or frame at which the trigger was received is designated as the end point of the multimedia clip. If the user is not satisfied with the default starting point at step 1708, the starting point of the clip at step 1709 is received by the user entering a gesture input or voice input into the selection window as described above with reference to Figures 15,16. In step 1708, the user may select a starting point through gesture input or voice input in step 1709 until the user is satisfied with the starting point or frame. If the user is satisfied at step 1708, the selection window is closed at step 1710. In step 1710, the selection window is closed and the stored portion between the start and end points of the multimedia content is extracted to create a multimedia clip. The multimedia clip is stored at a predetermined location specified in the configuration file or at a user-specific location provided at any time. On the other hand, the input received from the user may include three things: The first input is just to start the clipping process, the second input is to select the desired type in manual mode, and the third input is to provide a starting point for the multimedia clip through a gesture or voice input. Moreover, the multimedia clip is created without interrupting the playback of the multimedia content and without requiring any other input from the user.

도 18은 사용자에게 클립 생성 상태를 알리기 위한 사용자 인터페이스(1800)에 대해 서술한다. 클립 생성 상태는 멀티미디어 콘텐트가 텔레비전과 같은 출력 디바이스에서 보여지는 동안 작은 다이얼로그 팝업(1801)을 통해 사용자에게 보여진다.18 illustrates a user interface 1800 for informing the user of the clip creation status. The clip creation state is shown to the user through a small dialog popup 1801 while the multimedia content is viewed on an output device such as a television.

도 19는 클리핑 동작을 취소하는 과정을 위한 플로우차트(1900)에 대해 설명한다. 단계 1901에서 시작한 후에, 단계 1902에서 버퍼는 시스템(100) 또는 멀티미디어 플레이어에 기초하여 현재 재생한 멀티미디어 콘텐트 부분을 그 용량에 따라서 기록한다. 여기서, 멀티미디어 콘텐트가 재생되지 않을 때 버퍼는 비활성화 될 수 있다. 동작 중에 단계 1903에서 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 닫히면 버퍼는 단계 1904에서 닫히고, 클리핑 과정은 단계 1905에서 끝난다. 클리핑이 단계 1906에서 사용자, 외부 센서(207) 또는 내부 센서(106)에 의해 유발되면, 시스템은 단계 1907에서 사용자 인터페이스(UI)를 시작한다. 단계 1908에서, 사용자는 아무 때나 동작을 취소할 수 있고 이때 UI는 셀렉션 윈도우를 닫으나, 버퍼는 다른 멀티미디어 클립을 계속하여 생성하기 위해 멀티미디어 콘텐트의 현재 재생하는 부분을 계속 기록할 수 있다.FIG. 19 illustrates a flowchart 1900 for canceling the clipping operation. After starting in step 1901, in step 1902, the buffer records the portion of the multimedia content currently played back based on the system 100 or the multimedia player according to its capacity. Here, the buffer may be deactivated when the multimedia content is not being reproduced. If the system is switched off / shut down at step 1903 during operation or the multimedia player is closed, the buffer is closed at step 1904 and the clipping process ends at step 1905. If clipping is triggered by the user, the external sensor 207 or the internal sensor 106 at step 1906, the system starts the user interface (UI) at step 1907. At step 1908, the user can cancel the operation at any time, the UI closes the selection window, but the buffer can continue to record the current playing portion of the multimedia content to continue generating other multimedia clips.

도 20은 콘피규레이션 파일(206)을 디스플레이하고 설정하기 위한 사용자 인터페이스에 대해 보여준다. 사용자 인터페이스(2000)를 통해, 사용자는 클리핑 과정을 위한 다양한 설정을 편집한다. 예를 들어, 사용자는 클립을 위한 기 설정된 지속시간(duration), 썸네일 크기, 썸네일 사이의 시간 차이, 보여질 썸네일 숫자, 버퍼 크기, 버퍼 위치, 미리 설정된 저장 위치, url, 그리고 소셜 네트워킹 웹사이트에서 직접적인 업로드를 위한 자격을 편집할 수 있다. FIG. 20 shows a user interface for displaying and configuring the configuration file 206. FIG. Through the user interface 2000, the user edits various settings for the clipping process. For example, a user can select a preset duration for a clip, a thumbnail size, a time difference between thumbnails, a thumbnail number to be displayed, a buffer size, a buffer location, a preset storage location, a url, You can edit the qualifications for direct upload.

도 21은 버퍼 관리 과정에 대한 플로우차트(2100)에 대해 서술한다. 단계 2101에서 버퍼 관리 과정이 시작된 후에, 단계 2102에서 버퍼는 재생되는 멀티미디어 콘텐트를 버퍼 위치에 기록하기 시작하고, 멀티미디어 콘텐트의 기록은 콘피규레이션 파일(206)에서 구체화된 버퍼 크기에 의존할 수 있다. 버퍼링은 멀티미디어 플레이어의 명령에 기초하여, 또는 시스템(100)의 명령에 기초하여 시작된다. 단계 2103에서 만약 시스템이 스위치 오프/셧다운 되거나 멀티미디어 플레이어가 꺼져 있으면, 단계 2104에서 버퍼는 닫히고 버퍼 관리 과정은 단계 2105에서 종료된다. 시스템이 스위치 온 되어 있으면, 단계 2106에서 버퍼가 꽉 찼는지 계속 관찰된다. 만약 버퍼가 꽉 차면, 버퍼는 단계 2107에서 First In First Out(FIFO)과 같은 삭제 정책에 의해서 비워지고, 만약 버퍼가 꽉 차있지 않다면 버퍼는 단계 2102에서 버퍼에 남아 있는 공간에 멀티미디어 콘텐트를 계속 기록한다. 삭제 후에도 단계 2102에서 버퍼는 비어 있는 버퍼의 공간에 멀티미디어 콘텐트를 계속 기록한다.FIG. 21 illustrates a flowchart 2100 of a buffer management process. After the buffer management process is started in step 2101, the buffer starts to record the multimedia content being played back in the buffer location, and the recording of the multimedia content may depend on the buffer size specified in the configuration file 206 . Buffering is initiated based on the instructions of the multimedia player, or based on instructions of the system 100. In step 2103, if the system is switched off / shut down or if the multimedia player is off, the buffer is closed in step 2104 and the buffer management process is terminated in step 2105. If the system is switched on, step 2106 continues to see if the buffer is full. If the buffer is full, the buffer is emptied by a deletion policy such as First In First Out (FIFO) at step 2107, and if the buffer is not full, the buffer continues to record the multimedia content in the buffer remaining space at step 2102 do. Even after erasing, the buffer continues to record the multimedia content in the space of the empty buffer in step 2102.

본 개시는 멀티미디어 콘텐트를 만드는 것이 가능한 디지털 디바이스를 위한 멀티미디어 콘텐트에 이용될 수 있다. 디지털 디바이스는 태블릿, 모바일, TV와 같은 것들이 될 수 있다. 그리고 멀티미디어 콘텐트는 오디오나 비디오가 될 수 있다. 버퍼링 및 최종 저장을 목적으로 이용되는 메모리는 디바이스에 위치할 수 있고 또는 제 2 디바이스에 위치하면서 연결되어 사용되는 외부 메모리가 이용될 수도 있다. 제2 디바이스는 셋톱 박스, 펜 드라이브, 하드디스크 와 같은 것이 될 수 있다.The present disclosure can be used in multimedia content for digital devices capable of creating multimedia content. Digital devices can be things like tablets, mobile, and TV. And the multimedia content can be audio or video. The memory used for buffering and final storage may be located in the device or an external memory connected to and used in the second device may be used. The second device may be a set-top box, a pen drive, a hard disk, or the like.

몇몇 선호되는 개시의 실시예는 여기에 설명 및 묘사되었는데, 개시는 개시 그 자체에 한정되지 않고 다양하게 포함되며 다음의 청구항의 범위에서 수행될 수 있다.Embodiments of some preferred embodiments are described and illustrated herein, but the disclosure is not limited to the disclosure itself, but is variously encompassed and may be practiced within the scope of the following claims.

한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.On the other hand, the above-described embodiments can be implemented in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a medium readable by a computer. In addition, the structure of the data used in the above-described embodiment can be recorded on a computer-readable medium through various means. Furthermore, the above-described embodiments may be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. For example, methods implemented with software modules or algorithms may be stored in a computer readable recording medium, such as code or program instructions, which the computer can read and execute.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.The computer-readable medium can be any recording medium that can be accessed by a computer, and can include volatile and nonvolatile media, removable and non-removable media. The computer-readable medium may include magnetic storage media, such as ROM, floppy disks, hard disks, and the like), optical storage media such as CD ROMs, DVDs, Do not. The computer-readable medium may also include computer storage media and communication media.

또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.In addition, a plurality of computer-readable recording media can be distributed over networked computer systems, and data stored in distributed recording media, such as program instructions and codes, can be executed by at least one computer have.

본 개시에서 설명된 특정 실행들은 일 실시예일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. The particular implementations described in this disclosure are by way of example only and are not intended to limit the scope of the present disclosure in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It is to be understood that the foregoing description of the disclosure is for the purpose of illustration only and that those skilled in the art will readily understand that various changes in form and details may be made therein without departing from the spirit and scope of the disclosure will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 개시에서 모든 예들 또는 예시적인 용어, 예들 들어, “등등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. The use of all examples or exemplary terms, e.g., " etc., " in this disclosure is for the purpose of describing this disclosure in detail and is not intended to be limited by the scope of the claims, But is not limited thereto.

또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Also, unless stated to the contrary, such as " essential ", " importantly ", etc., the components described in this disclosure may not be essential components for the performance of this disclosure.

본 개시의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다. It is to be understood that the present disclosure is not limited by the specific embodiments described in the specification and that various changes and modifications may be made therein without departing from the spirit and scope of the present disclosure, And substitutions are to be understood as being included in this disclosure. Therefore, the disclosed embodiments should be understood in an illustrative rather than a restrictive sense.

본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is defined by the appended claims rather than the detailed description of the invention, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present disclosure.

본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다."부", "모듈"은 어드레싱 될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.The terms " part, "" module, " and the like, as used herein, refer to a unit that processes at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. "Module" may be embodied by a program stored on a storage medium that can be addressed and that may be executed by a processor.

예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.For example, " part " or "module" may include components such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art.

본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재은, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다. As used herein, the description "A may include one of a1, a2 and a3" has a broad meaning that an exemplary element that may be included in the element A is a1, a2, or a3.

상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다. 따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다. The element capable of constituting the element A due to the above description is not necessarily limited to a1, a2 or a3. It should be noted, therefore, that the element capable of configuring A is not exclusively interpreted in the sense that it excludes other elements not illustrated except a1, a2, and a3.

또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를 들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다. In addition, the above description means that A may include a1, include a2, or include a3. This does not mean that the elements of which A constitute A are necessarily determined within a given set. For example, it should be noted that the description does not necessarily construe that a1, a2, or a3 selected from the set including a1, a2, and a3 constitute component A.

또한 본 명세서에서, "a1, a2 또는(및) a3 중 적어도 하나"는 기재는, "a1", "a2", "a3", "a1 및 a2", "a1 및 a3", "a2 및 a3", 및 "a1, a2 및 a3" 중에서 한 가지를 나타낸다. Also, in this specification, the description of "at least one of a1, a2 or (and a3)" means that the description includes "a1", "a2", "a3", "a1 and a2", "a1 and a3" Quot ;, and "a1, a2 and a3 ".

따라서, "a1 중 적어도 하나, a2 중 적어도 하나 또는(및) a3 중 적어도 하나"라고 명시적으로 기재되지 않는 이상, "a1, a2 또는(및) a3 중 적어도 하나"는 기술이 "a1 중 적어도 하나", "a2 중 적어도 하나" 또는(및) "a3 중 적어도 하나"라고 해석되지 않음에 유의하여야 한다.Thus, unless stated explicitly as "at least one of a1, at least one of a2 and / or at least one of a3 ", at least one of" a1, a2 or (and a3) At least one of a2, " or "a3."

Claims (20)

멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 방법에 있어서,
현재 재생 중인 멀티미디어 콘텐트를 버퍼에 저장하는 단계;
현재 시간 또는 현재 프레임을 상기 멀티미디어 클립의 끝점(end point)으로 지정하는 단계;
상기 멀티미디어 클립의 시작점(start point)을 결정하는 단계; 및
상기 멀티미디어 콘텐트의 상기 시작점과 상기 끝점 사이 부분을 상기 버퍼로부터 추출함으로써, 상기 멀티미디어 클립을 생성하는 단계;
를 포함하며,
상기 단계들은 상기 멀티미디어 콘텐트의 재생이 유지되는 동안에 수행되는 것인, 방법.
A method for generating a multimedia clip from multimedia content,
Storing the currently playing multimedia content in a buffer;
Designating a current time or current frame as an end point of the multimedia clip;
Determining a start point of the multimedia clip; And
Generating the multimedia clip by extracting a portion between the start point and the end point of the multimedia content from the buffer;
/ RTI >
Wherein the steps are performed during playback of the multimedia content.
제 1 항에 있어서,
상기 끝점을 지정하는 단계는, 자동 클리핑 모드에서 외부 센서 또는 내부 센서 중 적어도 하나로부터 수신된 입력에 기초하여 상기 끝점을 지정하는 것인, 방법.
The method according to claim 1,
Wherein designating the endpoint specifies the endpoint based on an input received from at least one of an external sensor or an internal sensor in an automatic clipping mode.
제 1 항에 있어서,
상기 끝점을 지정하는 단계는 수동 클리핑 모드의 사용자 인터페이스로부터 수신된 입력에 기초하여 상기 끝점을 지정하는 것인, 방법.
The method according to claim 1,
Wherein designating the endpoint specifies the endpoint based on an input received from a user interface in a manual clipping mode.
제 1 항에 있어서,
상기 단계들은, 상기 멀티미디어 콘텐트의 재생을 중단하지 않고 수행되는 것인, 방법.
The method according to claim 1,
Wherein the steps are performed without interrupting playback of the multimedia content.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는, 자동 클리핑 모드의 미리 설정된 지속시간 및 상기 지정된 끝점을 이용하여 상기 시작점을 지정하는 단계를 포함하는, 방법.
The method according to claim 1,
Wherein determining the starting point comprises specifying the starting point using a predetermined duration of the automatic clipping mode and the designated endpoint.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는, 자동 클리핑 모드에서 외부 센서 또는 내부 센서에 의해 제공되는 입력에 기초하여 결정되는 멀티미디어 클립의 지속 시간 및 상기 결정된 끝점을 이용하여 상기 시작점을 산출하는 단계를 포함하는, 방법.
The method according to claim 1,
Wherein determining the starting point comprises calculating the starting point using the determined end point and the duration of the multimedia clip determined based on an input provided by an external sensor or an internal sensor in an automatic clipping mode .
제 1 항에 있어서,
상기 시작점을 결정하는 단계는 상기 끝점과 반자동 클리핑 모드에서의 상기 멀티미디어 클립의 미리 설정된 지속 시간을 이용하여 상기 시작점을 산출하는 단계를 포함하며,
상기 끝점은 사용자 인터페이스로부터 수신된 입력에 기초하여 지정된 것인, 방법.
The method according to claim 1,
Wherein determining the starting point comprises calculating the starting point using the end point and a preset duration of the multimedia clip in a semi-automatic clipping mode,
Wherein the endpoint is specified based on an input received from a user interface.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는, 반자동 클리핑 모드의 제2 규칙 세트에 기초하여 외부 센서 또는 내부 센서로부터 수신된 입력을 이용하여 상기 시작점을 결정하며,
상기 끝점은 사용자 인터페이스부로부터 수신된 입력에 기초하여 지정되는 것인, 방법.
The method according to claim 1,
Wherein determining the starting point determines the starting point using an input received from an external sensor or an internal sensor based on a second set of rules in a semi-automatic clipping mode,
Wherein the endpoint is specified based on an input received from a user interface unit.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는, 반자동 클리핑 모드에서 사용자 인터페이스 모드로부터 수신된 입력에 기초하여 상기 시작점을 결정하며,
상기 끝점은 외부 센서 또는 내부 센서로부터 수신된 입력에 기초하여 지정된 것인, 방법.
The method according to claim 1,
Wherein determining the starting point comprises determining the starting point based on an input received from a user interface mode in a semi-automatic clipping mode,
Wherein the endpoint is specified based on an input received from an external sensor or an internal sensor.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는 상기 끝점과 수동 클리핑 모드에서 사용자 인터페이스를 통하여 입력된 상기 멀티미디어 클립의 지속 시간을 이용하여 상기 시작점을 산출하는 것인, 방법.
The method according to claim 1,
Wherein the step of determining the starting point calculates the starting point using the duration of the multimedia clip input through the user interface in the endpoint and manual clipping modes.
제 1 항에 있어서,
상기 시작점을 결정하는 단계는, 수동 클리핑 모드에서 사용자 인터페이스를 통하여 상기 시작점을 지정하는 사용자 입력을 수신하는 것인, 방법.
The method according to claim 1,
Wherein determining the starting point comprises receiving a user input specifying the starting point via a user interface in a manual clipping mode.
제 11 항에 있어서,
상기 사용자 입력은 텍스쳐 입력, 제스쳐 입력 및 음성 입력 중 적어도 하나를 포함하는 것인, 방법.
12. The method of claim 11,
Wherein the user input comprises at least one of a texture input, a gesture input, and a voice input.
제 12 항에 있어서,
상기 텍스쳐 입력은 지속 시간, 시작 시간 또는 상기 멀티미디어 클립의 시작 프레임을 위한 것인, 방법.
13. The method of claim 12,
Wherein the texture input is for a duration, a start time or a start frame of the multimedia clip.
멀티미디어 콘텐트로부터 멀티미디어 클립을 생성하는 디바이스에 있어서,
현재 재생 중인 멀티미디어 콘텐트를 일시적으로 저장하는 저장부;
현재 시간 또는 현재 프레임을 상기 멀티미디어 클립의 끝점(end point)으로 지정하고, 상기 멀티미디어 클립의 시작점(start point)을 결정하며, 상기 멀티미디어 콘텐트의 상기 시작점과 상기 끝점 사이 부분을 상기 저장부로부터 추출하고, 상기 추출된 부분을 이용하여 상기 멀티미디어 클립을 생성하는 제어부;
를 포함하며,
상기 제어부는 상기 멀티미디어 콘텐트의 재생이 유지되는 동안에 상기 멀티미디어 클립을 생성하는 것인, 디바이스.
A device for generating a multimedia clip from multimedia content,
A storage unit for temporarily storing the multimedia content currently being played back;
Designating a current time or a current frame as an end point of the multimedia clip, determining a start point of the multimedia clip, extracting a portion between the start point and the end point of the multimedia content from the storage unit A controller for generating the multimedia clip using the extracted portion;
/ RTI >
Wherein the controller generates the multimedia clip while the playback of the multimedia content is maintained.
제 14 항에 있어서,
상기 제어부는 자동 클리핑 모드에서 외부 센서 또는 내부 센서 중 적어도 하나로부터 수신된 입력에 기초하여 상기 끝점을 지정하는 것을 특징으로 하는, 디바이스.
15. The method of claim 14,
Wherein the control unit specifies the endpoint based on an input received from at least one of an external sensor or an internal sensor in an automatic clipping mode.
제 14 항에 있어서,
상기 제어부는 수동 클리핑 모드의 사용자 인터페이스로부터 수신된 입력에 기초하여 상기 끝점을 지정하는 것을 특징으로 하는, 디바이스.
15. The method of claim 14,
Wherein the control unit specifies the endpoint based on an input received from a user interface in a manual clipping mode.
제 14 항에 있어서,
상기 제어부는 자동 클리핑 모드의 미리 설정된 지속시간 및 상기 지정된 끝점을 이용하여 상기 시작점을 지정하는 것을 특징으로 하는, 디바이스.
15. The method of claim 14,
Wherein the control unit specifies the starting point using a predetermined duration of the automatic clipping mode and the designated end point.
제 14 항에 있어서,
상기 제어부는, 자동 클리핑 모드에서 외부 센서 또는 내부 센서에 의해 제공되는 입력에 기초하여 결정되는 멀티미디어 클립의 지속 시간 및 상기 결정된 끝점을 이용하여 상기 시작점을 산출하는 것을 특징으로 하는, 디바이스.
15. The method of claim 14,
Wherein the control unit calculates the start point using the determined end point and the duration of the multimedia clip determined based on the input provided by the external sensor or the internal sensor in the automatic clipping mode.
제 14 항에 있어서,
상기 제어부는, 상기 끝점과 반자동 클리핑 모드에서의 상기 멀티미디어 클립의 미리 설정된 지속 시간을 이용하여 상기 시작점을 산출하며,
상기 끝점은 사용자 인터페이스로부터 수신된 입력에 기초하여 지정되는 것을 특징으로 하는, 디바이스.
15. The method of claim 14,
Wherein the control unit calculates the starting point using the end point and the predetermined duration of the multimedia clip in the semi-automatic clipping mode,
Wherein the endpoint is specified based on an input received from a user interface.
제 1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for causing a computer to execute the method of claim 1.
KR1020150153811A 2014-11-14 2015-11-03 Method and system for generating multimedia clip KR102392002B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/942,482 US10381042B2 (en) 2014-11-14 2015-11-16 Method and system for generating multimedia clip

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN3297/DEL/2014 2014-11-14
IN3297DE2014 2014-11-14

Publications (2)

Publication Number Publication Date
KR20160058001A true KR20160058001A (en) 2016-05-24
KR102392002B1 KR102392002B1 (en) 2022-04-28

Family

ID=81448009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150153811A KR102392002B1 (en) 2014-11-14 2015-11-03 Method and system for generating multimedia clip

Country Status (1)

Country Link
KR (1) KR102392002B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271667A (en) * 2001-03-06 2002-09-20 Ricoh Co Ltd Digital camera suitable for image input in video conference system
JP4705786B2 (en) * 2005-01-06 2011-06-22 株式会社日立製作所 Video clip display device
KR20130069041A (en) * 2011-12-16 2013-06-26 삼성전자주식회사 Display apparatus and method
KR20140014623A (en) * 2012-07-25 2014-02-06 에스케이플래닛 주식회사 Apparatus and method for recording highlight clip

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271667A (en) * 2001-03-06 2002-09-20 Ricoh Co Ltd Digital camera suitable for image input in video conference system
JP4705786B2 (en) * 2005-01-06 2011-06-22 株式会社日立製作所 Video clip display device
KR20130069041A (en) * 2011-12-16 2013-06-26 삼성전자주식회사 Display apparatus and method
KR20140014623A (en) * 2012-07-25 2014-02-06 에스케이플래닛 주식회사 Apparatus and method for recording highlight clip

Also Published As

Publication number Publication date
KR102392002B1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
EP3012838B1 (en) Preview of multi-views media clips
US8786630B2 (en) Image processing device, image processing method and program
JP4760892B2 (en) Display control apparatus, display control method, and program
KR102478500B1 (en) Image processing method, image processing device, and program
CN103842936A (en) Recording, editing and combining multiple live video clips and still photographs into a finished composition
CN106559712A (en) Video playback processing method, device and terminal device
US20130108241A1 (en) Information processing device, information processing method, program, recording medium, and integrated circuit
KR101319544B1 (en) Photographing apparatus for detecting appearance of person and method thereof
US10381042B2 (en) Method and system for generating multimedia clip
JP2010062691A (en) Information processor
JP5831567B2 (en) Image processing apparatus, image processing method, and program
JP2006101076A (en) Method and device for moving picture editing and program
US8913870B2 (en) Method of capturing moving picture and apparatus for reproducing moving picture
JP2012138804A (en) Image processor, image processing method, and program
KR20160058001A (en) Method and system for generating multimedia clip
JP2017112455A (en) Information processing unit
JP2020178161A (en) Image processing device, image processing method, and program
US10410674B2 (en) Imaging apparatus and control method for combining related video images with different frame rates
JP2012156879A (en) Recording apparatus and reproducing apparatus
JP6381208B2 (en) Image reproducing apparatus, image reproducing method, and program
US20230376189A1 (en) Efficient video player navigation
JP2019050444A (en) Interface device for data editing, capture device, image processing device, data editing method, and data editing program
JP4673916B2 (en) Information processing apparatus, information processing method, and information processing program
US20140369665A1 (en) Imaging apparatus and method for controlling imaging apparatus
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant