KR20210115467A - Method and system for adding tag to video content - Google Patents

Method and system for adding tag to video content Download PDF

Info

Publication number
KR20210115467A
KR20210115467A KR1020200031301A KR20200031301A KR20210115467A KR 20210115467 A KR20210115467 A KR 20210115467A KR 1020200031301 A KR1020200031301 A KR 1020200031301A KR 20200031301 A KR20200031301 A KR 20200031301A KR 20210115467 A KR20210115467 A KR 20210115467A
Authority
KR
South Korea
Prior art keywords
information
content
graphic object
tag
video content
Prior art date
Application number
KR1020200031301A
Other languages
Korean (ko)
Other versions
KR102341209B1 (en
Inventor
최승연
백유림
서명원
김보현
동이레
이지원
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020200031301A priority Critical patent/KR102341209B1/en
Publication of KR20210115467A publication Critical patent/KR20210115467A/en
Priority to KR1020210179659A priority patent/KR102620445B1/en
Application granted granted Critical
Publication of KR102341209B1 publication Critical patent/KR102341209B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4888Data services, e.g. news ticker for displaying teletext characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Abstract

The present invention relates to a method for providing information related to video content. And the method comprises the following steps of: on an electronic device, executing a tag editing mode for video content; receiving, in the tag editing mode, selecting information content to be associated with the video content; generating a graphic object including a tag corresponding to the information content; and inserting the graphic object into the video content so that the graphic object is output during a specific playback section of the video content. Accordingly, the method provides additional information through the video content being played.

Description

동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템{METHOD AND SYSTEM FOR ADDING TAG TO VIDEO CONTENT}Method and system for inserting tags for video content

본 발명은 동영상 콘텐츠와 연관된 정보를 제공하는 방법 및 그 시스템에 관한 것이다.The present invention relates to a method and system for providing information related to video content.

기술이 발전함에 따라, 디지털 디바이스의 활용도가 높아지고 있다. 특히 전자기기(예를 들어, 스마트폰, 태블릿 PC 등)는, 전화나 문자 메시지와 같은 통신 기능은 물론, 인터넷을 활용한 웹 서핑, 음악 감상, 영상 콘텐츠(동영상 콘텐츠를 포함)의 시청과 같이 다양한 기능을 구비하고 있다.As technology develops, the utilization of digital devices is increasing. In particular, electronic devices (eg, smartphones, tablet PCs, etc.) provide communication functions such as phone calls and text messages, as well as web surfing using the Internet, listening to music, and viewing of video content (including video content). It has various functions.

이러한 전자기기의 대중화에 힘입어, 멀티 미디어로 이루어진 콘텐츠에 대한 소비가 급증하고 있으며, 이와 함께, 동영상 공유 서비스(예를 들어, 유튜브(YouTube™), 소셜 네트워크 서비스(Social Network Service, 이하, “”라고 명명함)의 플랫폼이 발달하고, 이의 이용자 또한 급증하고 있다.Thanks to the popularization of these electronic devices, the consumption of multi-media content is rapidly increasing, along with video sharing services (eg, YouTube™) and social network services (hereinafter, “ ”) is developing, and its users are also rapidly increasing.

이러한 플랫폼의 발달과 함께, 최근에는 콘텐츠 소비자들이 곧 콘텐츠의 생산자가 되고 있으며, 이에 따라, 소비자들이 직접 영상을 촬영하고, 촬영된 영상을 편집하여 하나의 동영상 콘텐츠로 제작하는 1인 미디어 시대가 도래하였다.With the development of these platforms, recently, content consumers are becoming content producers, and accordingly, an era of one-man media has arrived, in which consumers directly shoot video, edit the captured video, and produce a single video content. did.

이러한 동영상 콘텐츠는 시청자(또는 사용자)들에게 시청각 자료를 제공할 뿐만 아니라, 광고 매체로서 다양한 분야에서 활용되고 있다.Such video content not only provides audiovisual material to viewers (or users), but is also utilized in various fields as an advertising medium.

한편, 동영상 콘텐츠와 관련된 정보를 제공하는 기술로서, 대한민국 등록특허 제10-1403317호는 태깅 정보를 가지는 동영상을 이용한 정보 제공 시스템을 개시하고 있다. 그러나 이 기술은 동영상이 포함하는 수많은 정보들을 정확하고 효과적으로 검색하기 위해 키워드 태그를 활용하는 것일 뿐, 동영상의 재생과 함께 사용자에게 정보를 제공하는 기술에 대해서는 개시되어 있지 않다.Meanwhile, as a technology for providing information related to video content, Korean Patent Registration No. 10-1403317 discloses an information providing system using a video having tagging information. However, this technology only utilizes keyword tags to accurately and effectively search a lot of information included in a video, and a technology for providing information to a user along with playback of the video is not disclosed.

또한, 동영상 콘텐츠와 관련된 정보를 제공하는 또 다른 기술로서, 대한민국 공개특허 제10-2012-0072033호는, 동영상 콘텐츠에 대해 태깅을 수행하는 기술이 공개되어 있다. 다만, 이러한 방법은 센싱된 정보와 단말기에 저장된 정보에 기반하여 동영상 콘텐츠에 대해 자동으로 태깅 작업을 수행하는 기술로, 사용자의 기호에 따라, 동영상 콘텐츠에 태그를 삽입하는 기술에 대해서는 개시되어 있지 않다.Also, as another technology for providing information related to video content, Korean Patent Laid-Open No. 10-2012-0072033 discloses a technique for tagging video content. However, this method is a technology for automatically tagging video content based on sensed information and information stored in the terminal, and technology for inserting tags into video content according to the user's preference is not disclosed. .

이에, 동영상 콘텐츠가 가진 고유의 영상 데이터 및 오디오 데이터에 따른 정보 뿐만 아니라, 동영상 콘텐츠의 생산 주체가 되는 사용자의 니즈를 반영하여, 동영상 콘텐츠와 함께 관련된 정보를 제공하는 기술에 대한 니즈가 있다.Accordingly, there is a need for a technology that reflects the needs of users who are the main producers of video content as well as information according to the unique image data and audio data possessed by the video content, and provides related information together with the video content.

본 발명은, 동영상 콘텐츠를 제공하는 데에서 나아가, 동영상 콘텐츠를 이용하는 사용자에게, 동영상 콘텐츠와 관련된 유익한 정보를 추가적으로 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다. The present invention further provides a method and system for inserting a tag for video content, which can additionally provide useful information related to video content to a user who uses the video content, in addition to providing video content.

나아가, 본 발명은, 전자기기에서 동영상 콘텐츠가 재생되는 경우, 재생되고 있는 장면과 연관된 유익한 정보를 사용자에게 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention is to provide a tag insertion method and system for moving image content that can provide a user with useful information related to a scene being reproduced when moving image content is reproduced in an electronic device.

더 나아가, 본 발명은, 사용자의 별도의 조작이 없더라도, 재생되고 있는 장면과 연관된 유익한 정보가 존재함을 사용자에게 쉽게 인지시키는 사용자 환경을 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a tag insertion method and system for video content that can provide a user environment for easily recognizing the existence of useful information related to a scene being reproduced, even without a user's separate manipulation. will do

더 나아가, 본 발명은, 동영상 콘텐츠와 함께 제공되는 유익한 정보로의 직관적인 접근을 유도할 수 있는 사용자 환경을 제공하는 것과 함께, 본래 전자기기에서 재생 중이던 동영상 콘텐츠의 재생을 유지할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a user environment that can induce intuitive access to useful information provided with the video content, and provides a video content that can maintain the playback of the video content originally being played on the electronic device. It is to provide a tag insertion method and system for

또한, 본 발명은, 동영상 콘텐츠를 제작하는 사용자가, 동영상 콘텐츠와 함께 추가적으로 제공하고자 하는 정보를 보다 쉽고, 직관적으로 추가할 수 있는 제작 환경을 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.In addition, the present invention provides a tag insertion method and system for video content that can provide a production environment in which a user who produces video content can more easily and intuitively add information to be additionally provided along with the video content. will provide

또한, 본 발명은, 동영상 콘텐츠에 다양한 정보 콘텐츠를 삽입함으로써, 동영상 콘텐츠가 단순히 영상 및 오디오 데이터에 포함된 정보만 제공하는 것이 아니라, 다양한 정보 콘텐츠로의 연결 통로의 역할을 수행할 수 있는 태그 삽입 방법 및 시스템을 제공하는 것이다.In addition, according to the present invention, by inserting various information content into the video content, the video content does not simply provide information included in video and audio data, but inserts a tag that can serve as a connection path to various information content To provide a method and system.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집모드를 실행하는 단계, 상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 단계 및 상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하는 단계, 및 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 단계를 통해, 동영상 콘텐츠와 함께 추가적인 정보를 제공할 수 있다.In order to solve the above problems, a method for inserting a tag for video content according to the present invention includes executing a tag editing mode for video content on an electronic device, and in the tag editing mode, information to be associated with the video content Creating a graphic object including a tag corresponding to the selection of content and the information content, and inserting the graphic object into the moving image content so that the graphic object is output during a specific playback section of the moving image content Through this, additional information can be provided along with the video content.

위에서 살펴본, 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임은, 상기 동영상 콘텐츠에서 상기 그래픽 객체의 출력이 시작되는 시작 프레임 및 상기 시작 프레임과 연속하며, 상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임으로 구성된 것을 특징으로 한다.As described above, the at least one frame corresponding to the specific playback section is a start frame at which output of the graphic object is started in the moving picture content, and is continuous with the start frame, and includes at least one related frame included in the specific playback section. It is characterized in that it is composed of

본 발명에서 태그 편집 모드는, 상기 동영상 콘텐츠의 편집을 위한 콘텐츠 편집 모드에서 발생되는 태그 삽입 요청 이벤트에 근거하여 실행되고, 상기 시작 프레임은, 상기 동영상 콘텐츠에 포함된 복수의 프레임 중, 상기 태그 삽입 요청 이벤트가 발생한 시점에, 상기 전자기기에서 출력되고 있었던 프레임인 것을 특징으로 한다.In the present invention, the tag editing mode is executed based on a tag insertion request event generated in the content editing mode for editing the video content, and the start frame includes the tag insertion among a plurality of frames included in the video content. It is characterized in that the frame being output from the electronic device at the time the request event occurred.

한편, 위에서 살펴본, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법에 따른 시스템은, 상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 입력부 및 상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하고, 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 제어부를 포함하고, 상기 제어부는, 상기 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체를 오버랩하는 그래픽 처리를 수행하는 것을 특징으로 한다.On the other hand, the system according to the method for inserting a tag for video content according to the present invention as described above includes, in the tag editing mode, an input unit for selecting information content to be associated with the video content and a tag corresponding to the information content and a control unit for generating a graphic object and inserting the graphic object into the moving picture content so that the graphic object is output during a specific playback section of the moving picture content, wherein the control unit includes: and performing graphic processing to overlap the graphic object with at least one frame corresponding to the specific reproduction section.

위에서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템은, 동영상 콘텐츠를 구성하는 복수의 프레임에 정보 콘텐츠와 연관된 태그를 포함하는 그래픽 객체를 추가함으로써, 동영상 콘텐츠가 재생되는 동안, 추가적인 정보를 제공할 수 있다. 이때, 정보 콘텐츠는, 동영상 콘텐츠를 제작하는 사용자에 의하여 선택된 정보일 수 있으며, 이를 통해 사용자는, 동영상 콘텐츠와 함께 제공하고자 하는 정보를, 보다 직관적으로 제3 자에게 전달할 수 있다.As described above, the method and system for inserting tags for video content according to the present invention add graphic objects including tags related to information content to a plurality of frames constituting the video content, so that while the video content is played, Additional information may be provided. In this case, the information content may be information selected by a user who produces the video content, and through this, the user can more intuitively transmit information to be provided together with the video content to a third party.

또한, 본 발명에서는, 동영상 콘텐츠의 재생 구간 중 그래픽 객체가 포함되는 특정 재생 구간을 사용자의 선택에 근거하여 설정함으로써, 사용자의 의도에 따라, 추가적인 정보가 제공되는 시점을 조절할 수 있다. 이를 통해, 사용자는, 재생되고 있는 부분과 연관되도록 정보 콘텐츠를 추가할 수 있다. 나아가, 이와 같이 제작된 동영상 콘텐츠를 이용하는 제3 자(또는 사용자)는, 동영상 콘텐츠의 재생부분과 연관된 정보 콘텐츠를 제공받을 수 있으며, 이를 통해, 별도로 정보 콘텐츠를 검색하기 위한 노력을 줄일 수 있다.In addition, in the present invention, by setting a specific playback section in which graphic objects are included among the playback sections of moving picture content based on the user's selection, the timing at which additional information is provided can be adjusted according to the user's intention. Through this, the user can add information content to be associated with the part being reproduced. Furthermore, a third party (or a user) using the video content produced in this way may be provided with information content related to the playback portion of the video content, thereby reducing the effort to separately search for the information content.

나아가, 본 발명에서는, 동영상 콘텐츠에 포함된 그래픽 객체가 선택되는 경우, 그래픽 객체에 포함된 태그에 링크된 정보 콘텐츠를 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는, 동영상 콘텐츠의 이용 중에 언제라도 정보 콘텐츠로 접근할 수 있다. 이때, 본 발명에서는, 정보 콘텐츠에 대한 정보가 출력되더라도, 전자기기의 일 영역에서 계속하여 동영상 콘텐츠가 재생되도록 하는 사용자 환경을 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는 끊김없이 동영상 콘텐츠를 계속하여 이용할 수 있다.Furthermore, in the present invention, when a graphic object included in the moving picture content is selected, by providing information content linked to a tag included in the graphic object, a third party (or user) using the moving picture content can use the moving picture content You can access the information content at any time during At this time, in the present invention, even when information on information content is output, by providing a user environment in which the moving image content is continuously played in one area of the electronic device, a third party (or user) using the moving image content can continuously reproduce the moving image. The content will continue to be available.

도 1은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그를 삽입의 예를 설명하기 위한 개념도이다.
도 3은 본 발명에서 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 흐름도이다.
도 4는 도 3에서 살펴본 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 개념도이다.
도 5a, 도 5b, 도 5c, 도 6a, 도 6b 및 도 7은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그에 해당하는 그래픽 객체를 삽입하는 방법을 설명하기 위한 개념도들이다.
도 8a, 도 8b, 도 8c 및 도 9는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그로서 삽입할 정보 콘텐츠를 선택하는 방법을 설명하기 위한 개념도들이다.
도 10 및 도 11은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 정보 콘텐츠를 출력하는 방법을 설명하기 위한 개념도들이다.
1 is a conceptual diagram for explaining a method and system for inserting tags into video content according to the present invention.
2 is a conceptual diagram for explaining an example of inserting a tag in the tag insertion method and system for video content according to the present invention.
3 is a flowchart illustrating a method of inserting a tag into video content in the present invention.
FIG. 4 is a conceptual diagram for explaining a method of inserting a tag into video content as shown in FIG. 3 .
5A, 5B, 5C, 6A, 6B, and 7 are conceptual diagrams for explaining a method of inserting a tag for video content and a method of inserting a graphic object corresponding to a tag in the system according to the present invention.
8A, 8B, 8C and 9 are conceptual diagrams for explaining a method for inserting a tag into video content and a method for selecting information content to be inserted as a tag in the system according to the present invention.
10 and 11 are conceptual diagrams for explaining a method for inserting a tag into video content and a method for outputting information content in the system according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components will be given the same reference numbers regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 발명은, 동영상 콘텐츠에 대한 태그 삽입 방법에 관한 것으로서, 특히, 동영상 콘텐츠를 이용하는 사용자에게, 동영상 콘텐츠와 함께 유익한 정보를 추가적으로 제공하기 위한 것이다.The present invention relates to a method of inserting a tag into video content, and more particularly, to provide additional useful information together with the video content to a user who uses the video content.

본 발명에 따른, 동영상 콘텐츠에 대한 태그 삽입 방법은, 애플리케이션(application) 또는 소프트웨어(software)의 형태로 구현되는 시스템에 의하여 일련의 과정이 수행될 수 있다(이하에서는, 애플리케이션과 소프트웨어의 용어를 구분하지 않고, 통일하여 애플리케이션이라고 명명한다). 즉, 본 발명에 따른, 동영상 콘텐츠에 대한 태그 삽입 방법은, 동영상 콘텐츠에 대한 태그 삽입 애플리케이션이라고도 명명될 수 있다. 이때, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 본 발명에 따른 고유의 기능을 단독으로 수행하기 위한 애플리케이션에 의하여 일련의 과정이 수행될 수 있다. In the method of inserting a tag for video content according to the present invention, a series of processes may be performed by a system implemented in the form of an application or software (hereinafter, the terms of application and software are separated Rather, it is unified and named as an application). That is, the method for inserting tags for video content according to the present invention may also be referred to as a tag inserting application for video content. In this case, in the method of inserting a tag for video content according to the present invention, a series of processes may be performed by an application for performing a unique function according to the present invention alone.

또한, 이와 다르게, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은 다른 적어도 하나의 기능을 추가적으로 제공하는 애플리케이션이 갖는 일 기능에 해당할 수 있다. 여기에서, 다른 적어도 하나의 기능을 추가적으로 제공하는 애플리케이션의 종류는 다양할 수 있으며, 예를 들어, 동영상 콘텐츠를 생성 또는 제작하는 애플리케이션일 수 있다. 이하에서는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법이 적용된 형태를 구분하지 않고 공통적으로 설명하도록 한다. 즉, 이하의 설명은, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법이 그 고유의 애플리케이션으로 제공되거나, 다른 애플리케이션의 일 기능으로 제공되는 것에 관계없이 공통적으로 적용될 수 있다. Also, differently from this, the method of inserting a tag for video content according to the present invention may correspond to one function of an application that additionally provides at least one other function. Here, the type of application that additionally provides at least one other function may be various, for example, it may be an application that creates or produces video content. Hereinafter, the method to which the tag insertion method for video content according to the present invention is applied will be described in common without distinguishing between them. That is, the following description may be commonly applied irrespective of whether the tag insertion method for video content according to the present invention is provided as its own application or as a function of another application.

이하에서는, 첨부된 도면과 함께, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템에 대하여, 보다 구체적으로 살펴본다. 도 1은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 설명하기 위한 개념도이고, 도 2는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그를 삽입의 예를 설명하기 위한 개념도이다.Hereinafter, a tag insertion system for video content according to the present invention will be described in more detail with reference to the accompanying drawings. 1 is a conceptual diagram for explaining a tag insertion method and system for video content according to the present invention, and FIG. 2 is a conceptual diagram for explaining an example of tag insertion in the tag insertion method and system for video content according to the present invention am.

보다 구체적으로, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템은, 도 1에 도시된 것과 같이, 애플리케이션의 형태로 전자기기(100c)에 설치되어, 동영상 콘텐츠에 대해 태그를 삽입하는 과정을 수행할 수 있다. More specifically, the tag insertion system for video content according to the present invention is installed in the electronic device 100c in the form of an application as shown in FIG. can

이러한, 애플리케이션은, 전자기기 상에서의 사용자의 요청에 의하여 전자기기 상에 설치될 수 있으며, 또는 전자기기 출고 당시, 전자기기에 설치되어 존재할 수 있다. 이와 같은, 동영상 콘텐츠에 대한 태그 삽입 방법을 구현하는 애플리케이션은, 데이터 통신을 통하여, 외부 데이터(data) 저장소(또는 외부 서버(server))로부터 다운로드(download)되어, 전자기기 상에 설치될 수 있다. 그리고, 전자기기 상에서, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템이 구현된 애플리케이션이 실행되는 경우, 동영상 콘텐츠에 태그를 삽입하기 위한 일련의 과정이 진행될 수 있다.Such an application may be installed on the electronic device at the request of the user on the electronic device, or may be installed on the electronic device at the time of shipment of the electronic device. Such an application for implementing a tag insertion method for video content may be downloaded from an external data storage (or an external server) through data communication and installed on an electronic device. . In addition, when an application in which the tag insertion system for video content according to the present invention is implemented is executed on the electronic device, a series of processes for inserting tags into video content may be performed.

앞서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 본 발명에 따른 고유의 기능을 단독으로 수행하기 위한 애플리케이션 뿐만 아니라, 다른 적어도 하나의 기능을 제공하는 애플리케이션이 갖는 일 기능으로서, 일련의 과정이 수행될 수 있음은 물론이다.As described above, the tag insertion method for video content according to the present invention is a function of an application that provides at least one other function as well as an application for performing a unique function according to the present invention alone, Of course, a series of processes may be performed.

본 발명에서 언급되는 전자기기는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템에 따른 기능이 동작가능한 전자기기이면 되며, 그 종류에 특별한 제한을 두지 않는다. 예를 들어, 전자기기는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 휴대용 컴퓨터(laptop computer), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 데스크톱 컴퓨터(desktop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The electronic device referred to in the present invention may be any electronic device capable of operating a function according to the tag insertion system for moving image content according to the present invention, and there is no particular limitation on the type thereof. For example, the electronic device is a mobile phone, a smart phone, a notebook computer, a portable computer, a slate PC, a tablet PC, an ultrabook. , desktop computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, wearable device, for example, watch-type terminal (smartwatch), glass-type terminal (smart) glass), HMD (head mounted display), etc. may be included.

한편, 이와 같이, 애플리케이션의 형태로 구현될 수 있는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템(100a)은, 입력부(110), 출력부(120), 저장부(130), 통신부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다. 위의 구성요소들은, 소프트웨어적인 구성요소로서, 전자기기(100c)의 하드웨어적인 구성요소와 연동하여 기능을 수행할 수 있다.On the other hand, as described above, the tag insertion system 100a for video content according to the present invention that can be implemented in the form of an application includes an input unit 110 , an output unit 120 , a storage unit 130 , and a communication unit 140 . and at least one of the control unit 150 . The above components, as software components, may perform functions in conjunction with hardware components of the electronic device 100c.

예를 들어, 입력부(110)는 전자기기(100c)에 구비된 입력부 구성(예를 들어, 터치 스크린, 가상 키(key), 물리적인 키(또는 하드웨어적인 버튼), 입력 센서, 마이크 등)을 통하여, 사용자 입력을 수신할 수 있다. 보다 구체적으로, 입력부(110)는, 동영상 콘텐츠에 대해 태그를 삽입하기 위한 태그 편집 모드에서, 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받을 수 있다. 여기에서, “선택받는다” 함은, 전자기기(100c)에 구비된 입력부 구성을 통하여 사용자의 선택이 이루어지는 것에 근거하여, 사용자의 선택에 대응되는 선택 신호(또는 입력 신호, 또는 사용자 입력)를 수신하는 것을 의미할 수 있다.For example, the input unit 110 includes an input unit provided in the electronic device 100c (eg, a touch screen, a virtual key, a physical key (or a hardware button), an input sensor, a microphone, etc.) Through this, a user input may be received. More specifically, the input unit 110 may receive a selection of information content to be associated with the video content in a tag editing mode for inserting a tag into the video content. Here, “to be selected” means to receive a selection signal (or an input signal, or a user input) corresponding to the user's selection based on the user's selection through the configuration of the input unit provided in the electronic device 100c. can mean doing

다음으로, 출력부(120)는 전자기기(100c)에 구비된 출력부 구성(예를 들어, 디스플레이부, 터치 스크린, 스피커 등)을 통하여, 정보를 출력할 수 있다. Next, the output unit 120 may output information through an output unit included in the electronic device 100c (eg, a display unit, a touch screen, a speaker, etc.).

또한, 저장부(130)는 전자기기(100c)에 구비된 메모리 및 외부 저장소 중 적어도 하나를 이용하여, 본 발명을 통해 생성되는 태그와 관련된 정보, 그래픽 객체와 관련된 정보 및 정보 콘텐츠와 관련된 정보 중 적어도 하나를 저장하거나, 시스템과 관련된 정보, 또는 명령(또는 명령어)들을 저장할 수 있다. In addition, the storage unit 130 uses at least one of a memory and an external storage provided in the electronic device 100c, among information related to a tag, information related to a graphic object, and information related to information content generated through the present invention. At least one may be stored, information related to the system, or commands (or commands) may be stored.

본 발명에서 저장부(130)에 “저장된다”고 함은, 물리적으로는, 전자기기(100c)의 메모리 또는 외부 저장소에 정보가 저장됨을 의미할 수 있다. 여기에서, 외부 저장소(100b)는, 클라우드(cloud) 방식의 저장소일 수 있다.In the present invention, “stored” in the storage unit 130 may mean that information is physically stored in the memory or external storage of the electronic device 100c. Here, the external storage 100b may be a cloud-type storage.

한편, 본 발명에 따른 기능을 갖는 애플리케이션이 전자기기(100c)에서 삭제되는 경우, 저장부(130)에 저장된 정보 또한, 전자기기(100c)에서 삭제될 수 있다. 한편, 이 경우, 외부 저장소(100b)에 저장된 정보는 삭제되지 않을 수 있다. Meanwhile, when an application having a function according to the present invention is deleted from the electronic device 100c, information stored in the storage unit 130 may also be deleted from the electronic device 100c. Meanwhile, in this case, information stored in the external storage 100b may not be deleted.

나아가, 통신부(140)는, 전자기기(100c)에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 본 발명과 관련된 정보(또는 데이터)를 적어도 하나의 외부기기(또는 외부 서버)와 송수신 하는 역할을 수행할 수 있다.Furthermore, the communication unit 140 uses the configuration of a communication module (eg, a mobile communication module, a short-range communication module, a wireless Internet module, a location information module, a broadcast reception module, etc.) provided in the electronic device 100c, It may serve to transmit and receive information (or data) related to the present invention with at least one external device (or external server).

한편, 제어부(150)는 전자기기(100c)에 구비된 CPU(Central Processing Unit)를 이용하여, 본 발명을 수행하기 위한 전반적인 제어를 수행할 수 있다. 위에서 살펴본 구성요소들은 제어부(150)의 제어 하에 동작할 수 있으며, 제어부(150)는 전자기기(100c)의 물리적인 구성요소들에 대한 제어를 수행할 수 있음은 물론이다.Meanwhile, the controller 150 may perform overall control for carrying out the present invention by using a central processing unit (CPU) provided in the electronic device 100c. The components described above may operate under the control of the control unit 150 , and of course, the control unit 150 may control the physical components of the electronic device 100c.

본 발명에서 제어부(150)는, 태그 편집 모드가 실행되는 전자기기에서, 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하고, 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 역할을 수행할 수 있다.In the present invention, the controller 150 generates a graphic object including a tag corresponding to the information content in the electronic device in which the tag editing mode is executed, and outputs the graphic object during a specific playback section of the moving picture content. It may serve to insert the graphic object into content.

본 발명에서 정보 콘텐츠란, 전자기기를 통해 나타낼 수 있는(또는 표현할 수 있는) 정보로서, 그 정보의 종류, 형태, 내용에 특별한 제한을 두지 않는다. 예를 들어, 전자문서, 웹페이지, 이미지, 동영상, E-book, URL(Uniform Resource Locator) 정보, 장소 정보, 쇼핑 정보 등도 모두 정보 콘텐츠라고 표현할 수 있다. 정보 콘텐츠는, 그 정보의 카테고리나, 정보의 유형을 구분하지 않고 매우 폭넓게 이해되어질 수 있다. 다만, 본 발명에서 의미하는 정보 콘텐츠란, 유선 또는 무선 통신을 통하여, 접근 가능한 정보로서, 그 접근 경로가 특정될 수 있는 정보를 의미할 수 있다. 여기에서, 접근 경로는 URL을 의미할 수 있다. 한편, 본 발명에서, 접근 가능한 정보라 함은, “정보 콘텐츠로의 접근을 위하여 특별한 권한이나, 보안이 필요하지 않다”는 의미까지는 포함하지 않는다. In the present invention, information content is information that can be expressed (or expressed) through an electronic device, and there is no particular limitation on the type, form, or content of the information. For example, electronic documents, web pages, images, moving pictures, E-books, Uniform Resource Locator (URL) information, place information, shopping information, etc. may all be expressed as information content. Information content can be understood very broadly, regardless of the category of the information or the type of information. However, information content in the present invention may refer to information accessible through wired or wireless communication, and information whose access path can be specified. Here, the access path may mean a URL. Meanwhile, in the present invention, the accessible information does not include the meaning of “no special authority or security is required for access to information content”.

한편, “태그(tag)”란, “특정 정보 콘텐츠”를 나타내는(또는 대표하는, 요약하는) 정보를 의미한다. Meanwhile, a “tag” refers to information representing (or representing, summarizing) “specific information content”.

여기에서, “특정 정보 콘텐츠”는 임의의 정보 콘텐츠가 아니라, 사용자의 선택(또는 요청)이나 제어부(150)에 의하여 특정된 정보 콘텐츠를 의미할 수 있다. 쇼핑정보를 예를 들어 설명하면, 정보 검색 사이트(또는 정보 검색 엔진)을 통해, “운동화”라는 검색어를 입력했을 때, 출력되는 “운동화”와 관련된 다양한 정보는 “임의의 정보 콘텐츠”라고 표현될 수 있다. Here, "specific information content" may mean information content specified by a user's selection (or request) or the control unit 150, not arbitrary information content. If shopping information is described as an example, when the search word “sneakers” is entered through an information search site (or information search engine), various information related to “sneakers” that is output will be expressed as “arbitrary information content”. can

그리고, 이러한 임의의 정보 콘텐츠 중, 사용자의 선택(또는 요청)이나 제어부(150)에 의하여 적어도 하나가 특정된 경우, 특정된 적어도 하나의 정보 콘텐츠는, “특정 정보 콘텐츠”라고 표현될 수 있다.And, when at least one of these arbitrary information contents is specified by a user's selection (or request) or the control unit 150, the specified at least one information contents may be expressed as "specific information contents".

본 발명에서, “정보 콘텐츠가 선택되었다”라고 함은, “정보 콘텐츠가 특정 되었다”라고 이해되어질 수 있다. 나아가, 위에서 선택된 정보 콘텐츠는, “특정 정보 콘텐츠”라고도 표현될 수 있다.In the present invention, "information content has been selected" can be understood as "information content has been specified". Furthermore, the information content selected above may also be expressed as “specific information content”.

본 발명에서는, 특정 정보 콘텐츠와 관련된 정보를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다. 따라서, 태그는, 특정 정보 콘텐츠를 나타내는(또는 대표하는, 요약하는) 정보라고 표현될 수 있다.In the present invention, information related to a specific information content can be set as a tag of the specific information content. Thus, a tag can be expressed as information representing (or representing, summarizing) specific information content.

나아가, 본 발명에서 제어부(150)는 태그와 특정 정보 콘텐츠를 상호 연관시킬 수 있다. 다시 말해, 태그와 특정 콘텐츠는 서로 매칭될 수 있으며, 그 매칭과 관련된 정보(또는 “매칭 정보”라고도 명명될 수 있음)는 저장부(130)에 저장될 수 있다. Furthermore, in the present invention, the controller 150 may correlate the tag with specific information content. In other words, the tag and specific content may be matched with each other, and information related to the matching (or may also be referred to as “matching information”) may be stored in the storage unit 130 .

또한, 태그가 동영상 콘텐츠에 삽입되는 경우, 상기 매칭과 관련된 정보는, 동영상 콘텐츠에 포함될 수 있다. 즉, 제어부(150)는 태그를 동영상 콘텐츠에 삽입함에 있어서, 상기 매칭과 관련된 정보까지 동영상 콘텐츠에 포함시킬 수 있다.Also, when the tag is inserted into the video content, the matching information may be included in the video content. That is, when inserting the tag into the video content, the controller 150 may include information related to the matching in the video content as well.

본 발명에서, “태그와 특정 정보 콘텐츠가 상호 연관된다”고 함은, 태그를 통하여, 특정 정보 콘텐츠로 접근이 가능함을 의미할 수 있다. 이 경우, 상기 태그에 “상기 특정 정보 콘텐츠로의 접근 경로에 대한 정보가 링크되었다” 라고도 표현될 수 있다.In the present invention, “the tag and the specific information content are correlated” may mean that access to the specific information content is possible through the tag. In this case, the tag may also be expressed as “information on an access path to the specific information content is linked”.

제어부(150)는, 앞서 살펴본 특정 정보 콘텐츠로의 접근 경로에 대한 정보를, 상기 매칭 정보에 포함시킬 수 있다. 그 결과, 동영상 콘텐츠에 태그가 삽입된 후, 동영상 콘텐츠에 삽입된 태그가 사용자에 의하여 선택되는 경우, 상기 동영상 콘텐츠를 재생하던 전자기기는 동영상 콘텐츠에 포함된 매칭 정보에 근거하여, 상기 특정 정보 콘텐츠로 접근할 수 있다. 앞서 살펴본 것과 같이, 상기 접근 경로에 대한 정보는, 유선 또는 무선 통신 방식을 통해, 전자기기에서 접근 가능한 정보로서, URL 정보를 포함할 수 있다.The controller 150 may include, in the matching information, information on an access path to the specific information content discussed above. As a result, when the tag inserted into the video content is selected by the user after the tag is inserted into the video content, the electronic device playing the video content is based on the matching information included in the video content, the specific information content can be accessed with As described above, the information on the access path is information accessible from the electronic device through a wired or wireless communication method, and may include URL information.

나아가, 태그는, 반드시 텍스트(도 2의 (a) 221 참조: “나이스 런닝화”)로 이루어지는 것 만은 아니며, 이미지(도 2의 (a) 222 이미지 참조)로도 이루어질 수 있다. 여기에서, 이미지는, 정적인 이미지(static image) 및 동적인 이미지(또는 동영상, video)를 모두 포함하는 개념이다.Furthermore, the tag is not necessarily made of text (see (a) 221 of FIG. 2: “nice running shoes”), but may also be made of an image (refer to 222 image of (a) of FIG. 2). Here, the image is a concept including both a static image and a dynamic image (or moving picture, video).

이와 같이, 텍스트 또는 이미지로 태그가 이루어 진 것을, “시각적인 정보로 태그가 이루어졌다”고 표현할 수 있다. 이외에도, 태그는 청각적인 정보로 이루어지거나, 촉각적인 정보로 이루어질 수 있음은 물론이다. In this way, a tag made of text or an image can be expressed as “a tag made of visual information”. In addition, of course, the tag may be made of audible information or tactile information.

위에서 살펴본 것과 같이, 태그는, 정보가 출력되는 형태에 따라, 시각적인 정보로 이루어진 태그, 청각적인 정보로 이루어진 태그, 또는 촉각적인 정보로 이루어진 태그로 분류될 수 있다. 본 발명에서는, 시각적인 정보로 이루어진 태그를 동영상 콘텐츠에 삽입하는 방법에 대하여 보다 구체적으로 살펴본다.As described above, a tag may be classified into a tag made of visual information, a tag made of auditory information, or a tag made of tactile information according to a form in which information is output. In the present invention, a method of inserting a tag made of visual information into video content will be described in more detail.

한편, 태그는 특정 정보 콘텐츠와 연관성을 갖는 정보로서, 특정 정보 콘텐츠의 적어도 일부를 포함하거나, 특정 정보 콘텐츠를 대표하거나 의미할 수 있는 정보로 이루어질 수 있다. Meanwhile, a tag is information related to specific information content, and may include at least a part of specific information content, or may be made of information that can represent or mean specific information content.

본 발명에서, 제어부(150)는, 특정 정보 콘텐츠의 적어도 일부를, 특정 정보 콘텐츠의 태그로서 설정할 수 있다. 이때, 적어도 일부의 정보는 텍스트 및 이미지 중 적어도 하나로 이루어질 수 있다.In the present invention, the control unit 150 may set at least a part of the specific information content as a tag of the specific information content. In this case, the at least part of the information may be formed of at least one of text and an image.

제어부(150)는 특정 정보 콘텐츠에 포함된 정보 중 적어도 일부를 추출하여, 추출된 정보를 상기 특정 정보 콘텐츠와 연관된 태그로서 설정할 수 있다. 이때, 어떠한 정보가 추출될지 여부는, 기 설정된 기준 또는 기 설정된 알고리즘에 근거할 수 있다. 또한, 제어부(150)는, 특정 정보 콘텐츠와 연관시킬 태그에 해당하는 정보를, 사용자로부터 입력받을 수 있다. 그리고, 사용자로부터 입력받은 정보를, 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.The controller 150 may extract at least a portion of information included in the specific information content and set the extracted information as a tag associated with the specific information content. In this case, whether any information is to be extracted may be based on a preset criterion or a preset algorithm. Also, the control unit 150 may receive information corresponding to a tag to be associated with specific information content from the user. Then, the information received from the user can be set as a tag of the specific information content.

위에서 살펴본 태그는, 태그 편집 모드를 통해 동영상 콘텐츠에 삽입될 수 있다. 여기에서, 태그 편집 모드란, 동영상 콘텐츠에 태그를 삽입하기 위한 모드로서, 태그 편집 모드의 실행은, 사용자의 선택에 근거할 수 있다.The tags described above may be inserted into the video content through the tag editing mode. Here, the tag editing mode is a mode for inserting tags into video content, and execution of the tag editing mode may be based on a user's selection.

이때, 태그 편집 모드는, 본 발명에 따른 기능을 제공하는 애플리케이션이 실행되는 것에 근거하여, 실행될 수 있다.In this case, the tag editing mode may be executed based on the execution of the application providing the function according to the present invention.

일 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능만을 고유하게 수행하는 애플리케이션인 경우, 상기 애플리케이션이 실행되었다고 함은, 곧 태그 편집 모드가 실행되었음을 의미할 수 있다. As an example, when the application providing the function according to the present invention is an application that uniquely performs only the function according to the present invention, the execution of the application may mean that the tag editing mode is executed.

다른 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능 외에 다른 기능을 추가적으로 제공하는 애플리케이션인 경우, 상기 애플리케이션이 실행되었다고 함은, 곧 태그 편집 모드가 실행되었다는 것을 의미하지 않을 수 있다. 즉, 이 경우에는, 상기 추가적인 기능을 제공하는 애플리케이션에서, 본 발명에 따른 기능이 선택된 경우에 한하여, 태그 편집 모드가 실행될 수 있다. 이러한 기능의 선택은, 사용자의 선택에 근거할 수 있다. 상기 추가적인 기능을 제공하는 애플리케이션에서는, 본 발명에 따른 기능이 링크된(또는 연관된) 기능 아이콘 또는 메뉴가 존재할 수 있다. 제어부(150)는, 이러한 기능 아이콘 또는 메뉴를 통한 사용자의 선택에 근거하여, 태그 편집 모드를 실행할 수 있다.As another example, when the application providing the function according to the present invention is an application that additionally provides other functions in addition to the function according to the present invention, the execution of the application does not mean that the tag editing mode has been executed. can That is, in this case, the tag editing mode may be executed only when the function according to the present invention is selected in the application providing the additional function. Selection of such a function may be based on a user's selection. In the application providing the additional function, a function icon or menu to which a function according to the present invention is linked (or related) may exist. The controller 150 may execute the tag editing mode based on the user's selection through the function icon or the menu.

한편, 태그 편집 모드를 실행하는 방법은, 위에서 살펴본 예들 외에도 다양한 적용 예들이 존재할 수 있으므로, 본 발명에서는, 태그 편집 모드를 실행하는 방법에 대하여 특별한 제한을 두지 않기로 한다.Meanwhile, since there may be various application examples in addition to the examples described above for the method of executing the tag editing mode, in the present invention, no particular limitation is placed on the method of executing the tag editing mode.

한편, 본 발명에서 태그를 삽입한다고 함은, 동영상 콘텐츠와 태그를 연관시키는 것으로서, 보다 구체적으로는, 정보 콘텐츠를 나타내는(또는 대표하는) 태그를 사용자가 인식할 수 있도록 하는 시각적인 처리를 수행하는 것을 의미할 수 있다. 이때, 시각적인 처리는, 태그를 포함하는 그래픽 객체(도 2의 (a) 220 참조)가, 동영상 콘텐츠의 적어도 일 재생구간에서 나타나도록 하는 그래픽 처리를 의미할 수 있다. 따라서, 본 발명에서는, “동영상 콘텐츠에 태그를 삽입한다”고 함은, “동영상 콘텐츠에 태그를 포함하는 그래픽 객체를 삽입한다” 라고도 표현할 수 있으며, 두 표현은 모두 동일한 기술적 의미를 갖는다.On the other hand, in the present invention, inserting a tag means associating a tag with video content, and more specifically, performing visual processing to allow a user to recognize a tag representing (or representing) information content. can mean that In this case, the visual processing may refer to graphic processing in which a graphic object including a tag (refer to 220 of FIG. 2 (a)) appears in at least one playback section of the moving picture content. Accordingly, in the present invention, "inserting a tag into video content" can also be expressed as "inserting a graphic object including a tag into video content", and both expressions have the same technical meaning.

한편, 그래픽 객체(220)는, 도 2의 (a)에 도시된 것과 같이, 태그(221, 222)를 포함하는 이미지로 이해되어질 수 있다. 본 발명에서 태그는, 특정 정보 콘텐츠를 대표하는 데이터 그 자체를 의미하며, 그 데이터가 시각화 된 것을 “그래픽 객체(220)”라고 표현할 수 있다. Meanwhile, the graphic object 220 may be understood as an image including tags 221 and 222 , as shown in FIG. 2A . In the present invention, the tag means data itself representing specific information content, and the visualized data may be expressed as a “graphic object 220”.

본 발명에서, 태그가 선택되었다 함은, 도 2의 (a)에 도시된 것과 같이, 전자기기(100c) 상에서 그래픽 객체(220)가 선택되었음을 의미할 수 있다. 반대로, 본 발명에서, 그래픽 객체(220)가 선택되었다 함은, 그래픽 객체(200)를 통해 나타내어지는 태그가 선택되었음을 의미할 수 있다. 이에, 본 명세서에서는, 그 선택되는 대상에 대한 엄격한 구분을 하지 않고, 혼용하여 사용하기로 한다.In the present invention, that the tag is selected may mean that the graphic object 220 is selected on the electronic device 100c as shown in FIG. 2A . Conversely, in the present invention, that the graphic object 220 is selected may mean that a tag displayed through the graphic object 200 is selected. Therefore, in the present specification, the selected object is not strictly distinguished, and will be used interchangeably.

한편, 앞선 설명에서, 태그와 특정 정보 콘텐츠가 상호 매칭되어 있음을 살펴보았다. 본 발명에 의하면, 태그와 특정 정보 콘텐츠가 상호 매칭되었음은, 곧 그래픽 객체와 특정 정보 콘텐츠가 상호 매칭되어 있는 것과 동일하게 해석될 수 있다.Meanwhile, in the preceding description, it has been examined that the tag and specific information content are matched with each other. According to the present invention, matching between a tag and specific information content can be interpreted as the same as matching between a graphic object and specific information content.

마찬가지로, “태그와 특정 정보 콘텐츠가 상호 연관된다”고 함은, “그래픽 객체와 정보 콘텐츠가 상호 연관된다”고도 이해되어 질 수 있다. 따라서, 본 발명에서는, 그래픽 객체를 통해 특정 정보 콘텐츠로 접근이 가능할 수 있다. 이 경우, 상기 그래픽 객체에 “특정 정보 콘텐츠로의 접근 경로에 대한 정보가 링크되었다” 라고도 표현될 수 있다.Similarly, “a tag and a specific information content are correlated” may also be understood as “a graphic object and an information content are correlated”. Accordingly, in the present invention, access to specific information content may be possible through a graphic object. In this case, it may also be expressed as "information on an access path to specific information content is linked" to the graphic object.

따라서, 도 2의 (a)에 도시된 것과 같이, 태그로서 삽입된 그래픽 객체(220)가 선택되는 경우, 도 2의 (b)에 도시된 것과 같이, 상기 태그에 매칭된 정보 콘텐츠(230)의 적어도 일부가 출력될 수 있다. Accordingly, when the graphic object 220 inserted as a tag is selected as shown in (a) of FIG. 2, as shown in (b) of FIG. 2, the information content 230 matched to the tag At least a part of may be output.

한편, 본 발명에서, 그래픽 객체(220)는 태그 그 자체만을 포함할 뿐만 아니라, 다양한 시각적인 요소(예를 들어, 형상, 색상, 크기 등과 관련된 요소)로 구성될 수 있으며, 이에 대해서는 뒷부분에서 보다 구체적으로 살펴보기로 한다.Meanwhile, in the present invention, the graphic object 220 not only includes the tag itself, but also may be composed of various visual elements (eg, elements related to shape, color, size, etc.), which will be described later. Let's take a look at it in detail.

이하에서는, 위에서 살펴본 내용을 기반으로, 도면들과 함께 동영상 콘텐츠에 대해 태그를 삽입하는 방법을 보다 구체적으로 살펴본다. 도 3은 본 발명에서 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 흐름도이고, 도 4는 도 3에서 살펴본 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 개념도이다. 도 5a, 도 5b, 도 5c, 도 6a, 도 6b 및 도 7은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그에 해당하는 그래픽 객체를 삽입하는 방법을 설명하기 위한 개념도들이다.Hereinafter, a method of inserting a tag for video content together with drawings based on the above description will be described in more detail. 3 is a flowchart illustrating a method of inserting a tag into video content in the present invention, and FIG. 4 is a conceptual diagram illustrating a method of inserting a tag into video content as shown in FIG. 3 . 5A, 5B, 5C, 6A, 6B, and 7 are conceptual diagrams for explaining a method of inserting a tag for video content and a method of inserting a graphic object corresponding to a tag in the system according to the present invention.

이하에서, 도면과 함께 설명되는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 동영상 콘텐츠에 대한 태그 삽입 시스템을 구현하는 애플리케이션(또는 소프트웨어)이 전자기기(100c)상에서 실행되어 있음을 전제로 이해되어질 수 있다. 따라서, 전자기기(100c) 상에, 본 발명의 수행을 위하여 출력되는 화면들은, 애플리케이션을 통해 제공되는 화면으로서, 본 발명에서는 이러한 화면을 “실행화면”이라고 명명할 수 있다.Hereinafter, the tag insertion method for video content according to the present invention, which will be described along with the drawings, assumes that an application (or software) implementing a tag insertion system for video content is executed on the electronic device 100c. can be understood Accordingly, screens output to the electronic device 100c for performing the present invention are screens provided through an application, and in the present invention, such screens may be referred to as “execution screens”.

먼저, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법에 의하면, 동영상 콘텐츠에 대한 태그 편집 모드를 실행하는 과정이 진행된다(S310, 도 3 참조). First, according to the method of inserting a tag for video content according to the present invention, a process of executing a tag editing mode for video content is performed (S310, see FIG. 3 ).

태그 편집 모드는, 전자기기(100c) 상에서 실행될 수 있다. 나아가, 앞서 살펴본 것과 같이, 태그 편집 모드는 동영상 콘텐츠에 태그를 삽입하기 위한 모드로서, 사용자의 선택에 근거하여 실행될 수 있다.The tag editing mode may be executed on the electronic device 100c. Furthermore, as described above, the tag editing mode is a mode for inserting tags into video content, and may be executed based on a user's selection.

일 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능만을 고유하게 수행하는 애플리케이션인 경우, 전자기기의 화면 상에서 상기 애플리케이션에 대응되는 아이콘이 선택되는 것에 근거하여, 태그 편집 모드가 실행될 수 있다.As an example, when the application providing the function according to the present invention is an application that uniquely performs only the function according to the present invention, based on an icon corresponding to the application being selected on the screen of the electronic device, the tag editing mode can be executed.

또 다른 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능 외에 다른 기능을 추가적으로 제공하는 애플리케이션인 경우, 상기 추가적인 기능을 제공하는 애플리케이션에서, 본 발명에 따른 기능이 선택되는 것에 근거하여, 태그 편집 모드가 실행될 수 있다. 이러한 기능의 선택은, 사용자의 선택에 근거할 수 있다. As another example, when the application providing the function according to the present invention is an application that additionally provides other functions in addition to the function according to the present invention, in the application providing the additional function, the function according to the present invention is selected Based on this, the tag editing mode can be executed. Selection of such a function may be based on a user's selection.

예를 들어, 상기 추가적인 기능을 제공하는 애플리케이션은 동영상 콘텐츠를 제작(또는 생성)하는 애플리케이션일 수 있다. 이 경우, 본 발명에 따른 기능은 동영상 콘텐츠를 제작하는데 활용될 수 있는 하나의 기능으로서 탑재될 수 있다. 이때, 제어부(150)는 동영상 콘텐츠를 제작하기 위한 제어 및 동영상 콘텐츠에 태그를 삽입하기 위한 제어를 모두 수행할 수 있다.For example, the application providing the additional function may be an application that creates (or creates) video content. In this case, the function according to the present invention may be loaded as one function that can be utilized to produce video content. In this case, the controller 150 may perform both a control for producing video content and a control for inserting a tag into the video content.

보다 구체적으로 살펴보면, 상기 동영상 콘텐츠를 제작(또는 생성)하는 애플리케이션에서는, 도 4의 (a)에 도시된 것과 같이, 본 발명에 따른 기능이 링크된(또는 연관된) 기능 아이콘(410) 또는 메뉴가 존재할 수 있다. 상기 태그 편집 모드는, 상기 동영상 콘텐츠의 편집을 위한 콘텐츠 편집 모드에서 발생되는 태그 삽입 요청 이벤트에 근거하여 실행될 수 있다. 제어부(150)는 전자기기(100c)에서 상기 기능 아이콘(410)이 선택되는 경우, 이를 태그 삽입 요청 이벤트가 발생했다고 판단할 수 있다. 그리고, 제어부(150)는 이러한 태그 삽입 요청 이벤트에 근거하여, 태그 편집 모드를 실행할 수 있다. 한편, 이러한 기능 아이콘(410)으로의 접근 경로는 매우 다양할 수 있으며, 본 도면에 한정되지 않는다.More specifically, in the application for producing (or generating) the video content, as shown in FIG. may exist. The tag editing mode may be executed based on a tag insertion request event generated in the content editing mode for editing the video content. When the function icon 410 is selected in the electronic device 100c, the controller 150 may determine that a tag insertion request event has occurred. Then, the controller 150 may execute the tag editing mode based on the tag insertion request event. On the other hand, the access path to the function icon 410 may be very diverse, and is not limited to this drawing.

도 4의 (a)에 도시된 것과 같이, 상기 콘텐츠 편집 모드에서 상기 전자기기(100c)의 디스플레이부에는, 콘텐츠 편집 실행화면이 출력되고, 상기 콘텐츠 편집 실행화면의 일 영역에는, 상기 동영상 콘텐츠의 편집과 관련된 적어도 하나의 기능 아이콘이 출력될 수 있다. 그리고, 상기 태그 삽입 요청 이벤트는, 상기 적어도 하나의 기능 아이콘 중 상기 태그 편집 모드의 실행 기능에 링크된 어느 하나의 기능 아이콘(410)이 선택되는 경우 발생될 수 있다.As shown in FIG. 4A , in the content editing mode, a content editing execution screen is output to the display unit of the electronic device 100c, and in one area of the content editing execution screen, the video content is displayed. At least one function icon related to editing may be output. In addition, the tag insertion request event may be generated when any one function icon 410 linked to the execution function of the tag editing mode is selected from among the at least one function icon.

한편, 본 도면에서는, 본 기능에 따른 태그 편집 모드를 실행하는 일 예를 설명한 것일 뿐, 위의 예에 본 발명이 구속되지 않는다. 태그 편집 모드가 실행된 이후의 단계는, 본 발명에 따른 기능이 고유의 애플리케이션으로서 제공되거나, 추가적인 기능을 제공하는 애플리케이션의 일 기능으로 제공되는 것에 관계없이 공통적으로 적용될 수 있다.Meanwhile, in this drawing, an example of executing the tag editing mode according to the present function has been described, and the present invention is not limited to the above example. The steps after the tag editing mode is executed may be commonly applied regardless of whether the function according to the present invention is provided as a unique application or as a function of an application that provides additional functions.

한편, 본 발명에 따른 태그 편집 모드는, 동영상 콘텐츠에 대하여 태그를 삽입하기 위한 것으로서, 본 발명에서 태그 편집을 수행하기 위해서는, 태그를 삽입할 동영상 콘텐츠의 특정이 이루어져야 한다. 이때, 상기 S310 단계는, 동영상 콘텐츠를 특정하는 과정까지를 포함할 수 있다. 즉, S310 단계는, 동영상 콘텐츠를 구성하는 영상을 선택받는 단계를 더 포함할 수 있다. 이와 같이, 동영상 콘텐츠의 특정은, 사용자에 의하여, 적어도 하나의 영상이 선택되는 것에 근거하여 이루어질 수 있다. 제어부(150)는 사용자에 의해 선택된 적어도 하나의 영상을 이용하여, 동영상 콘텐츠를 생성할 수 있다. 그리고, 이러한 동영상 콘텐츠를, 태그 편집의 대상이 되는 동영상 콘텐츠로서 특정할 수 있다. 이와 같이, 태그 편집의 대상이 되는 동영상 콘텐츠는, 사용자에 의해 선택된 영상에 대응되는 동영상 콘텐츠일 수 있다. On the other hand, the tag editing mode according to the present invention is for inserting tags into video content, and in order to perform tag editing in the present invention, the video content into which the tag is to be inserted must be specified. In this case, the step S310 may include up to the process of specifying the video content. That is, step S310 may further include a step of receiving a selection of an image constituting the video content. In this way, the specification of the video content may be made based on selection of at least one image by the user. The controller 150 may generate video content by using at least one image selected by the user. Then, such video content can be specified as video content to be subjected to tag editing. As described above, the video content to be edited by the tag may be video content corresponding to the image selected by the user.

여기에서, 사용자에 의해 선택된 영상은, 정적인 영상(static image) 또는 동적인 영상(또는 동영상, video) 중 적어도 하나일 수 있다. 이때, 사용자에 의해 선택된 영상이, 정적인 영상인 경우, 동영상 콘텐츠에는, 정적인 영상을 이용하여 생성된 동영상이 포함될 수 있다. 제어부(150)는, 사용자에 의해 선택된 영상이, 정적인 영상인 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 동적인 영상(또는 동영상)을 생성할 수 있다. 그리고, 제어부(150)는 상기 생성된 동적인 영상에 대해, 태그 삽입을 수행할 수 있다. 이때, 제어부(150)는, 상기 정적인 영상의 적어도 일부를 복사(copy) 또는 복제하여, 복수의 프레임을 생성함으로써, 상기 기 설정된 재생시간을 갖는 동적인 영상을 생성할 수 있다. 이와 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 사용자에 의해 선택된 영상의 유형에 구애받지 않고, 태그 삽입을 수행할 수 있다.Here, the image selected by the user may be at least one of a static image and a dynamic image (or moving picture, video). In this case, when the image selected by the user is a static image, the moving image content may include a moving image generated using the static image. When the image selected by the user is a static image, the controller 150 may generate a dynamic image (or a moving image) having a preset playback time by using the static image. Then, the controller 150 may insert a tag on the generated dynamic image. In this case, the controller 150 may generate a dynamic image having the preset playback time by copying or duplicating at least a portion of the static image to generate a plurality of frames. As described above, the tag insertion method for video content according to the present invention can perform tag insertion regardless of the type of image selected by the user.

위에서 살펴본 것과 같이, 본 발명에서 태그 삽입의 대상이 되는 동영상 콘텐츠는, 하나 또는 복수의 동영상으로 구성될 수 있다. 예를 들어, 도 6a에 도시된 것과 같이, 동영상 콘텐츠는 복수의 동영상(610, 620, 630)으로 이루어질 수 있다. 이러한 복수의 동영상의 구분은, 동영상 콘텐츠가 생성되기 전, 복수의 동영상들이 하나의 동영상 파일로 존재했는지 또는 별개의 동영상 파일로 존재했는지에 근거하여 이루어질 수 있다. 이와 같이, 본 발명에서는, 하나 또는 복수로 이루어진 동영상을 포함하는 동영상 콘텐츠의 적어도 일 구간에 대하여, 태그를 삽입하는 태그 편집 모드가 실행될 수 있다.As described above, in the present invention, video content targeted for tag insertion may consist of one or a plurality of videos. For example, as shown in FIG. 6A , video content may include a plurality of videos 610 , 620 , and 630 . The classification of the plurality of moving pictures may be made based on whether the plurality of moving pictures exist as one moving picture file or as separate moving pictures before the moving picture content is generated. As described above, in the present invention, a tag editing mode for inserting a tag may be executed for at least one section of video content including one or a plurality of videos.

한편, 태그 편집 모드의 실행은, 태그를 삽입할 동영상 콘텐츠가 특정된 후 이루어질 수 있다. 이와 반대로, 태그 편집 모드의 실행은, 동영상 콘텐츠가 특정되기 전 먼저 실행될 수 있다. 이 경우, 동영상 콘텐츠는, 태그 편집 모드가 실행된 후에, 선택될 수 있다. 나아가, 동영상 콘텐츠로서, 복수의 영상이 선택된 경우, 제어부(150)는 선택된 복수의 영상을 하나의 동영상 콘텐츠로서 합성하는 영상 처리를 수행할 수 있다.Meanwhile, the tag editing mode may be executed after the video content into which the tag is to be inserted is specified. Conversely, the execution of the tag editing mode may be executed first before the moving picture content is specified. In this case, the video content may be selected after the tag editing mode is executed. Furthermore, when a plurality of images are selected as moving image content, the controller 150 may perform image processing for synthesizing the selected plurality of images as one moving image content.

S310 과정에서 함께 살펴본 것과 같이, 동영상 콘텐츠가 특정되고, 태그 편집 모드가 실행된 경우, 본 발명에서는, 동영상 콘텐츠와 연관시킬 정보 콘텐츠에 대한 선택신호를 수신하는 과정이 진행된다(S320). 다시 말해, 태그 편집 모드가 실행된 전자기기(100c)에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 과정이 진행된다.As discussed together in step S310, when video content is specified and the tag editing mode is executed, in the present invention, a process of receiving a selection signal for information content to be associated with video content is performed (S320). In other words, in the electronic device 100c in which the tag editing mode is executed, a process of selecting information content to be associated with the video content is performed.

앞서 살펴본 것과 같이, 정보 콘텐츠는, 전자기기를 통해 나타낼 수 있는(또는 표현할 수 있는) 정보로서, 그 정보의 종류, 형태, 내용에 특별한 제한을 두지 않는다. 예를 들어, 전자문서, 웹페이지, 이미지, 동영상, E-book, URL(Uniform Resource Locator) 정보, 장소 정보, 쇼핑 정보 등도 모두 정보 콘텐츠라고 표현할 수 있다.As described above, information content is information that can be expressed (or can be expressed) through an electronic device, and there is no particular limitation on the type, form, or content of the information. For example, electronic documents, web pages, images, moving pictures, E-books, Uniform Resource Locator (URL) information, place information, shopping information, etc. may all be expressed as information content.

본 발명에서, 제어부(150)는 사용자로부터 정보 콘텐츠를 선택받을 수 있도록 하는 사용자 환경을 제공할 수 있다. 이러한, 사용자 환경에 따른 실행화면(420, 도 4 참조)통해, 제어부(150)는 사용자로부터 정보 콘텐츠를 선택받거나, 입력받을 수 있다.In the present invention, the control unit 150 may provide a user environment that allows the user to select information content. Through such an execution screen 420 (refer to FIG. 4 ) according to the user environment, the controller 150 may receive a selection or input of information content from the user.

여기에서, “정보 콘텐츠를 선택 받는다” 함은, 전자기기를 통해 제공가능한 정보 콘텐츠 중 적어도 하나를 동영상 콘텐츠에 태그로서 삽입할 정보로서 선택함을 의미한다. 이 경우, 정보 콘텐츠는 적어도 하나의 저장소(전자기기 및 외부 저장소를 모두 포함하는 개념임)에 저장되어 존재할 수 있다.Here, “receiving the selection of information content” means selecting at least one of information content that can be provided through the electronic device as information to be inserted into the video content as a tag. In this case, the information content may be stored in at least one storage (a concept including both an electronic device and an external storage).

또한, “정보 콘텐츠를 입력 받는다” 함은, 정보 콘텐츠의 원천이 사용자의 입력에 근거하는 것으로서, 예를 들어, 전자기기(100c)를 통해 사용자로부터 메모, URL주소 등의 정보가 입력되는 것을 의미한다. 이 경우, 정보 콘텐츠는 사용자가 입력한 정보 자체일 수 있다.In addition, "receiving information content" means that the source of the information content is based on the user's input, and for example, information such as a memo and URL address is input from the user through the electronic device 100c. do. In this case, the information content may be information itself input by the user.

한편, 본 발명에서는, “선택의 방식으로 정보 콘텐츠를 특정”하는 것을 “제1 방식으로 정보 콘텐츠를 선택한다”라고 표현하고, “입력의 방식으로 정보 콘텐츠를 특정”하는 것을 “제2 방식으로 정보 콘텐츠를 선택”한다고 표현할 수 있다. On the other hand, in the present invention, "specifying the information content by the method of selection" is expressed as "selecting the information content by the first method", and "specifying the information content by the method of input" is "specifying the information content by the method of the second method" It can be expressed as “select information content”.

한편, 제1 방식 또는 제2 방식 중 어느 방식으로 정보 콘텐츠를 선택할지는, 사용자의 선택에 근거할 수 있다. 제어부(150)는, 제1 방식 또는 제2 방식에 따라, 서로 다른 정보 콘텐츠 선택 화면을 제공할 수 있다.On the other hand, whether the information content is selected by either the first method or the second method may be based on the user's selection. The controller 150 may provide different information content selection screens according to the first method or the second method.

제어부(150)는 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. 이와 다르게, 제어부(150)는 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. When the information content is selected in the first manner, the controller 150 may search for the information content and provide a user environment for selecting at least one of the searched information as the information content. Alternatively, when the information content is selected in the second method, the controller 150 may provide a user environment for receiving the information content.

한편, 본 발명에서는, 정보 콘텐츠를 선택받기 위한 실행화면(420)을 도 4의 (b)에 도시된 것과 같이 구성할 수 있다. Meanwhile, in the present invention, the execution screen 420 for receiving selection of information content may be configured as shown in FIG. 4B .

제어부(150)는, 도 4의 (b)에 도시된 것과 같이, 실행화면(420) 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 표시할 수 있다. 도시와 같이, 복수의 카테고리 항목은, 장소, 쇼핑, 링크, 책, 영화, news, 여행 등과 같이 서로 다른 정보 카테고리에 해당할 수 있다. 본 발명에서는, 사용자가 정보 콘텐츠를 선택하는데 있어, 그 선택의 편의를 위하여, 정보 콘텐츠를 선택하는 과정에서, 정보의 카테고리를 일차적으로 선택하도록 할 수 있다. As shown in FIG. 4B , the controller 150 may display a plurality of category items respectively corresponding to different information categories on the execution screen 420 . Like a city, a plurality of category items may correspond to different information categories, such as places, shopping, links, books, movies, news, and travel. In the present invention, when a user selects information content, for the convenience of selection, a category of information can be primarily selected in the process of selecting information content.

이때, 각각의 카테고리에는 정보를 선택하는 방식이 기 설정되어 존재할 수 있다. 즉, 각각의 카테고리에는, 앞서 살펴본, 제1 방식 또는 제2 방식 중 어느 방식으로 각각의 카테고리에 해당하는 정보를 선택받을지 여부가 기 설정되어 존재할 수 있다.In this case, a method for selecting information may be preset in each category. That is, in each category, whether information corresponding to each category is to be selected by any of the above-described first method or second method may be preset.

예를 들어, “장소”항목에 해당하는 카테고리는, 도 8a에 도시된 것과 같이, 제1 방식인 “선택의 방식”으로 정보 콘텐츠를 특정하는 것으로 설정될 수 있다. 이 경우, 제어부(150)는 상기 “장소”항목이 선택되는 것에 근거하여, 장소와 관련된 정보를 검색하기 위한 실행화면(도 8a의 (b) 참조)을 제공할 수 있다. 그리고, 이러한 실행화면을 통해, 사용자는, 특정 장소를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택할 수 있다. 이렇게 선택된 정보는, 정보 콘텐츠로서 특정될 수 있다.For example, the category corresponding to the “place” item may be set to specify the information content by the “selection method” that is the first method, as shown in FIG. 8A . In this case, the controller 150 may provide an execution screen (refer to (b) of FIG. 8A ) for searching for information related to a place based on the selection of the “place” item. And, through this execution screen, the user may search for a specific place and select at least one of the searched information as information content. The information thus selected can be specified as information content.

다른 예로서, “링크”항목에 해당하는 카테고리는, 도 9에 도시된 것과 같이, 제2 방식인 “입력의 방식”으로 정보 콘텐츠를 특정하는 것으로 설정될 수 있다. 이 경우, 제어부(150)는 사용자로부터 정보를 입력받기 위한 실행화면(도 9의 (b) 참조)을 제공할 수 있다. 이와 같이, 본 발명에서는, 제1 및 제2 방식 중 어느 하나의 방식으로 정보 콘텐츠를 선택할 수 있다. As another example, the category corresponding to the “link” item may be set to specify the information content by the second method “input method” as shown in FIG. 9 . In this case, the controller 150 may provide an execution screen (refer to (b) of FIG. 9) for receiving information from the user. In this way, in the present invention, it is possible to select the information content by any one of the first and second methods.

한편, 제어부(150)는, 복수의 카테고리 중 어느 하나가 선택된 경우, 선택된 카테고리에 대응되는 방식으로 정보 콘텐츠가 선택될 수 있는 사용자 환경을 제공하되, 상기 사용자 환경을 통해 제공되는 정보는, 상기 선택된 카테고리에 대응되는 정보로 제한할 수 있다. Meanwhile, when any one of a plurality of categories is selected, the controller 150 provides a user environment in which information content can be selected in a manner corresponding to the selected category, and the information provided through the user environment is It can be limited to information corresponding to a category.

다시 말해 제어부(150)는, 도 4의 (b)에 도시된 것과 같이, 제1 방식으로 정보 콘텐츠를 선택하는 것이 설정된 제1 카테고리(예를 들어, “쇼핑” 카테고리)에 해당하는 항목(421)이 선택된 경우, 도 4의 (c)에 도시된 것과 같이, 쇼핑 정보를 검색할 수 있는 실행화면(또는 검색 화면, 430)을 제공할 수 있다. 그리고, 제어부(150)는 상기 실행화면(430)을 통해, 정보 검색을 위한 검색어(또는 정보)가 입력된 경우(예를 들어, “”상기 검색어와 연관된 쇼핑 정보를 검색할 수 있다. 즉, 이 경우, 제어부(150)는, 상기 검색어와 연관된 다른 종류(예를 들어, 사전 정보, 인물 정보 등)의 정보가 존재하더라도, 쇼핑 정보만을 검색결과로서 출력할 수 있다.In other words, as shown in (b) of FIG. 4 , the control unit 150 includes an item 421 corresponding to a first category (eg, a “shopping” category) in which information content selection is set in a first manner. ) is selected, as shown in (c) of FIG. 4 , an execution screen (or search screen, 430 ) for searching shopping information may be provided. In addition, when a search word (or information) for information search is input through the execution screen 430 , the controller 150 may search for shopping information related to the search word, for example, “”. In this case, the controller 150 may output only shopping information as a search result even if other types of information (eg, dictionary information, person information, etc.) related to the search word exist.

즉, 제어부(150)는, 상기 실행 화면(430)을 통해 검색어가 입력되면, 해당 검색어를 상품을 검색하기 위한 정보로서 인식할 수 있다. 그리고, 상기 입력된 검색어에 대응되는 상품 판매와 관련된 정보를 정보 콘텐츠로서 검색할 수 있다.That is, when a search word is input through the execution screen 430 , the controller 150 may recognize the search word as information for searching for a product. In addition, information related to product sales corresponding to the inputted search word may be searched as information content.

이와 같이, 제어부(150)는, 카테고리가 선택된 후, 정보 콘텐츠를 검색하기 위한 정보(예를 들어, 검색어)가 추가적으로 입력되면, 제어부(150)는, 상기 추가적으로 입력된 정보(예를 들어, 검색어)에 대응되면서, 상기 일차적으로 선택된 카테고리에 해당하는 정보를 검색할 수 있다. 즉, 제어부(150)는 사용자로부터 서로 다른 정보 카테고리 중 어느 하나가 선택된 경우, 선택된 카테고리에 대응되는 정보 콘텐츠를 제공할 수 있다.As such, when information (eg, a search word) for searching information content is additionally input after a category is selected, the controller 150 controls the additionally input information (eg, a search word) ), it is possible to search for information corresponding to the firstly selected category. That is, when any one of different information categories is selected by the user, the controller 150 may provide information content corresponding to the selected category.

이와 같이, 정보 콘텐츠가 검색된 경우, 제어부(150)는 검색된 정보 콘텐츠 중 적어도 하나를 선택받을 수 있다(도 4의 (c), 431 참조). 정보 콘텐츠의 선택은, 도시와 같이, 정보 콘텐츠에 각각 대응되는 항목들 중 어느 하나의 항목(431)이 선택되는 것에 의하여 이루어질 수 있다. 상기 항목(431)의 선택은, 상기 항목(431)에 링크된 웹페이지, 또는 전자문서 페이지를 선택하는 것일 수 있다. 예를 들어, 제어부(150)는 상기 항목(431)이 선택되는 것에 근거하여, 상기 항목(431)에 대응되는 상품 판매 페이지(예를 들어, “나이스 런닝화” 상품 판매 페이지)를 정보 콘텐츠로서 특정할 수 있다. 이때, 상기 선택은, 전자기기(100c)를 통해, 사용자에 의하여 이루어질 수 있으며, 제어부(150)는 상기 사용자의 선택에 따른 선택 신호를 수신할 수 있다.In this way, when the information content is searched, the controller 150 may receive at least one selected from the searched information content (refer to FIG. 4(c), 431 ). The selection of the information content may be performed by selecting any one item 431 from among the items corresponding to the information content, respectively, as shown in the figure. The selection of the item 431 may be selecting a web page linked to the item 431 or an electronic document page. For example, based on the selection of the item 431 , the controller 150 specifies a product sales page (eg, a “nice running shoes” product sales page) corresponding to the item 431 as information content. can do. In this case, the selection may be made by the user through the electronic device 100c, and the control unit 150 may receive a selection signal according to the user's selection.

이와 같이, 사용자의 선택에 기반하여, 적어도 하나의 정보 콘텐츠가 특정된 경우, 특정된 정보 콘텐츠에 대응되는 태그를 포함한 그래픽 객체를 생성하는 과정이 진행된다(S330). As such, when at least one information content is specified based on the user's selection, a process of generating a graphic object including a tag corresponding to the specified information content is performed (S330).

태그를 포함하는 그래픽 객체를 생성하기 위하여, 제어부(150)는 특정된 정보 콘텐츠와 관련된 태그를 생성할 수 있다. 앞서 살펴본 것과 같이, “태그(tag)”란, “특정 정보 콘텐츠”를 나타내는(또는 대표하는, 요약하는) 정보를 의미한다. In order to generate a graphic object including a tag, the controller 150 may generate a tag related to the specified information content. As described above, “tag” refers to information representing (or representing, summarizing) “specific information content”.

제어부(150)는, 특정 정보 콘텐츠에 포함된 정보 중 적어도 일부를 추출하여, 태그로서 설정할 수 있다. 예를 들어, 제어부(150)는 도 4의 (c)에 선택된 항목(431)에 대응되는 정보 콘텐츠로부터 적어도 일부를 추출할 수 있다. 제어부(150)는 정보 콘텐츠로부터 텍스트 또는 이미지 중 적어도 하나를 추출할 수 있다. 예를 들어, 제어부(150)는, 정보 콘텐츠로부터, “나이스 런닝화”라는 텍스트와 이미지 중 적어도 하나를 추출할 수 있다. 그리고, 추출된 정보를 이용하여, 태그를 생성(또는 설정)할 수 있다.The controller 150 may extract at least a portion of information included in specific information content and set it as a tag. For example, the controller 150 may extract at least a portion from the information content corresponding to the item 431 selected in (c) of FIG. 4 . The controller 150 may extract at least one of text and an image from the information content. For example, the control unit 150 may extract at least one of the text “nice running shoes” and an image from the information content. And, using the extracted information, it is possible to create (or set) a tag.

제어부(150)는, 텍스트가 추출된 경우, 추출된 텍스트 자체를 태그로서 설정할 수 있다. 또한, 제어부(150)는 이미지가 추출된 경우, 추출된 이미지 자체를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있고, 이와 다르게, 추출된 이미지에 대해 썸네일(thumbnail)이미지(도 4의 (d) 442 참조)를 생성하여, 썸네일 이미지를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.When the text is extracted, the controller 150 may set the extracted text itself as a tag. In addition, when an image is extracted, the controller 150 may set the extracted image itself as a tag of the specific information content, and differently, a thumbnail image (Fig. 4(d) 442 of the extracted image). reference) to set the thumbnail image as a tag of the specific information content.

이와 같이, 태그가 생성(또는 설정)되는 경우, 제어부(150)는 태그와 특정 정보 콘텐츠를 상호 연관시킬 수 있다. 여기에서, “상호 연관시킨다”는 것은 상호 매칭하는 것을 의미할 수 있다. 태그와 정보 콘텐츠와의 연관관계는 앞서, 도 1 및 도2와 함께 살펴본 설명으로 대체하도록 한다.In this way, when a tag is generated (or set), the controller 150 may correlate the tag with specific information content. Here, “correlating” may mean matching with each other. The relation between the tag and the information content will be replaced with the description previously described with reference to FIGS. 1 and 2 .

한편, 정보 콘텐츠로부터 어떠한 정보가 태그를 설정하기 위한 정보로서 추출될지 여부는, 기 설정된 기준 또는 기 설정된 알고리즘에 근거할 수 있다. 또한, 제어부(150)는, 특정 정보 콘텐츠와 연관시킬 태그에 해당하는 정보를, 사용자로부터 입력받을 수 있다. 그리고, 사용자로부터 입력받은 정보를, 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.Meanwhile, whether information is extracted from the information content as information for setting a tag may be based on a preset criterion or a preset algorithm. Also, the control unit 150 may receive information corresponding to a tag to be associated with specific information content from the user. Then, the information received from the user can be set as a tag of the specific information content.

이와 같이, 태그의 설정(또는 생성)이 완료되면, 제어부(150)는 태그(도 4의 (d), 441, 442 참조)를 포함하는 그래픽 객체(도 4의 (d), 420)를 생성할 수 있다. 제어부(150)는, 상기 그래픽 객체(420)가 선택되는 경우, 상기 특정 정보 콘텐츠가 출력될 수 있도록, 상기 그래픽 객체(420, 또는 상기 태그)에 상기 특정 정보 콘텐츠를 링크할 수 있다. 여기에서, “상기 그래픽 객체에 상기 특정 정보 콘텐츠를 링크” 한다는 것은, 상기 그래픽 객체에 상기 특정 정보 콘텐츠로의 접근 경로에 해당하는 링크 정보를 연결시키는 것을 의미할 수 있다.In this way, when the setting (or generation) of the tag is completed, the controller 150 creates a graphic object (see (d) and 420 of FIG. 4 ) including the tag (refer to (d), 441, and 442 of FIG. 4 ). can do. When the graphic object 420 is selected, the controller 150 may link the specific information content to the graphic object 420 or the tag so that the specific information content may be output. Here, “linking the specific information content to the graphic object” may mean linking link information corresponding to an access path to the specific information content to the graphic object.

한편, 정보 콘텐츠, 태그 및 그래픽 객체 간의 상호 연관 관계에 대한 설명 역시, 앞서 도 1 및 도2와 함께 살펴본 설명으로 대체하도록 한다.On the other hand, the description of the correlation between the information content, the tag, and the graphic object will also be replaced with the description previously described with reference to FIGS. 1 and 2 .

그래픽 객체(420)는, 도 4의 (d)에 도시된 것과 같이, 태그 그 자체(441, 442)만을 포함할 뿐만 아니라, 다양한 시각적인 요소(예를 들어, 형상, 색상, 크기 등과 관련된 요소)로 구성될 수 있다. 제어부(150)는 기 설정된 크기, 형상 및 색상으로 이루어지는 그래픽 객체를 생성하며, 이러한 그래픽 객체는, 태그(441, 442)를 포함할 수 있다. The graphic object 420, as shown in (d) of FIG. 4, not only includes only the tags themselves 441 and 442, but also various visual elements (eg, elements related to shape, color, size, etc.) ) can be composed of The controller 150 generates a graphic object having a preset size, shape, and color, and the graphic object may include tags 441 and 442 .

제어부(150)는 정보 콘텐츠의 카테고리에 따라, 그래픽 객체의 크기, 형상 및 색상 중 적어도 하나를 다르게 설정할 수 있다. The controller 150 may set at least one of a size, a shape, and a color of a graphic object differently according to a category of information content.

본 발명에서는, 복수의 카테고리 항목 각각에는 서로 다른 색상 정보가 매칭되어 존재할 수 있다. 이러한 매칭과 관련된 정보(또는 매칭 정보)는 저장부(130)에 저장되어 존재할 수 있다. 제어부(150)는, 이러한 매칭 정보에 근거하여, 특정 정보 콘텐츠가 속한 카테고리에 매칭된 색상으로, 그래픽 객체의 배경 색상(또는 색상)을 설정할 수 있다. 즉, 제어부(150)는, 상기 서로 다른 색상 정보 중 특정 정보 콘텐츠가 속한 카테고리 항목에 매칭된 색상 정보에 기반하여, 상기 특정 정보 콘텐츠의 태그를 포함하는 그래픽 객체의 배경 색상을 설정할 수 있다. 따라서, 카테고리가 서로 상이한 정보 콘텐츠의 경우, 그래픽 객체의 색상 또한 상이할 수 있다. 이와 같이, 카테고리 별로 배경 색상을 상이하게 하는 경우, 사용자는, 어떤 종류의 정보가 태그되었는지 여부를 색상만으로도 쉽게 인지할 수 있다.In the present invention, different color information may be matched to each of a plurality of category items. Information related to such matching (or matching information) may be stored in the storage unit 130 . The controller 150 may set the background color (or color) of the graphic object as a color matched to the category to which the specific information content belongs, based on the matching information. That is, the controller 150 may set a background color of a graphic object including a tag of the specific information content based on color information matched to a category item to which the specific information content belongs among the different color information. Accordingly, in the case of information content having different categories, the color of the graphic object may also be different. In this way, when the background color is different for each category, the user can easily recognize what type of information is tagged with only the color.

한편, 본 발명에서는, 그래픽 객체의 크기, 형상 및 색상 중 적어도 하나를 사용자의 선택에 근거하여 변경할 수 있다. 예를 들어, 도 7의 (a) 및 (b)에 도시된 것과 같이, 제어부(150)는 그래픽 객체의 색상을 설정받기 위한 인터페이스(예를 들어, 선택 영역(710))를 제공할 수 있다. 그리고, 제어부(150)는 상기 선택 영역(710)을 통해 사용자로부터 어느 하나의 항목(예를 들어, 도 7의 (a) 711 또는 도 7의 (b) 712)이 선택된 경우, 선택된 항목에 대응되는 색상으로 그래픽 객체의 배경 색상을 변경할 수 있다(예를 들어, 도 7의 (a)에 도시된 그래픽 객체(720) 또는 도 7의 (b)에 도시된 그래픽 객체(730) 참조).Meanwhile, in the present invention, at least one of a size, a shape, and a color of a graphic object may be changed based on a user's selection. For example, as shown in (a) and (b) of FIG. 7 , the controller 150 may provide an interface (eg, the selection area 710 ) for setting the color of the graphic object. . In addition, when any one item (eg, (a) 711 of FIG. 7 or (b) 712 of FIG. 7 ) is selected by the user through the selection area 710 , the control unit 150 corresponds to the selected item. It is possible to change the background color of the graphic object to a color to be used (for example, refer to the graphic object 720 shown in FIG. 7(a) or the graphic object 730 shown in FIG. 7(b)).

한편, 제어부(150)는, 사용자의 선택에 근거하여, 그래픽 객체의 배경 색상이 변경된 경우, 변경된 이후, 새로 생성되는 그래픽 객체의 배경 색상을, 상기 사용자에 의해 선택된 색상으로 설정할 수 있다. 이는 사용자의 선호 색상을 반영하기 위함이다. 이때, 제어부(150)는, 새롭게 생성되는 모든 그래픽 객체의 배경 색상을 상기 선택된 색상으로 설정하는 것이 아니라, 상기 배경 색상이 변경된 그래픽 객체와 관련성이 있는 그래픽 객체가 새롭게 생성되는 경우에 한하여, 새롭게 생성되는 그래픽 객체의 배경 색상을 상기 선택된 색상으로 설정할 수 있다.Meanwhile, when the background color of the graphic object is changed based on the user's selection, the controller 150 may set the background color of the newly created graphic object to the color selected by the user after the change. This is to reflect the user's preferred color. In this case, the control unit 150 does not set the background colors of all newly created graphic objects to the selected color, but only when a graphic object related to the graphic object whose background color has been changed is newly created. The background color of the graphic object to be used may be set to the selected color.

이때, 상기 배경 색상이 변경된 그래픽 객체(이하, “제1 그래픽 객체”라 명명함)와 관련성이 있는 그래픽 객체(이하, “제2 그래픽 객체”라 명명함)는, 정보 콘텐츠의 카테고리에 근거하여 결정될 수 있다. 즉, 제어부(150)는, 상기 제1 그래픽 객체에 링크된 정보 콘텐츠(또는 특정 정보 콘텐츠)의 카테고리와, 동일한 카테고리에 속하는 정보 콘텐츠가 링크된 제2 그래픽 객체의 배경 색상을, 상기 선택된 색상으로 설정할 수 있다.At this time, the graphic object (hereinafter, referred to as “second graphic object”) related to the graphic object whose background color has been changed (hereinafter referred to as “first graphic object”) is based on the category of information content. can be decided. That is, the controller 150 sets the category of information content (or specific information content) linked to the first graphic object and the background color of the second graphic object to which information content belonging to the same category is linked as the selected color. can be set.

한편, 위에서 살펴본 것과 같이, 태그를 포함하는 그래픽 객체가 생성되면, 동영상 콘텐츠의 특정 재생구간 동안 그래픽 객체가 출력되도록, 동영상 콘텐츠에 그래픽 객체를 삽입하는 과정이 진행된다(S340).Meanwhile, as described above, when a graphic object including a tag is created, a process of inserting the graphic object into the moving picture content is performed so that the graphic object is output during a specific playback section of the moving picture content (S340).

도 4의 (d)에 도시된 것과 같이, 동영상 콘텐츠에는, 태그(441, 442)를 포함하는 그래픽 객체(440)가 삽입될 수 있다.As illustrated in (d) of FIG. 4 , a graphic object 440 including tags 441 and 442 may be inserted into the video content.

제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체(440)를 오버랩하는 그래픽 처리를 수행할 수 있다.The controller 150 may perform a graphic process of overlapping the graphic object 440 on at least one frame corresponding to the specific playback section among a plurality of frames included in the moving picture content.

보다 구체적으로, 도 5a에 도시된 것과 같이, 동영상 콘텐츠는, 복수의 프레임(frame)으로 구성되며, 제어부(150)는, 복수의 프레임 중 특정 재생 구간(T1)에 포함된 적어도 하나의 프레임(511, 512, 513, 514, 515)에 그래픽 객체(520)를 오버랩 할 수 있다. 한편, 동영상 콘텐츠를 구성하는 프레임은 이미지(image)라고도 명명될 수 있다. More specifically, as shown in FIG. 5A , the video content consists of a plurality of frames, and the controller 150 controls at least one frame ( The graphic object 520 may be overlapped with 511 , 512 , 513 , 514 , and 515 . Meanwhile, a frame constituting video content may also be referred to as an image.

본 발명에서, 그래픽 객체(520)가 동영상 콘텐츠(또는 프레임)에 오버랩된다고 함은, 그래픽 객체(520)를 동영상 콘텐츠(또는 프레임)에 합성하는 그래픽 처리가 수행됨을 의미할 수 있다.In the present invention, when the graphic object 520 overlaps with the moving picture content (or frame), it may mean that graphic processing for synthesizing the graphic object 520 with the moving picture content (or frame) is performed.

한편, 상기 그래픽 객체가 삽입되는 적어도 하나의 프레임은, 상기 동영상 콘텐츠에서 상기 그래픽 객체의 출력이 시작되는 시작 프레임(511) 및 상기 시작 프레임(511)과 연속하며, 상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임(512, 513, 514, 515)으로 구성될 수 있다. 상기 시작 프레임(511) 및 적어도 하나의 연관 프레임(512, 513, 514, 515)은 상기 특정 재생 구간 동안 재생되는 프레임들에 해당한다.Meanwhile, the at least one frame into which the graphic object is inserted is continuous with the start frame 511 and the start frame 511 at which the output of the graphic object starts in the moving picture content, and includes at least one of the frames included in the specific playback section. It may be composed of one associated frame (512, 513, 514, 515). The start frame 511 and at least one related frame 512 , 513 , 514 , and 515 correspond to frames reproduced during the specific reproduction period.

제어부(150)는 특정 재생 구간을 벗어난 프레임들(516, 517)에 대해서는, 그래픽 객체를 오버랩하지 않을 수 있다. 이러한 특정 재생 구간은, 사용자의 선택 또는 제어부의 제어 하에 설정 또는 변경될 수 있다.The controller 150 may not overlap the graphic object with respect to the frames 516 and 517 that are out of a specific playback section. Such a specific playback section may be set or changed under a user's selection or under the control of a controller.

한편, 제어부(150)는, 시작 프레임의 기 설정된 제1 위치에 상기 그래픽 객체를 삽입하도록 이루어진다. 여기에서, 제1 위치는, 기 설정된 위치라고도 표현될 수 있다. 기 설정된 위치는, 시스템 상에서 기본으로 설정된 위치(또는 디폴트(default)로 설정된 위치)일 수 있다.Meanwhile, the controller 150 is configured to insert the graphic object at a preset first position of the start frame. Here, the first position may also be expressed as a preset position. The preset location may be a location set as a default on the system (or a location set as a default).

도 5c의 (a)에 도시된 것과 같이, 기 설정된 제1 위치는, 제1 좌표(x1, x2)에 해당하는 위치일 수 있다. 본 발명에서 좌표는, 프레임에 대한 절대좌표를 의미할 수 있다. 그래픽 객체(520)는, 시작 프레임 및 연관 프레임에서 상기 제1 좌표(x1, x2)에 따른 제1 위치에 출력될 수 있다. 나아가, 제어부(150) 도 5c의 (a)에 도시된 것과 같이, 전자기기(100c)를 통한 터치 입력을 통해, 상기 시작 프레임의 상기 제1 위치에 삽입된 상기 그래픽 객체(520)가, 상기 제1 위치와 다른 제2 위치(예를 들어, 도 5c의 (b)에 도시된 제2 좌표(x2, y2))로 이동되는 경우, 상기 시작 프레임 상에서 그래픽 객체(520)의 삽입 위치를 상기 제2 좌표(x2, y2)에 따른 상기 제2 위치로 보정할 수 있다. 이때, 제어부(150)는, 상기 그래픽 객체(520)의 삽입 위치가, 상기 시작 프레임 상에서 변경되는 것에 연동하여, 연관 프레임에서의 상기 그래픽 객체(520)의 삽입 위치 변경할 수 있다. 제어부(150)는, 연관 프레임에서의 그래픽 객체(520)의 출력 위치가, 상기 시작 프레임에서의 출력 위치와 동일하도록, 상기 연관 프레임의 상기 제2 위치에 상기 그래픽 객체(520)를 삽입할 수 있다. As illustrated in (a) of FIG. 5C , the preset first position may be a position corresponding to the first coordinates (x1, x2). In the present invention, coordinates may mean absolute coordinates with respect to a frame. The graphic object 520 may be output to a first position according to the first coordinates (x1, x2) in the start frame and the related frame. Furthermore, as shown in (a) of FIG. 5C , the graphic object 520 inserted in the first position of the start frame through a touch input through the electronic device 100c is When moving to a second position different from the first position (eg, the second coordinates (x2, y2) shown in (b) of FIG. 5C), the insertion position of the graphic object 520 on the start frame is the The second position according to the second coordinates (x2, y2) may be corrected. In this case, the controller 150 may change the insertion position of the graphic object 520 in the related frame in association with the change in the insertion position of the graphic object 520 on the start frame. The controller 150 may insert the graphic object 520 in the second position of the related frame so that the output position of the graphic object 520 in the related frame is the same as the output position in the start frame. have.

위의 설명에서는, 시작 프레임에서 그래픽 객체의 삽입 위치가 변경되는 경우에 대하여 살펴보았으나, 본 발명에서는 이에 한정되지 않는다. 즉, 제어부(150)는, 시작 프레임 및 연관프레임 중 어느 하나에서 그래픽 객체의 삽입 위치가 변경되는 경우, 나머지 프레임에 대해서도 그래픽 객체의 삽입 위치를 변경할 수 있다.In the above description, the case where the insertion position of the graphic object is changed in the start frame has been described, but the present invention is not limited thereto. That is, when the insertion position of the graphic object is changed in any one of the start frame and the related frame, the controller 150 may change the insertion position of the graphic object in the remaining frames as well.

다음으로, 그래픽 객체가 출력되는 “특정 재생 구간”에 대하여 살펴보면, 특정 재생 구간은, i) 동영상 콘텐츠의 어느 재생시점부터 그래픽 객체를 출력할지에 대한 시작 시점 및 ii) 상기 시작 시점으로부터, 얼만큼의 재생 시간 동안 그래픽 객체의 출력을 유지할지에 대한 출력 유지 시간에 의하여 특정될 수 있다.Next, looking at the “specific playback section” in which the graphic object is output, the specific playback section includes: i) a starting point of which playback point of video content to output a graphic object, and ii) how much from the starting point It can be specified by the output retention time for whether to keep the output of the graphic object during the playback time of .

특정 재생 구간에 포함된 적어도 하나의 프레임은, i) 동영상 콘텐츠를 구성하는 복수의 프레임들 중 상기 시작 시점에 대응되는 시작 프레임 및 상기 시작 시점으로부터 상기 출력 유지 시간 사이에 포함된 적어도 하나의 연관 프레임으로 구성될 수 있다.The at least one frame included in the specific playback section includes: i) a start frame corresponding to the start time among a plurality of frames constituting the moving picture content, and at least one related frame included between the start time and the output holding time can be composed of

한편, 위에서 살펴본, 시작 시점 및 출력 유지 시간 중 적어도 하나는 사용자의 선택에 근거하여 변경되거나, 설정되는 것이 가능하다.Meanwhile, at least one of the start time and the output holding time as described above may be changed or set based on a user's selection.

먼저, 시작 시점이 특정되는 경우를 살펴보면, 제어부(150)는, 앞서 살펴본, 태그 삽입 요청 이벤트가 발생한 시점에 근거하여, 그래픽 객체의 출력이 시작되는 시작 시점을 특정할 수 있다. 보다 구체적으로, 제어부(150)는, 동영상 콘텐츠를 구성하는 복수의 프레임 중, 태그 삽입 요청 이벤트가 발생한 시점에 상기 전자기기(100c)에서 출력되고 있었던 프레임(도 4의 (a) 및 도 5의 511 참조)을, 시작 프레임으로 설정할 수 있다. 그리고, 제어부(150)는 상기 동영상 콘텐츠 내에서의 상기 시작 프레임의 재생 시점을, 특정 재생 구간의 시작 시점으로 설정할 수 있다. 한편, 본 발명은, 위에서 살펴본 방법 외에도, 다양한 방법으로 시작 시점 및 시작 프레임을 설정하거나, 선택받을 수 있다.First, referring to the case where the start time is specified, the controller 150 may specify the start time at which the output of the graphic object starts based on the above-described time point at which the tag insertion request event occurs. More specifically, the controller 150 controls, among a plurality of frames constituting the moving picture content, a frame that was output from the electronic device 100c at the time when the tag insertion request event occurred (FIGS. 4(a) and 5). 511) can be set as the start frame. In addition, the controller 150 may set the playback time of the start frame in the moving picture content as the start time of a specific playback section. Meanwhile, according to the present invention, in addition to the method described above, the start time and start frame may be set or selected by various methods.

다음으로, 특정 재생 구간을 설정하는 방법에 대하여 살펴보면, 제어부(150)는 상기 시작 시점으로부터 기 설정된 시간만큼을 특정 재생 구간으로 설정할 수 있다.Next, referring to a method of setting a specific playback section, the controller 150 may set a preset time from the start time as a specific playback section.

이때, 상기 기 설정된 시간은, 시스템 상에서 기본으로 설정된 시간(또는 디폴트(default)로 설정된 시간)일 수 있다.In this case, the preset time may be a time set as a default on the system (or a time set as a default).

예를 들어, 앞서 살펴본 것과 같이, 사용자에 의해 선택된 정적인 영상이 기 설정된 재생시간을 갖는 동영상으로 변환된 경우, 제어부(150)는, 상기 기 설정된 재생시간 동안 상기 변환된 동영상에 대하여, 그래픽 객체를 삽입할 수 있다. 이때, 상기 특정 재생 구간은, 상기 기 설정된 재생 시간에 대응될 수 있다.For example, as described above, when a static image selected by the user is converted into a moving picture having a preset playback time, the controller 150 may generate a graphic object for the converted moving image during the preset playback time. can be inserted. In this case, the specific playback section may correspond to the preset playback time.

이와 다르게, 제어부(150)는, 상기 시작 시점으로부터, 특정 재생 구간을 설정하기 위한 시간정보를 사용자로부터 선택받을 수 있다.Alternatively, the controller 150 may receive, from the start time, time information for setting a specific playback section, selected by the user.

예를 들어, 도 5b에 도시된 것과 같이, 제어부(150)는 특정 재생 구간을 설정받기 위한 인터페이스(예를 들어, 설정 영역(530))를 제공할 수 있다. For example, as shown in FIG. 5B , the controller 150 may provide an interface (eg, a setting area 530 ) for setting a specific playback section.

특정 재생 구간은, “재생 유지 시간”을 선택받는 것에 의하여 특정될 수 있다. 제어부(150)는 상기 선택 영역(530)을 통해 사용자로부터 어느 하나의 항목(예를 들어, 도 5b(a)의 533 항목, 또는 도 5b(b)의 531 항목)이 선택된 경우, 선택된 항목에 대응되는 시간만큼을, 그래픽 객체가 출력되는 재생 구간(또는 출력 유지 시간)으로 설정할 수 있다. 이때, 상기 그래픽 객체가 출력되는 특정 재생 구간은, 상기 시작 프레임에 대응되는 시작 시점부터, 상기 선택된 재생 유지 시간(예를 들어, 3초)까지에 해당하는 재생 구간일 수 있다.A specific playback section may be specified by selecting a “reproduction holding time”. When any one item (for example, item 533 of FIG. 5B(a) or item 531 of FIG. 5B(b)) is selected by the user through the selection area 530, the control unit 150 selects the selected item. A corresponding amount of time may be set as a reproduction section (or output holding time) in which a graphic object is output. In this case, the specific reproduction section in which the graphic object is output may be a reproduction section corresponding to the selected reproduction holding time (eg, 3 seconds) from the start time corresponding to the start frame.

보다 구체적으로, 도 5b의 (b)에 도시된 것과 같이, “초”에 해당하는 항목(531)이 선택된 경우, 제어부(150)는, 기 특정된 시작 시점으로부터 3초에 해당하는 재생구간에 포함된 프레임들에 그래픽 객체(520)를 삽입할 수 있다. 즉, 제어부(150)는, 동영상 콘텐츠 중, 상기 기 특정된 시작 시점에 대응되는 시작 프레임 및 상기 3초에 대응되는 재생 구간에 포함된 적어도 하나의 프레임(또는 연관 프레임)에 그래픽 객체(520)를 삽입할 수 있다.More specifically, as shown in (b) of FIG. 5B , when the item 531 corresponding to “seconds” is selected, the controller 150 performs a playback section corresponding to 3 seconds from the specified start time. The graphic object 520 may be inserted into the included frames. That is, the control unit 150 includes the graphic object 520 in at least one frame (or related frame) included in the start frame corresponding to the predetermined start time and the playback section corresponding to the 3 seconds of the video content. can be inserted.

한편, 본 발명에서 제어부(150)는 동영상 단위로 그래픽 객체를 삽입할 수 있다. 예를 들어, 도 6a에 도시된 것과 같이, 동영상 콘텐츠는 복수의 동영상(610, 620, 630)으로 이루어질 수 있다. 이러한 복수의 동영상의 구분은, 동영상 콘텐츠가 생성되기 전, 복수의 동영상들이 하나의 동영상 파일로 존재했는지 또는 별개의 동영상 파일로 존재했는지에 근거하여 이루어질 수 있다. Meanwhile, in the present invention, the controller 150 may insert a graphic object in units of moving pictures. For example, as shown in FIG. 6A , video content may include a plurality of videos 610 , 620 , and 630 . The classification of the plurality of moving pictures may be made based on whether the plurality of moving pictures exist as one moving picture file or as separate moving pictures before the moving picture content is generated.

제어부(150)는, 위에서 살펴본 것과 같이, 복수의 동영상 중, 기 특정된 시작 프레임(611)을 포함하는 특정 동영상(610)에 대해서만 그래픽 객체(611a)를 삽입할 수 있다. 제어부(150)는, 상기 기 특정된 시작 프레임(611)부터 시작되는 상기 특정 동영상(610)의 잔여 재생 시간이, 상기 선택된 재생 시간(예를 들어, 3초)보다 짧은 경우, 상기 잔여 재생 시간에 해당하는 프레임들에 대해서만, 그래픽 객체(611)를 삽입할 수 있다.As described above, the controller 150 may insert the graphic object 611a only into a specific moving image 610 including a pre-specified start frame 611 among a plurality of moving images. The control unit 150 is, when the remaining playback time of the specific video 610 starting from the specified start frame 611 is shorter than the selected playback time (eg, 3 seconds), the remaining playback time Only for frames corresponding to , the graphic object 611 may be inserted.

따라서, 본 발명에 의하면, 동영상 콘텐츠가 재생되는 경우, 상기 특정 동영상(610)의 상기 특정 재생 구간에 대해서만, 그래픽 객체(611a)가 출력될 수 있다(또는 나타날 수 있다). 그리고, 상기 동영상 콘텐츠에서 상기 특정 동영상(610)과 다른 동영상(620)이 재생되는 경우, 상기 그래픽 객체(611a)는 전자기기(100c)에서 사라질 수 있다. 여기에서, 그래픽 객체(611a)가 전자기기(100c)에서 사라진다고 함은, 전자기기(100c)에 더 이상 출력되지 않음을 의미한다.Accordingly, according to the present invention, when moving picture content is reproduced, the graphic object 611a may be output (or may appear) only for the specific playback section of the specific moving picture 610 . Also, when a moving picture 620 different from the specific moving picture 610 is reproduced in the moving picture content, the graphic object 611a may disappear from the electronic device 100c. Here, the disappearance of the graphic object 611a from the electronic device 100c means that it is no longer output to the electronic device 100c.

한편 본 발명에서는, 그래픽 객체의 출력이 시작되는 시작 시점이 기 특정되었더라도 이를 변경할 수 있다. 제어부(150)는 도 5b에서 살펴본 인터페이스를 통한 사용자 선택에 근거하여, 그래픽 객체의 출력이 시작되는 시작 시점 및 출력 유지 시간을 모두 설정할 수 있다.Meanwhile, in the present invention, even if the starting time point at which the output of the graphic object starts is specified in advance, it can be changed. The controller 150 may set both a start time point at which the output of a graphic object starts and an output holding time based on a user selection through the interface shown in FIG. 5B .

나아가, 본 발명에서 제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 전체에 대하여, 그래픽 객체(520)를 삽입할 수 있다. Furthermore, in the present invention, the controller 150 may insert the graphic object 520 into all of the plurality of frames included in the moving picture content.

예를 들어, 도 5b의 (a)에 도시된 것과 같이, “클립 전체”에 해당하는 항목(533)이 선택된 경우, 제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 전체에 대하여, 그래픽 객체(520)를 삽입할 수 있다. For example, as shown in (a) of FIG. 5B , when an item 533 corresponding to “all clips” is selected, the controller 150 controls the graphic An object 520 may be inserted.

이때, 제어부(150)는, 도 6a에 도시된 것과 같이, 동영상 콘텐츠가 복수의 동영상(610, 620, 630)으로 구성된 경우, 상기 복수의 동영상(610, 620, 630) 중, 앞서 살펴본 기 특정된 시작 프레임(611)을 포함하는 특정 동영상(610)을 구성하는 전체 프레임들에 대해서만, 그래픽 객체(611a)를 삽입할 수 있다. 즉, 앞서 살펴본 연관 프레임은, 상기 특정 동영상(610)을 구성하는 프레임으로 한정될 수 있다. At this time, as shown in FIG. 6A , when the moving image content is composed of a plurality of moving images 610 , 620 , and 630 , the controller 150 determines the group specified above among the plurality of moving images 610 , 620 , 630 . The graphic object 611a may be inserted only for all frames constituting the specific moving picture 610 including the starting frame 611 . That is, the related frame discussed above may be limited to a frame constituting the specific moving picture 610 .

이와 같이, 도 5b의 (a)에서 살펴본, “클립 전체”란, 동영상 콘텐츠 전체가 아닌, 동영상 콘텐츠를 구성하는 복수의 동영상(610, 620, 630) 중 어느 하나일 수 있다.As described above, as described in (a) of FIG. 5B , “the entire clip” may be any one of the plurality of moving images 610, 620, and 630 constituting the moving image content, not the entire moving image content.

예를 들어, 도 6b를 살펴보면, 동영상 콘텐츠는 제1, 제2 및 제3 동영상(610, 620, 630)을 포함하고, 동영상 단위로 그래픽 객체(611a, 621a)가 삽입되었음을 알 수 있다. 예를 들어, 제1 동영상은, 제1 동영상을 구성하는 전체 프레임에 대하여 그래픽 객체(611a)가 삽입되어 있고, 제2 동영상은, 특정 재생 구간에 포함된 일부 프레임(621, 622, 623, 624)에 대해서만 그래픽 객체(612a)가 삽입되어 있다. 그리고, 제3 동영상은, 그래픽 객체가 삽입되어 있지 않다. 이와 같이, 본 발명에서는, 동영상 콘텐츠를 구성하는 개별 동영상 단위로 그래픽 객체의 삽입이 이루어질 수 있다.For example, referring to FIG. 6B , it can be seen that moving picture content includes first, second, and third moving pictures 610 , 620 , and 630 , and graphic objects 611a and 621a are inserted in units of moving pictures. For example, in the first video, a graphic object 611a is inserted with respect to all frames constituting the first video, and in the second video, some frames 621, 622, 623, 624 included in a specific playback section are inserted. ), only the graphic object 612a is inserted. And, in the third moving picture, no graphic object is inserted. As described above, in the present invention, graphic objects may be inserted in units of individual moving pictures constituting moving image content.

한편, 본 발명에 의하면, 동영상 콘텐츠를 구성하는 복수의 동영상에 대하여, 동일한 정보 콘텐츠에 해당하는 태그 삽입 요청이 각각 수신된 경우에는, 복수의 동영상에 동일한 그래픽 객체가 삽입될 수 있음은 물론이다. Meanwhile, according to the present invention, when a tag insertion request corresponding to the same information content is received with respect to a plurality of moving images constituting the moving image content, the same graphic object may be inserted into the plurality of moving images, of course.

나아가, 이상의 실시 예들에서는, 하나의 동영상에 하나의 그래픽 객체를 삽입하는 예에 대해 살펴보았으나, 본 발명에서는, 사용자의 요청에 근거하여, 하나의 동영상에 복수의 그래픽 객체를 삽입하는 것 또한 가능하다. 이 경우, 그래픽 객체의 출력위치, 출력시점, 재생 시점 등은, 모두 사용자의 선택에 근거하여 다양하게 변경 또는 설정될 수 있다. Furthermore, in the above embodiments, an example of inserting one graphic object into one moving picture has been described, but in the present invention, it is also possible to insert a plurality of graphic objects into one moving image based on a user's request. do. In this case, an output position, an output time, a reproduction time, etc. of the graphic object may be variously changed or set based on a user's selection.

위에서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템은, 동영상 콘텐츠를 구성하는 복수의 프레임에 정보 콘텐츠와 연관된 태그를 포함하는 그래픽 객체를 추가함으로써, 동영상 콘텐츠가 재생되는 동안, 추가적인 정보를 제공할 수 있다. 이때, 정보 콘텐츠는, 동영상 콘텐츠를 제작하는 사용자에 의하여 선택된 정보일 수 있으며, 이를 통해 사용자는, 동영상 콘텐츠와 함께 제공하고자 하는 정보를, 보다 직관적으로 제3 자에게 전달할 수 있다.As described above, the method and system for inserting tags for video content according to the present invention add graphic objects including tags related to information content to a plurality of frames constituting the video content, so that while the video content is played, Additional information may be provided. In this case, the information content may be information selected by a user who produces the video content, and through this, the user can more intuitively transmit information to be provided together with the video content to a third party.

또한, 본 발명에서는, 동영상 콘텐츠의 재생 구간 중 그래픽 객체가 포함되는 특정 재생 구간을 사용자의 선택에 근거하여 설정함으로써, 사용자의 의도에 따라, 추가적인 정보가 제공되는 시점을 조절할 수 있다. 이를 통해, 사용자는, 재생되고 있는 부분과 연관되도록 정보 콘텐츠를 추가할 수 있다. 나아가, 이와 같이 제작된 동영상 콘텐츠를 이용하는 제3 자(또는 사용자)는, 동영상 콘텐츠의 재생부분과 연관된 정보 콘텐츠를 제공받을 수 있으며, 이를 통해, 별도로 정보 콘텐츠를 검색하기 위한 노력을 줄일 수 있다.In addition, in the present invention, by setting a specific playback section in which graphic objects are included among the playback sections of moving picture content based on the user's selection, the timing at which additional information is provided can be adjusted according to the user's intention. Through this, the user can add information content to be associated with the part being reproduced. Furthermore, a third party (or a user) using the video content produced in this way may be provided with information content related to the playback portion of the video content, thereby reducing the effort to separately search for the information content.

한편, 앞선 설명에서, S320단계에서 정보 콘텐츠를 선택하는 방법에 대하여 살펴보았다. 이하에서는, 정보 콘텐츠가 선택되거나, 입력되는 과정에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 8a, 도 8b, 도 8c 및 도 9는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그로서 삽입할 정보 콘텐츠를 선택하는 방법을 설명하기 위한 개념도들이다.Meanwhile, in the previous description, a method of selecting information content in step S320 has been described. Hereinafter, a process of selecting or inputting information content will be described in more detail with accompanying drawings. 8A, 8B, 8C and 9 are conceptual diagrams for explaining a method for inserting a tag into video content and a method for selecting information content to be inserted as a tag in the system according to the present invention.

본 발명에서, “정보 콘텐츠를 선택 받는다” 함은, 전자기기를 통해 제공가능한 정보 콘텐츠 중 적어도 하나를 동영상 콘텐츠에 태그로서 삽입할 정보로서 선택함을 의미한다.In the present invention, “information content is selected” means selecting at least one of information content that can be provided through an electronic device as information to be inserted as a tag into video content.

본 발명에서는, “선택의 방식으로 정보 콘텐츠를 특정”하는 것을 “제1 방식으로 정보 콘텐츠를 선택한다”라고 표현하고, “입력의 방식으로 정보 콘텐츠를 특정”하는 것을 “제2 방식으로 정보 콘텐츠를 선택”한다고 표현할 수 있다. In the present invention, "specifying the information content by the method of selection" is expressed as "selecting the information content in the first manner", and "specifying the information content by the method of input" is "information content in the second manner" It can be expressed as “choose

앞서 살펴본 것과 같이, 제1 방식 또는 제2 방식 중 어느 방식으로 정보 콘텐츠를 선택할지는, 사용자의 선택에 근거할 수 있다. 제어부(150)는, 제1 방식 또는 제2 방식에 따라, 서로 다른 정보 콘텐츠 선택 화면을 제공할 수 있다.As described above, which method of the first method or the second method is used to select the information content may be based on the user's selection. The controller 150 may provide different information content selection screens according to the first method or the second method.

제어부(150)는 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. 이와 다르게, 제어부(150)는 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. When the information content is selected in the first manner, the controller 150 may search for the information content and provide a user environment for selecting at least one of the searched information as the information content. Alternatively, when the information content is selected in the second method, the controller 150 may provide a user environment for receiving the information content.

나아가, 본 발명에서는, 사용자가 정보 콘텐츠를 선택하는데 있어, 그 선택의 편의를 위하여, 정보 콘텐츠를 선택하는 과정에서, 정보의 카테고리를 일차적으로 선택하도록 할 수 있다. Furthermore, in the present invention, when a user selects information content, for the convenience of selection, a category of information can be primarily selected in the process of selecting information content.

이때, 각각의 카테고리에는 정보를 선택하는 방식이 기 설정되어 존재할 수 있다. 즉, 각각의 카테고리에는, 앞서 살펴본, 제1 방식 또는 제2 방식 중 어느 방식으로 각각의 카테고리에 해당하는 정보를 선택받을지 여부가 기 설정되어 존재할 수 있다.In this case, a method for selecting information may be preset in each category. That is, in each category, whether information corresponding to each category is to be selected by any of the above-described first method or second method may be preset.

예를 들어, 제1 방식과 같이, 검색의 방식으로 정보 콘텐츠를 선택하는 카테고리는, 장소, 쇼핑, 책, 영화, 뉴스, 검색 엔진(검색 포털 사이트) 내에서의 정보, SNS(social network service)에 게시된 정보 검색, 사용자의 계정과 연결되어 웹 상에 게시된 정보 검색 등과 관련된 카테고리일 수 있다.For example, as in the first method, categories for selecting information content in a search method include places, shopping, books, movies, news, information in a search engine (search portal site), and social network service (SNS). It may be a category related to information retrieval posted on .

다음으로, 제2 방식과 같이, 사용자 입력의 방식으로 정보 콘텐츠를 선택하는 카테고리는, URL, 외부 링크, 질문, 투표, 날씨, 날짜 등의 입력과 관련된 카테고리일 수 있다.Next, as in the second method, a category for selecting information content by a user input method may be a category related to input of URL, external link, question, vote, weather, date, and the like.

제어부(150)는, 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. When the information content is selected in the first manner, the controller 150 may provide a user environment for searching for the information content and selecting at least one of the searched information as the information content.

제어부(150)는, 상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 표시하고, 상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받을 수 있다. 그리고, 상기 전자기기 상에, 상기 어느 하나의 카테고리 항목에 대응되는 정보 콘텐츠를 검색하기 위한 검색 화면을 표시할 수 있다. 그리고, 제어부(150)는, 상기 검색 화면을 통해 검색 정보(또는 검색어)가 입력된 경우, 상기 어느 하나의 카테고리 항목에 대응되는 카테고리에 해당하며, 상기 검색 정보와 관련된 정보 콘텐츠를 검색할 수 있다. 그리고, 상기 검색된 정보 콘텐츠 중 어느 하나의 정보 콘텐츠가 선택되면, 제어부(150)는, 동영상 콘텐츠에 상기 어느 하나의 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 삽입할 수 있다.The controller 150 may display a plurality of category items respectively corresponding to different information categories on the electronic device, and receive a selection of any one category item from among the plurality of category items. In addition, a search screen for searching information content corresponding to the one category item may be displayed on the electronic device. In addition, when search information (or a search word) is input through the search screen, the controller 150 may search for information content related to the search information that corresponds to a category corresponding to one of the category items. . And, when any one information content among the searched information content is selected, the controller 150 may insert a graphic object including a tag corresponding to the one information content into the moving picture content.

예를 들어, 도 8a의 (a)에 도시된 것과 같이, “장소”항목(811)이 선택되는 경우, 제어부(150)는, 장소와 관련된 정보를 검색하기 위한 실행화면(도 8a의 (b) 참조)을 전자기기(100c)에 출력할 수 있다. 이때, 실행화면에는, 전자기기(100c)의 현재 위치(예를 들어, “경기도 성남시 분당구 XX로”)와 관련된 정보(813)가 출력될 수 있다. 제어부(150)는 전자기기(100c)에 구비된 위치 정보 수집 모듈을 이용하여, 전자기기(100c)이 현재 위치 정보를 수집하고, 수집된 정보를 전자기기(100c)에 출력할 수 있다.For example, as shown in (a) of FIG. 8A , when the “place” item 811 is selected, the controller 150 controls an execution screen (FIG. 8A(b)) for searching for information related to a place. ) can be output to the electronic device 100c. In this case, information 813 related to the current location of the electronic device 100c (eg, “to XX Bundang-gu, Seongnam-si, Gyeonggi-do”) may be output on the execution screen. The controller 150 may use the location information collection module provided in the electronic device 100c to collect the current location information of the electronic device 100c and output the collected information to the electronic device 100c.

한편, 비록 도시되지 않았으나, 제어부(150)는, “장소”항목(811)이 선택된 경우, 장소와 관련된 정보를 검색하기 위한 실행화면 상에, 동영상 콘텐츠에 포함된 장소 정보에 대응되는 항목을 더 표시할 수 있다.Meanwhile, although not shown, when the “place” item 811 is selected, the controller 150 adds an item corresponding to the place information included in the video content on the execution screen for searching for information related to the place. can be displayed

이때, 동영상 콘텐츠에 포함된 장소 정보는, 동영상 콘텐츠의 메타 데이터(meta data)로서, 존재하는 정보일 수 있다. 이때, 장소 정보는, 동영상 콘텐츠가 실제 촬영된 장소 일 수 있으며, 동영상 콘텐츠를 촬영한 전자기기에 의해 수집된 정보일 수 있다.In this case, the place information included in the video content may be information that exists as meta data of the video content. In this case, the place information may be a place where the moving image content was actually shot, or information collected by an electronic device that has captured the moving image content.

한편, 제어부(150)는, 도 8a의 (c)에 도시된 것과 같이, 실행화면(820)을 통해, 검색어(또는 검색 정보)를 입력받고, 도 8b의 (a)에 도시된 것과 같이, 검색 정보(예를 들어, “정자동 파크뷰”)에 대응되는 장소 관련 정보 콘텐츠를 검색할 수 있다. 제어부(150)는, 검색된 정보 콘텐츠를 표시할 때, 위에서 상기 전자기기의 현재 위치 정보를 이용할 수 있다. 제어부(150)는, 검색된 장소 관련 정보 콘텐츠 중 상기 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시할 수 있다. 이때, 정보 콘텐츠(또는 장소 관련 정보 콘텐츠)의 출력은, 정보 콘텐츠 그 자체가 아니라, 정보 콘텐츠에 각각 대응되는 항목들로 출력될 수 있다. 즉, 정보 콘텐츠는, 리스트 형식으로 출력될 수 있다.On the other hand, as shown in (c) of FIG. 8A, the control unit 150 receives a search word (or search information) through the execution screen 820, and as shown in (a) of FIG. 8B, A place-related information content corresponding to the search information (eg, “Jeongja-dong Park View”) may be searched. The controller 150 may use the current location information of the electronic device from above when displaying the searched information content. The controller 150 may display the searched place-related information content in the order closest to the current location of the electronic device among the searched place-related information content. In this case, the output of the information content (or the place-related information content) may be output as items respectively corresponding to the information content, not the information content itself. That is, the information content may be output in the form of a list.

한편, 비록 도시되지는 않았지만, 제어부(150)는, 장소 관련 정보 콘텐츠에 각각 대응되는 항목들을 정렬할 때, 다양한 기준을 적용할 수 있다.Meanwhile, although not shown, the controller 150 may apply various criteria when arranging items corresponding to each of the place-related information content.

즉, 위에서 살펴본 것과 같이, 제어부(150)는 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시함은 물론, 상기 전자기기의 장소 선택 히스토리 정보에 근거하여, 상기 장소 관련 정보 콘텐츠를 정렬할 수 있다.That is, as described above, the control unit 150 displays the searched place-related information contents in the order closest to the current location of the electronic device, as well as the place-related information based on the place selection history information of the electronic device. You can sort the content.

이때, “장소 관련 정보 콘텐츠를 정렬”한다고 함은, 상기 장소 관련 정보 콘텐츠에 각각 대응되는 항목들에 대한 정렬을 수행하는 것을 의미할 수 있다.In this case, “arranging the place-related information content” may mean sorting items corresponding to the place-related information content, respectively.

한편, 장소 선택 히스토리 정보는, 상기 전자기기에서 선택되었던 장소에 대한 히스토리 정보로서, 제어부(150)는, 전자기기 상에서 장소(또는 장소 정보)가 선택될 때마다, 이에 대한 히스토리 정보를 수집할 수 있다. 여기에서, 상기 전자기기에서 선택되었던 장소(또는 장소 정보)는, 상기 전자기기에서 검색된 장소(또는 장소정보)까지 포함할 수 있다.On the other hand, the place selection history information is history information on a place that has been selected in the electronic device, and the controller 150 may collect history information about the place (or place information) whenever a place (or place information) is selected on the electronic device. have. Here, the place (or place information) selected from the electronic device may include even a place (or place information) searched for by the electronic device.

보다 구체적으로, 장소 선택 히스토리 정보는, 상기 전자기기에서 가장 최근에 선택된 장소 정보(또는 최근 장소 정보) 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보(또는 장소 선택 횟수 정보) 중 적어도 하나를 포함할 수 있다.More specifically, the place selection history information includes at least one of information on the most recently selected place in the electronic device (or recent place information) and information on the number of times of selection (or information on the number of times of place selection) for the place selected by the electronic device. can do.

여기에서, 제어부(150)는, 전자기기에서 특정 장소가 선택될 때마다, 선택된 장소에 대한 선택 횟수 카운팅을 수행할 수 있다. 따라서, 제어부(150)는 선택된 장소가 상기 전자기기에서 몇회 선택되었는지에 대한 히스토리 정보를 보유할 수 있다.Here, whenever a specific place is selected in the electronic device, the controller 150 may count the number of times of selection for the selected place. Accordingly, the controller 150 may retain history information on how many times the selected place is selected by the electronic device.

이와 같이, 제어부(150)는, 상기 장소 관련 정보 콘텐츠를 출력할 때, 사용자가 관심있어 할 만한 요소들, 예를 들어, 사용자로부터 가장 가까운 장소, 사용자가 가장 최근에 검색 또는 선택한 장소, 사용자가 가장 많이 검색 또는 선택한 장소를 우선하여 표시할 수 있다. In this way, when outputting the place-related information content, the control unit 150 includes elements that the user may be interested in, for example, a place closest to the user, a place most recently searched or selected by the user, and a user You can prioritize the most searched or selected places.

한편, 제어부(150)는, 장소 관련 정보 콘텐츠를 표시할 때, 상기 전자기의 현재 위치정보, 상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 중 어느 하나를 고려하거나, 또는 적어도 두개를 고려할 수 있다.Meanwhile, when displaying the place-related information content, the controller 150 selects any one of the electromagnetic current location information, the most recently selected place information in the electronic device, and information on the number of times of selection for the place selected in the electronic device. or at least two of them.

예를 들어, 제어부(150)는, 상기 전자기기의 현재 위치정보, 상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 간에 우선순위를 두어 장소 정보 관련 컨텐츠를 표시할 수 있다.For example, the control unit 150 gives priority among the current location information of the electronic device, the most recently selected place information in the electronic device, and information on the number of times of selection for the place selected in the electronic device, and selects content related to place information. can be displayed

예를 들어, 제어부(150)는, 상기 전자기기의 현재 위치정보 정보를 우선하여 고려하되, 동일한 거리에 있는 장소가 복수개 존재하는 경우, 차선으로 상기 전자기기에서 가장 최근에 선택된 장소 정보를 고려할 수 있다.For example, the control unit 150 gives priority to the current location information information of the electronic device, but if there are a plurality of places at the same distance, the most recently selected place information in the electronic device may be considered as a lane. have.

나아가, 도 8b의 (a)에 도시된 것과 같이, 검색된 정보 콘텐츠에 대응되는 항목들 중 어느 하나의 항목(831)이 선택된 경우, 제어부(150)는, 기 특정된 동영상 콘텐츠에 대해 태그를 삽입할 수 있다. 이때, 삽입되는 태그는, 다시 말해, 태그를 포함하는 그래픽 객체일 수 있다. 즉, 도 8b의 (b)에 도시된 것과 같이, 제어부(150)는 상기 어느 하나의 항목(831)에 대응되는 정보 콘텐츠와 관련된 태그를 생성하고, 생성된 태그를 포함하는 그래픽 객체(850)를 동영상 콘텐츠(840)에 삽입할 수 있다.Furthermore, as illustrated in (a) of FIG. 8B , when any one item 831 is selected from among the items corresponding to the searched information content, the controller 150 inserts a tag into the specified video content. can do. In this case, the inserted tag may be, in other words, a graphic object including the tag. That is, as shown in (b) of FIG. 8B , the controller 150 generates a tag related to information content corresponding to any one of the items 831, and a graphic object 850 including the generated tag. may be inserted into the video content 840 .

한편, 본 발명에서는, 입력된 검색어에 따른 검색이 이루어진 경우, 도 8c에 도시된 것과 같이, 검색 결과에 대응되는 정보 콘텐츠를, 모두 표시하지 않고, 정보 콘텐츠 각각에 대응되는 항목으로 표시할 수 있다. 이러한 항목은 도시와 같이, 리스트 형식으로 출력될 수 있다. 이때, 제어부(150)는, 각각의 항목에 기능 아이콘(870)을 출력시킬 수 있다. 이러한, 기능 아이콘(870)이 선택된 경우, 제어부(150)는, 도 8c의 (b)에 도시된 것과 같이, 선택된 기능 아이콘(870)이 포함된 항목(예를 들어, “토다이 분당점” 정보 콘텐츠 항목)에 링크된 정보 콘텐츠(880)를 출력할 수 있다. 즉, 제어부(150)는 리스트 상에서, 정보 콘텐츠로 바로 접근이 가능한 사용자 환경을 제공함으로써, 사용자가 정확한 정보 콘텐츠를 선택하도록 유도할 수 있다.On the other hand, in the present invention, when a search is made according to an inputted search word, as shown in FIG. 8C , information content corresponding to the search result is not displayed, but items corresponding to each information content can be displayed. . These items can be output in the form of a list, as shown. In this case, the controller 150 may output a function icon 870 to each item. When the function icon 870 is selected, the control unit 150, as shown in (b) of FIG. 8C , an item including the selected function icon 870 (eg, “Todai Bundang Branch” information) The information content 880 linked to the content item) may be output. That is, the controller 150 may induce the user to select the correct information content by providing a user environment in which direct access to the information content is possible on the list.

다음으로, 제어부(150)는, 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. 예를 들어, 도 9의 (a)에 도시된 것과 같이, “링크”항목(911)이 선택된 경우, 제어부(150)는 도 9의 (b)에 도시된 것과 같이, 링크 정보를 입력받기 위한 실행화면을 출력할 수 있다. 이때, 실행화면은, 링크 정보 입력 영역(920)을 포함할 수 있다. 링크 정보 입력 영역(920)는 도 9의 (c)에 도시된 과같이, 사용자로부터 입력된 정보가 출력될 수 있다. 사용자로부터의 정보 입력은, 전자기기(100c)를 통해 이루어질 수 있으며, 도시와 같이, 가상의 키보드(930)를 통하여 입력되는 것 또한 가능하다. Next, when the information content is selected in the second method, the controller 150 may provide a user environment for receiving the information content. For example, when the “link” item 911 is selected as shown in FIG. Execution screen can be output. In this case, the execution screen may include a link information input area 920 . In the link information input area 920 , as shown in FIG. 9C , information input by the user may be output. Information input from the user may be made through the electronic device 100c, and as illustrated, it is also possible to input through the virtual keyboard 930 .

이와 같이, 사용자로부터 정보가 입력된 경우, 제어부(150)는 사용자로부터 입력된 정보를 정보 콘텐츠로서 특정할 수 있다. 제어부(150), 도 9의 (d)에 도시된 것과 같이, 사용자로부터 입력된 정보 중 적어도 일부를 태그로 생성하고, 생성된 태그를 포함하는 그래픽 객체(960)를 동영상 콘텐츠(950)에 삽입할 수 있다. 한편, 제어부(150)는, 사용자로부터 정보가 입력된 경우, 입력된 정보를, 선택된 카테고리에 대응되는 정보로 처리할 수 있다. 예를 들어, “링크”항목이 선택된 경우, 입력된 정보를 링크 정보로서 처리할 수 있다. 링크 정보로서 처리한다고 함은, 제어부(150)가 링크 정보를 URL주소로 인식하고, 입력된 정보에 대응되는 웹페이지로 바로 접근 가능하도록, 그래픽 객체(960)와 URL 주소를 링크하는 것을 의미할 수 있다. 이 경우, 그래픽 객체(960)가 선택된 경우, 사용자로부터 입력된 정보(예를 들어, 링크 정보(또는 URL주소)에 해당하는 웹페이지가 전자기기(100c) 상에 출력될 수 있다.In this way, when information is input from the user, the controller 150 may specify the information input from the user as information content. As shown in (d) of FIG. 9 , the controller 150 generates at least some of the information input by the user as a tag, and inserts a graphic object 960 including the generated tag into the video content 950 . can do. Meanwhile, when information is input from the user, the controller 150 may process the input information as information corresponding to the selected category. For example, when the “link” item is selected, the input information may be processed as link information. Processing as link information means that the control unit 150 recognizes the link information as a URL address, and links the graphic object 960 with the URL address so that the web page corresponding to the input information can be directly accessed. can In this case, when the graphic object 960 is selected, a web page corresponding to information input by the user (eg, link information (or URL address)) may be output on the electronic device 100c.

한편, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법을 통해, 태그가 삽입된 동영상 콘텐츠는, 다양한 전자기기에서 출력되는 것이 가능하다. 이하에서는, 위에서 살펴본 방식으로 제작된 동영상 콘텐츠가 임의의 전자기기에서 재생되는 경우, 태그로서 삽입된 그래픽 객체를 통해 정보 콘텐츠가 출력되는 방법에 대하여 보다 구체적으로 살펴본다. 도 10 및 도 11은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 정보 콘텐츠를 출력하는 방법을 설명하기 위한 개념도들이다.On the other hand, through the tag insertion method for video content according to the present invention, the video content with the tag inserted can be output from various electronic devices. Hereinafter, a method of outputting information content through a graphic object inserted as a tag when the video content produced by the method described above is reproduced in any electronic device will be described in more detail. 10 and 11 are conceptual diagrams for explaining a method for inserting a tag into video content and a method for outputting information content in the system according to the present invention.

본 발명에 따른 동영상 콘텐츠는, 다양한 전자기기에서 재생될 수 있으며, 동영상 콘텐츠에 삽입된 그래픽 객체는, 앞서 살펴본 특정 재생 구간에서 동영상 콘텐츠가 재생되는 중에 함께 출력될 수 있다. 이러한 동영상 콘텐츠는, 전자기기(100c)에 설치된 동영상 재생 관련 애플리케이션을 통해 재생될 수 있다.The moving picture content according to the present invention may be reproduced in various electronic devices, and the graphic object inserted into the moving picture content may be output together while the moving picture content is being reproduced in the specific playback section discussed above. Such video content may be played through a video playback related application installed in the electronic device 100c.

예를 들어, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 동영상 콘텐츠가 재생되고 있던 전자기기(100c)의 디스플레이부는, 도 10의 (a)에 도시된 것과 같이, 적어도 두개의 영역(1010, 1020)으로 분할 될 수 있다. 여기에서, 상기 전자기기의 일 영역(1010)에서는, 상기 동영상 콘텐츠가 계속하여 출력되고, 상기 전자기기의 다른 일 영역(1020)에서는 상기 그래픽 객체(1030)에 링크된 정보 콘텐츠가 출력될 수 있다. For example, as shown in (a) of FIG. 2 , when the graphic object 220 inserted into the video content is selected, the display unit of the electronic device 100c in which the video content is being reproduced is shown in FIG. 10 (a) ), it may be divided into at least two regions 1010 and 1020. Here, in one area 1010 of the electronic device, the video content may be continuously output, and in another area 1020 of the electronic device, information content linked to the graphic object 1030 may be output. .

한편, 사용자의 요청에 근거하여, 상기 적어도 두개의 영역(1010, 1020) 중 어느 하나의 영역에 포함된 정보의 출력이 종료될 수 있다. 이 경우, 디스플레이부는 더 이상 분할되지 않고, 하나의 영역으로 존재할 수 있다. 이때, 디스플레이부에는, 상기 적어도 두개의 영역 중, 상기 어느 하나의 영역과 다른 영역에 포함되었던 정보가 계속하여 출력될 수 있다. Meanwhile, output of information included in any one of the at least two areas 1010 and 1020 may be terminated based on a user's request. In this case, the display unit is no longer divided and may exist as one area. In this case, information included in the one area and another area among the at least two areas may be continuously output to the display unit.

이와 다르게, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 상기 그래픽 객체(220)에 링크된 정보 콘텐츠를 포함하는 팝업 윈도우(미도시됨)가 전자기기에 출력될 수 있다. 이때, 팝업 윈도우가 출력되더라도, 동영상 콘텐츠의 재생은 계속하여 유지될 수 있다. 나아가, 팝업 윈도우는 사용자의 요청에 근거하여, 출력이 종료될 수 있다.Alternatively, as shown in (a) of FIG. 2 , when the graphic object 220 inserted into the moving picture content is selected, a pop-up window (not shown) including the information content linked to the graphic object 220 . may be output to the electronic device. In this case, even if the pop-up window is output, the reproduction of the video content may be continuously maintained. Furthermore, output of the pop-up window may be terminated based on a user's request.

또한, 이와 다르게, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 동영상 콘텐츠가 재생되고 있던 전자기기(100c)의 디스플레이부는, 도 10의 (b)에 도시된 것과 같이, 그래픽 객체에 링크된 정보 콘텐츠(1040)가 출력될 수 있다. 이때, 전자기기(100c)의 제어부는, 상기 동영상 콘텐츠의 재생 화면을, 정보 콘텐츠 출력 화면으로 전환할 수 있다. 이 경우, 제어부는, 상기 정보 콘텐츠 출력화면의 적어도 일 영역에, 동영상 콘텐츠(1050)를 출력할 수 있다. 이러한 동영상 콘텐츠(1050)는, 팝업 윈도우를 통해 출력될 수 있다. Alternatively, as shown in (a) of FIG. 2 , when the graphic object 220 inserted into the moving image content is selected, the display unit of the electronic device 100c from which the moving image content is being reproduced is shown in FIG. As shown in b), the information content 1040 linked to the graphic object may be output. In this case, the controller of the electronic device 100c may switch the playback screen of the video content to the information content output screen. In this case, the controller may output the video content 1050 to at least one region of the information content output screen. Such video content 1050 may be output through a pop-up window.

나아가, 전자기기에서 본 발명을 통해 생성된 동영상 콘텐츠가 재생되는 경우, 도 11의 (a)에 도시된 것과 같이, 전자기기의 일 영역에는 상기 동영상 콘텐츠와 관련된 적어도 하나의 기능 아이콘이 출력될 수 있다. 상기 적어도 하나의 기능 아이콘은 전자기기에서 동영상 콘텐츠가 재생되는 중에, 또는 재생이 정지된 중에 출력될 수 있다.Furthermore, when the video content generated through the present invention is played back in the electronic device, at least one function icon related to the video content may be output to one area of the electronic device as shown in FIG. 11 (a). have. The at least one function icon may be output while the video content is being reproduced or while the reproduction is stopped in the electronic device.

한편, 상기 적어도 하나의 기능 아이콘 중 상기 동영상 콘텐츠에 연관된 정보 콘텐츠의 출력을 위한 어느 하나의 기능 아이콘(1120)이 선택된 경우, 전자기기에서는, 도 11의 (b)에 도시된 것과 같이, 상기 동영상 콘텐츠와 관련된 모든 정보 콘텐츠에 대응되는 항목(1130, 1140, 1150)을 포함하는 정보 리스트가 표시될 수 있다. 본 발명에서는, 이러한 기능을 “전체보기” 또는 “모아보기” 기능 등으로 명명할 수 있다. On the other hand, when any one function icon 1120 for outputting information content related to the video content among the at least one function icon is selected, in the electronic device, as shown in (b) of FIG. 11 , the video An information list including items 1130 , 1140 , and 1150 corresponding to all information content related to the content may be displayed. In the present invention, such a function may be called a “view all” or “view all together” function.

이와 같이, 정보 콘텐츠에 대응되는 항목(1130, 1140, 1150) 중 어느 하나의 항목(1150)이 선택된 경우, 전자기기에서는, 도 11의 (c)에 도시된 것과 같이, 선택된 항목(1150)에 대응되는 정보 콘텐츠(1160)가 출력될 수 있다. 따라서, 본 발명을 통해 생성된 동영상 콘텐츠를 이용하는 사용자는, 언제라도, 동영상 콘텐츠와 관련되어 태그된 정보 콘텐츠를 한번에 보다 쉽게 파악할 수 있다. 이와 같이, 본 발명에서는, 동영상 콘텐츠에 태그된 정보 콘텐츠로의 직관적인 진입을 유도할 수 있다. As such, when any one of the items 1130, 1140, and 1150 corresponding to the information content is selected, in the electronic device, as shown in FIG. 11(c), the selected item 1150 is A corresponding information content 1160 may be output. Accordingly, a user who uses the moving image content generated through the present invention can more easily identify the information content tagged in relation to the moving image content at any time. As described above, in the present invention, it is possible to induce intuitive entry into the information content tagged with the moving picture content.

이상에서 살펴본 것과 같이, 본 발명에서는, 동영상 콘텐츠에 포함된 그래픽 객체가 선택되는 경우, 그래픽 객체에 포함된 태그에 링크된 정보 콘텐츠를 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는, 동영상 콘텐츠의 이용 중에 언제라도 정보 콘텐츠로 접근할 수 있다. 이때, 본 발명에서는, 정보 콘텐츠에 대한 정보가 출력되더라도, 전자기기의 일 영역에서 계속하여 동영상 콘텐츠가 재생되도록 하는 사용자 환경을 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는 끊김없이 동영상 콘텐츠를 계속하여 이용할 수 있다.As described above, in the present invention, when a graphic object included in video content is selected, by providing information content linked to a tag included in the graphic object, a third party (or user) using the video content, Information content can be accessed at any time while using video content. At this time, in the present invention, even when information on information content is output, by providing a user environment in which the moving image content is continuously played in one area of the electronic device, a third party (or user) using the moving image content can continuously reproduce the moving image. The content will continue to be available.

Claims (16)

전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집모드를 실행하는 단계;
상기 태그 편집 모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 단계; 및
상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하는 단계;
상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 단계를 포함하고,
상기 그래픽 객체를 삽입하는 단계는,
상기 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체를 오버랩하는 그래픽 처리를 수행하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
executing, on an electronic device, a tag editing mode for video content;
receiving, in the tag editing mode, selecting information content to be associated with the video content; and
generating a graphic object including a tag corresponding to the information content;
Inserting the graphic object into the moving image content so that the graphic object is output during a specific playback section of the moving image content,
Inserting the graphic object comprises:
and performing graphic processing for overlapping the graphic object on at least one frame corresponding to the specific playback section among a plurality of frames included in the moving picture content.
제1항에 있어서,
상기 특정 재생 구간에 대응되는 적어도 하나의 프레임은,
상기 동영상 콘텐츠에서 상기 그래픽 객체의 출력이 시작되는 시작 프레임 및
상기 시작 프레임과 연속하며, 상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임으로 구성된 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to claim 1,
At least one frame corresponding to the specific playback section,
a start frame at which output of the graphic object starts in the video content; and
The method of inserting a tag for video content, characterized in that it is continuous with the start frame and is composed of at least one related frame included in the specific playback section.
제2항에 있어서,
상기 태그 편집 모드는,
상기 동영상 콘텐츠의 편집을 위한 콘텐츠 편집 모드에서 발생되는 태그 삽입 요청 이벤트에 근거하여 실행되고,
상기 시작 프레임은,
상기 동영상 콘텐츠에 포함된 복수의 프레임 중, 상기 태그 삽입 요청 이벤트가 발생한 시점에, 상기 전자기기에서 출력되고 있었던 프레임인 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
3. The method of claim 2,
The tag editing mode is,
It is executed based on a tag insertion request event that occurs in the content editing mode for editing the video content,
The starting frame is
The tag insertion method for video content, characterized in that, among a plurality of frames included in the video content, the frame being output from the electronic device at the time when the tag insertion request event occurred.
제2항에 있어서,
상기 그래픽 객체를 삽입하는 단계는,
상기 동영상 콘텐츠가 복수의 동영상으로 구성된 경우, 상기 복수의 동영상 중 상기 시작 프레임을 포함하는 특정 동영상에 대해 상기 그래픽 객체를 삽입하는 것을 특징으로 하고,
상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임은 상기 특정 동영상을 구성하는 프레임인 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
3. The method of claim 2,
Inserting the graphic object comprises:
When the video content consists of a plurality of videos, the graphic object is inserted for a specific video including the start frame among the plurality of videos,
The at least one related frame included in the specific playback section is a frame constituting the specific video.
제4항에 있어서,
상기 동영상 콘텐츠 중 상기 특정 재생 구간에 따른 상기 특정 동영상이 재생되는 경우, 상기 그래픽 객체가 나타나고,
상기 동영상 콘텐츠에서 상기 특정 동영상과 다른 동영상이 재생되는 경우, 상기 그래픽 객체는 상기 전자기기에서 사라지는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
5. The method of claim 4,
When the specific video according to the specific playback section among the video contents is played, the graphic object appears,
When a video different from the specific video is played in the video content, the graphic object disappears from the electronic device.
제4항에 있어서,
상기 그래픽 객체를 삽입하는 단계는,
상기 시작 프레임의 기 설정된 제1 위치에 상기 그래픽 객체를 삽입하는 단계; 및
상기 전자기기를 통한 터치 입력을 통해, 상기 시작 프레임의 상기 제1 위치에 삽입된 상기 그래픽 객체가, 상기 제1 위치와 다른 제2 위치로 이동되는 경우, 상기 시작 프레임 상에서 그래픽 객체의 삽입 위치를 상기 제2 위치로 보정하는 단계를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
5. The method of claim 4,
Inserting the graphic object comprises:
inserting the graphic object at a preset first position of the start frame; and
When the graphic object inserted at the first position of the start frame is moved to a second position different from the first position through a touch input through the electronic device, the insertion position of the graphic object on the start frame is determined and compensating to the second position.
제6항에 있어서,
상기 그래픽 객체를 삽입하는 단계는,
상기 적어도 하나의 연관 프레임에서의 상기 그래픽 객체의 출력 위치가, 상기 시작 프레임에서의 출력 위치와 동일하도록, 상기 적어도 하나의 연관 프레임의 상기 제2 위치에 상기 그래픽 객체를 삽입하는 단계를 더 포함하는 동영상 콘텐츠에 대한 태그 삽입 방법.
7. The method of claim 6,
Inserting the graphic object comprises:
Inserting the graphic object at the second position of the at least one associative frame so that the output position of the graphic object in the at least one associative frame is the same as the output position in the start frame How to insert tags for video content.
제1항에 있어서,
상기 제어부는,
기 설정된 기준에 근거하여, 상기 정보 콘텐츠의 적어도 일부를 추출하고, 추출된 적어도 일부를 이용하여, 상기 정보 콘텐츠에 대한 태그를 생성하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to claim 1,
The control unit is
A tag insertion method for video content, comprising extracting at least a part of the information content based on a preset criterion, and generating a tag for the information content using the extracted at least part.
제1항에 있어서,
상기 동영상 콘텐츠를 구성하는 영상을 선택받는 단계; 및
상기 선택된 영상이 정적인 영상인 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생 시간을 갖는 동적인 영상을 생성하는 단계;를 더 포함하며,
상기 콘텐츠를 구성하는 영상 중 상기 생성된 동적인 영상에 대해 상기 그래픽 객체가 삽입되는 경우, 상기 특정 재생 구간은, 상기 기 설정된 재생 시간에 대응되는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to claim 1,
receiving a selection of an image constituting the moving image content; and
When the selected image is a static image, generating a dynamic image having a preset playback time by using the static image; further comprising,
When the graphic object is inserted into the generated dynamic image among the images constituting the content, the specific playback section corresponds to the preset playback time.
제1항에 있어서,
상기 정보 콘텐츠를 선택받는 단계는,
상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 표시하는 단계;
상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받는 단계;
상기 전자기기 상에, 상기 어느 하나의 카테고리 항목에 대응되는 정보 콘텐츠를 검색하기 위한 검색 화면을 표시하는 단계;
상기 검색 화면을 통해 검색 정보가 입력된 경우, 상기 어느 하나의 카테고리 항목에 대응되는 카테고리에 해당하며, 상기 검색 정보와 관련된 정보 콘텐츠를 검색하는 단계; 및
상기 검색된 정보 콘텐츠 중 어느 하나의 정보 콘텐츠를 선택받는 단계를 포함하고,
상기 동영상 콘텐츠에 삽입되는 상기 그래픽 객체는, 상기 어느 하나의 정보 콘텐츠에 대응되는 태그를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to claim 1,
The step of receiving the selection of the information content,
displaying a plurality of category items respectively corresponding to different information categories on the electronic device;
receiving a selection of any one category item from among the plurality of category items;
displaying, on the electronic device, a search screen for searching for information content corresponding to the one category item;
when search information is input through the search screen, searching for information content corresponding to a category corresponding to the one category item and related to the search information; and
and receiving a selection of any one information content from among the searched information content,
The graphic object inserted into the video content includes a tag corresponding to the one of the information content.
제10항에 있어서,
상기 어느 하나의 카테고리 항목이 장소와 관련된 카테고리 항목인 경우,
상기 검색하는 단계는,
상기 검색 정보에 대응되는 장소 관련 정보 콘텐츠를 검색하고,
상기 전자기기의 현재 위치 정보를 이용하여, 상기 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
11. The method of claim 10,
If any one of the above category items is a category item related to a place,
The searching step is
Search for place-related information content corresponding to the search information,
Using the current location information of the electronic device, the method for inserting a tag for video content, characterized in that displaying the searched place-related information content in the order closest to the current location of the electronic device.
제10항에 있어서,
상기 어느 하나의 카테고리 항목이 장소와 관련된 카테고리 항목인 경우,
상기 검색하는 단계는,
상기 검색 정보에 대응되는 장소 관련 정보 콘텐츠를 검색하고,
상기 전자기기의 현재 위치로부터의 거리정보 및 상기 전자기기와 관련된 장소 선택 히스토리 정보 중 적어도 하나에 근거하여, 상기 검색된 장소 관련 정보 콘텐츠를 정렬하여 표시하는 것을 특징으로 하고,
상기 장소 선택 히스토리 정보는,
상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
11. The method of claim 10,
If any one of the above category items is a category item related to a place,
The searching step is
Search for place-related information content corresponding to the search information,
Based on at least one of distance information from the current location of the electronic device and location selection history information related to the electronic device, the searched location-related information content is arranged and displayed,
The location selection history information is
and at least one of information on the most recently selected place by the electronic device and information on the number of times of selection on the place selected by the electronic device.
제10항에 있어서,
상기 그래픽 객체를 생성하는 단계는,
상기 그래픽 객체가 선택되는 경우, 상기 어느 하나의 정보 콘텐츠가 출력되도록, 상기 그래픽 객체에 상기 어느 하나의 정보 콘텐츠를 링크하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
11. The method of claim 10,
Creating the graphic object comprises:
and linking the one information content to the graphic object so that the one information content is output when the graphic object is selected.
제13항에 있어서,
상기 전자기기 상에서, 상기 그래픽 객체가 삽입된 상기 동영상 콘텐츠가 출력되고 있는 상태에서, 상기 그래픽 객체가 선택되는 경우,
상기 전자기기의 일 영역에서는, 상기 동영상 콘텐츠가 계속하여 출력되고,
상기 전자기기의 다른 일 영역에서는 상기 그래픽 객체에 링크된 상기 어느 하나의 정보 콘텐츠가 출력되는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
14. The method of claim 13,
When the graphic object is selected on the electronic device while the video content in which the graphic object is inserted is being output,
In one area of the electronic device, the video content is continuously output,
The method for inserting a tag for video content, characterized in that the one information content linked to the graphic object is output in another area of the electronic device.
제10항에 있어서,
상기 복수의 카테고리 항목 각각에는 서로 다른 색상 정보가 매칭되어 존재하고,
상기 그래픽 객체를 생성하는 단계에서는,
상기 서로 다른 색상 정보 중 상기 어느 하나의 카테고리 항목에 매칭된 색상 정보에 대응되는 색상으로 상기 그래픽 객체의 배경 색상을 설정하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
11. The method of claim 10,
In each of the plurality of category items, different color information is matched to exist,
In the step of creating the graphic object,
and setting a background color of the graphic object to a color corresponding to the color information matched to the one category item among the different color information.
태그 편집 모드가 실행되는 전자기기에서, 동영상 콘텐츠에 대한 태그 삽입 시스템에 관한 것으로서,
상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 입력부; 및
상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하고, 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 제어부를 포함하고,
상기 제어부는,
상기 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체를 오버랩하는 그래픽 처리를 수행하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 시스템.

A tag insertion system for video content in an electronic device executing a tag editing mode, comprising:
an input unit for selecting information content to be associated with the video content in the tag editing mode; and
a control unit for generating a graphic object including a tag corresponding to the information content, and inserting the graphic object into the moving picture content so that the graphic object is output during a specific playback section of the moving picture content;
The control unit is
and performing graphic processing for overlapping the graphic object with at least one frame corresponding to the specific playback section among a plurality of frames included in the moving picture content.

KR1020200031301A 2020-03-13 2020-03-13 Method and system for adding tag to video content KR102341209B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210179659A Division KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Publications (2)

Publication Number Publication Date
KR20210115467A true KR20210115467A (en) 2021-09-27
KR102341209B1 KR102341209B1 (en) 2021-12-20

Family

ID=77925443

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Country Status (1)

Country Link
KR (2) KR102341209B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102521904B1 (en) 2022-11-28 2023-04-17 (주)비디오몬스터 System and method for automatic video editing using utilization of auto labeling and insertion of design elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110036462A (en) * 2009-10-01 2011-04-07 엘지전자 주식회사 Mobile terminal and method for editing tag thereof
KR20150044469A (en) * 2013-10-16 2015-04-27 한양대학교 에리카산학협력단 Video processing method
KR20180130354A (en) * 2017-05-29 2018-12-07 엘지전자 주식회사 Portable electronic device and method for controlling the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101674946B1 (en) * 2010-04-16 2016-11-22 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101907885B1 (en) * 2017-10-17 2018-12-18 주식회사 팝스라인 Terminal and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110036462A (en) * 2009-10-01 2011-04-07 엘지전자 주식회사 Mobile terminal and method for editing tag thereof
KR20150044469A (en) * 2013-10-16 2015-04-27 한양대학교 에리카산학협력단 Video processing method
KR20180130354A (en) * 2017-05-29 2018-12-07 엘지전자 주식회사 Portable electronic device and method for controlling the same

Also Published As

Publication number Publication date
KR102620445B1 (en) 2024-01-02
KR102341209B1 (en) 2021-12-20
KR20210154957A (en) 2021-12-21

Similar Documents

Publication Publication Date Title
US10203845B1 (en) Controlling the rendering of supplemental content related to electronic books
JP5845254B2 (en) Customizing the search experience using images
US8826169B1 (en) Hiding content of a digital content item
US20130268826A1 (en) Synchronizing progress in audio and text versions of electronic books
US20140310746A1 (en) Digital asset management, authoring, and presentation techniques
US20080281793A1 (en) Method and System of Information Engine with Make-Share-Search of consumer and professional Information and Content for Multi-media and Mobile Global Internet
JP2024516666A (en) Search result display method, device, equipment and medium
CN102473304A (en) Metadata tagging system, image searching method and device, and method for tagging a gesture thereof
WO2013090946A1 (en) Systems and methods involving features of seach and/or search integration
US20120304046A1 (en) Integrated media browse and insertion
US9164974B2 (en) Method and apparatus for providing an electronic book service in a mobile device
CN113115096A (en) Interface information switching method and device, electronic equipment and storage medium
US20130013401A1 (en) System and method for providing document link service and linkable advertisement
US20130013400A1 (en) System and method for linking web documents
US10073846B2 (en) System and method for linking web documents
CN107515870B (en) Searching method and device and searching device
CN111859856A (en) Information display method and device, electronic equipment and storage medium
CN112329403A (en) Live broadcast document processing method and device
US9946805B2 (en) System and method for displaying services capable of pasting document stored on a cloud-based cross-clipboard
CN110955819A (en) Display method, generation method, display device and generation device of recommended content
KR102620445B1 (en) Method and system for adding tag to video content
CN110704740A (en) Method and apparatus for presenting information
WO2017151012A1 (en) Method for processing machine-readable information
US10387503B2 (en) Systems and methods involving features of search and/or search integration
JP2012068982A (en) Retrieval result output device, retrieval result output method and retrieval result output program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant