KR102620445B1 - Method and system for adding tag to video content - Google Patents

Method and system for adding tag to video content Download PDF

Info

Publication number
KR102620445B1
KR102620445B1 KR1020210179659A KR20210179659A KR102620445B1 KR 102620445 B1 KR102620445 B1 KR 102620445B1 KR 1020210179659 A KR1020210179659 A KR 1020210179659A KR 20210179659 A KR20210179659 A KR 20210179659A KR 102620445 B1 KR102620445 B1 KR 102620445B1
Authority
KR
South Korea
Prior art keywords
information
content
video content
tag
category
Prior art date
Application number
KR1020210179659A
Other languages
Korean (ko)
Other versions
KR20210154957A (en
Inventor
최승연
백유림
서명원
김보현
동이레
이지원
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020210179659A priority Critical patent/KR102620445B1/en
Publication of KR20210154957A publication Critical patent/KR20210154957A/en
Application granted granted Critical
Publication of KR102620445B1 publication Critical patent/KR102620445B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4888Data services, e.g. news ticker for displaying teletext characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Security & Cryptography (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 동영상 콘텐츠와 관련된 정보를 제공하는 방법에 관한 것으로서, 전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집모드를 실행하는 단계, 상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 단계, 상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하는 단계, 및 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 단계를 통해, 재생되는 동영상 콘텐츠를 통해, 추가적인 정보를 제공할 수 있다.The present invention relates to a method of providing information related to video content, comprising: executing a tag editing mode for video content on an electronic device; and, in the tag editing mode, selecting information content to be associated with the video content. , generating a graphic object including a tag corresponding to the information content, and inserting the graphic object into the video content so that the graphic object is output during a specific playback section of the video content. Through video content, additional information can be provided.

Description

동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템{METHOD AND SYSTEM FOR ADDING TAG TO VIDEO CONTENT}Method and system for inserting tags into video content {METHOD AND SYSTEM FOR ADDING TAG TO VIDEO CONTENT}

본 발명은 동영상 콘텐츠와 연관된 정보를 제공하는 방법 및 그 시스템에 관한 것이다.The present invention relates to a method and system for providing information related to video content.

기술이 발전함에 따라, 디지털 디바이스의 활용도가 높아지고 있다. 특히 전자기기(예를 들어, 스마트폰, 태블릿 PC 등)는, 전화나 문자 메시지와 같은 통신 기능은 물론, 인터넷을 활용한 웹 서핑, 음악 감상, 영상 콘텐츠(동영상 콘텐츠를 포함)의 시청과 같이 다양한 기능을 구비하고 있다.As technology develops, the utilization of digital devices is increasing. In particular, electronic devices (e.g., smartphones, tablet PCs, etc.) are used for communication functions such as phone calls and text messages, as well as web surfing, listening to music, and watching video content (including video content) using the Internet. It is equipped with various functions.

이러한 전자기기의 대중화에 힘입어, 멀티 미디어로 이루어진 콘텐츠에 대한 소비가 급증하고 있으며, 이와 함께, 동영상 공유 서비스(예를 들어, 유튜브(YouTube™), 소셜 네트워크 서비스(Social Network Service, 이하, “SNS”라고 명명함)의 플랫폼이 발달하고, 이의 이용자 또한 급증하고 있다.Thanks to the popularization of electronic devices, the consumption of multi-media content is rapidly increasing, and along with this, video sharing services (e.g. YouTube™, Social Network Service, hereinafter, “ Platforms (named “SNS”) are developing, and the number of users is also rapidly increasing.

이러한 플랫폼의 발달과 함께, 최근에는 콘텐츠 소비자들이 곧 콘텐츠의 생산자가 되고 있으며, 이에 따라, 소비자들이 직접 영상을 촬영하고, 촬영된 영상을 편집하여 하나의 동영상 콘텐츠로 제작하는 1인 미디어 시대가 도래하였다.With the development of these platforms, content consumers have recently become content producers. Accordingly, the era of one-person media has arrived in which consumers film their own video, edit the filmed video, and produce a single video content. did.

이러한 동영상 콘텐츠는 시청자(또는 사용자)들에게 시청각 자료를 제공할 뿐만 아니라, 광고 매체로서 다양한 분야에서 활용되고 있다.Such video content not only provides audiovisual materials to viewers (or users), but is also used in various fields as an advertising medium.

한편, 동영상 콘텐츠와 관련된 정보를 제공하는 기술로서, 대한민국 등록특허 제10-1403317호는 태깅 정보를 가지는 동영상을 이용한 정보 제공 시스템을 개시하고 있다. 그러나 이 기술은 동영상이 포함하는 수많은 정보들을 정확하고 효과적으로 검색하기 위해 키워드 태그를 활용하는 것일 뿐, 동영상의 재생과 함께 사용자에게 정보를 제공하는 기술에 대해서는 개시되어 있지 않다.Meanwhile, as a technology for providing information related to video content, Republic of Korea Patent No. 10-1403317 discloses an information provision system using videos with tagging information. However, this technology only utilizes keyword tags to accurately and effectively search the numerous information contained in the video, and does not disclose technology for providing information to the user along with video playback.

또한, 동영상 콘텐츠와 관련된 정보를 제공하는 또 다른 기술로서, 대한민국 공개특허 제10-2012-0072033호는, 동영상 콘텐츠에 대해 태깅을 수행하는 기술이 공개되어 있다. 다만, 이러한 방법은 센싱된 정보와 단말기에 저장된 정보에 기반하여 동영상 콘텐츠에 대해 자동으로 태깅 작업을 수행하는 기술로, 사용자의 기호에 따라, 동영상 콘텐츠에 태그를 삽입하는 기술에 대해서는 개시되어 있지 않다.Additionally, as another technology for providing information related to video content, Republic of Korea Patent Publication No. 10-2012-0072033 discloses a technology for tagging video content. However, this method is a technology that automatically performs tagging on video content based on sensed information and information stored in the terminal, and the technology for inserting tags into video content according to the user's preference is not disclosed. .

이에, 동영상 콘텐츠가 가진 고유의 영상 데이터 및 오디오 데이터에 따른 정보 뿐만 아니라, 동영상 콘텐츠의 생산 주체가 되는 사용자의 니즈를 반영하여, 동영상 콘텐츠와 함께 관련된 정보를 제공하는 기술에 대한 니즈가 있다.Accordingly, there is a need for technology that provides information related to video content along with video content, reflecting the needs of users who are the producers of video content, as well as information based on the video data and audio data inherent in video content.

본 발명은, 동영상 콘텐츠를 제공하는 데에서 나아가, 동영상 콘텐츠를 이용하는 사용자에게, 동영상 콘텐츠와 관련된 유익한 정보를 추가적으로 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다. The present invention goes beyond providing video content and provides a tag insertion method and system for video content that can additionally provide useful information related to video content to users who use video content.

나아가, 본 발명은, 전자기기에서 동영상 콘텐츠가 재생되는 경우, 재생되고 있는 장면과 연관된 유익한 정보를 사용자에게 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a method and system for inserting tags into video content that can provide users with useful information related to the scene being played when video content is played on an electronic device.

더 나아가, 본 발명은, 사용자의 별도의 조작이 없더라도, 재생되고 있는 장면과 연관된 유익한 정보가 존재함을 사용자에게 쉽게 인지시키는 사용자 환경을 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a method and system for inserting tags into video content that can provide a user environment that allows the user to easily recognize the existence of useful information related to the scene being played, even without separate manipulation by the user. It is done.

더 나아가, 본 발명은, 동영상 콘텐츠와 함께 제공되는 유익한 정보로의 직관적인 접근을 유도할 수 있는 사용자 환경을 제공하는 것과 함께, 본래 전자기기에서 재생 중이던 동영상 콘텐츠의 재생을 유지할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a user environment that can induce intuitive access to useful information provided with video content, and provides video content that can maintain playback of video content that was originally being played on an electronic device. To provide a tag insertion method and system for

또한, 본 발명은, 동영상 콘텐츠를 제작하는 사용자가, 동영상 콘텐츠와 함께 추가적으로 제공하고자 하는 정보를 보다 쉽고, 직관적으로 추가할 수 있는 제작 환경을 제공할 수 있는 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 제공하는 것이다.In addition, the present invention provides a tag insertion method and system for video content that can provide a production environment in which users who produce video content can more easily and intuitively add information they wish to provide additionally with the video content. It is provided.

또한, 본 발명은, 동영상 콘텐츠에 다양한 정보 콘텐츠를 삽입함으로써, 동영상 콘텐츠가 단순히 영상 및 오디오 데이터에 포함된 정보만 제공하는 것이 아니라, 다양한 정보 콘텐츠로의 연결 통로의 역할을 수행할 수 있는 태그 삽입 방법 및 시스템을 제공하는 것이다.In addition, the present invention inserts a tag that can serve as a connection path to various information contents, rather than simply providing information contained in video and audio data by inserting various information contents into video content. It provides methods and systems.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집모드를 실행하는 단계, 상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 단계 및 상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하는 단계, 및 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 단계를 통해, 동영상 콘텐츠와 함께 추가적인 정보를 제공할 수 있다.In order to solve the problems described above, the method of inserting tags into video content according to the present invention includes the steps of executing a tag editing mode for video content on an electronic device, and in the tag editing mode, information to be associated with the video content. Selecting content and creating a graphic object including a tag corresponding to the information content, and inserting the graphic object into the video content so that the graphic object is output during a specific playback section of the video content Through this, additional information can be provided along with video content.

위에서 살펴본, 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임은, 상기 동영상 콘텐츠에서 상기 그래픽 객체의 출력이 시작되는 시작 프레임 및 상기 시작 프레임과 연속하며, 상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임으로 구성된 것을 특징으로 한다.As seen above, at least one frame corresponding to the specific playback section is a start frame where output of the graphic object begins in the video content and is continuous with the start frame, and is at least one related frame included in the specific playback section. It is characterized by being composed of.

본 발명에서 태그 편집 모드는, 상기 동영상 콘텐츠의 편집을 위한 콘텐츠 편집 모드에서 발생되는 태그 삽입 요청 이벤트에 근거하여 실행되고, 상기 시작 프레임은, 상기 동영상 콘텐츠에 포함된 복수의 프레임 중, 상기 태그 삽입 요청 이벤트가 발생한 시점에, 상기 전자기기에서 출력되고 있었던 프레임인 것을 특징으로 한다.In the present invention, the tag editing mode is executed based on a tag insertion request event occurring in the content editing mode for editing the video content, and the start frame is one of a plurality of frames included in the video content, where the tag is inserted. It is characterized as a frame that was being output from the electronic device at the time a request event occurred.

한편, 위에서 살펴본, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법에 따른 시스템은, 상기 태그 편집모드에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 입력부 및 상기 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하고, 상기 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 제어부를 포함하고, 상기 제어부는, 상기 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체를 오버랩하는 그래픽 처리를 수행하는 것을 특징으로 한다.Meanwhile, the system according to the tag insertion method for video content according to the present invention, as discussed above, includes an input unit for selecting information content to be associated with the video content and a tag corresponding to the information content in the tag editing mode. A control unit for generating a graphic object and inserting the graphic object into the video content so that the graphic object is output during a specific playback section of the video content, wherein the control unit selects one of a plurality of frames included in the video content. Characterized in that graphics processing is performed to overlap the graphic object with at least one frame corresponding to the specific playback section.

위에서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템은, 동영상 콘텐츠를 구성하는 복수의 프레임에 정보 콘텐츠와 연관된 태그를 포함하는 그래픽 객체를 추가함으로써, 동영상 콘텐츠가 재생되는 동안, 추가적인 정보를 제공할 수 있다. 이때, 정보 콘텐츠는, 동영상 콘텐츠를 제작하는 사용자에 의하여 선택된 정보일 수 있으며, 이를 통해 사용자는, 동영상 콘텐츠와 함께 제공하고자 하는 정보를, 보다 직관적으로 제3 자에게 전달할 수 있다.As seen above, the tag insertion method and system for video content according to the present invention adds a graphic object including a tag associated with information content to a plurality of frames constituting the video content, while the video content is played, Additional information may be provided. At this time, the information content may be information selected by the user creating the video content, and through this, the user can more intuitively convey the information desired to be provided along with the video content to a third party.

또한, 본 발명에서는, 동영상 콘텐츠의 재생 구간 중 그래픽 객체가 포함되는 특정 재생 구간을 사용자의 선택에 근거하여 설정함으로써, 사용자의 의도에 따라, 추가적인 정보가 제공되는 시점을 조절할 수 있다. 이를 통해, 사용자는, 재생되고 있는 부분과 연관되도록 정보 콘텐츠를 추가할 수 있다. 나아가, 이와 같이 제작된 동영상 콘텐츠를 이용하는 제3 자(또는 사용자)는, 동영상 콘텐츠의 재생부분과 연관된 정보 콘텐츠를 제공받을 수 있으며, 이를 통해, 별도로 정보 콘텐츠를 검색하기 위한 노력을 줄일 수 있다.Additionally, in the present invention, by setting a specific playback section that includes a graphic object among the playback sections of video content based on the user's selection, the timing at which additional information is provided can be adjusted according to the user's intention. This allows the user to add information content to relate to the portion being played. Furthermore, third parties (or users) who use video content produced in this way can be provided with information content related to the playback portion of the video content, thereby reducing the effort to separately search for information content.

나아가, 본 발명에서는, 동영상 콘텐츠에 포함된 그래픽 객체가 선택되는 경우, 그래픽 객체에 포함된 태그에 링크된 정보 콘텐츠를 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는, 동영상 콘텐츠의 이용 중에 언제라도 정보 콘텐츠로 접근할 수 있다. 이때, 본 발명에서는, 정보 콘텐츠에 대한 정보가 출력되더라도, 전자기기의 일 영역에서 계속하여 동영상 콘텐츠가 재생되도록 하는 사용자 환경을 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는 끊김없이 동영상 콘텐츠를 계속하여 이용할 수 있다.Furthermore, in the present invention, when a graphic object included in video content is selected, by providing information content linked to a tag included in the graphic object, a third party (or user) using the video content can use the video content. You can access the information content at any time. At this time, in the present invention, by providing a user environment that allows video content to be continuously played in one area of the electronic device even if information about information content is output, a third party (or user) using video content can continuously play video content. You can continue to use the content.

도 1은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그를 삽입의 예를 설명하기 위한 개념도이다.
도 3은 본 발명에서 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 흐름도이다.
도 4는 도 3에서 살펴본 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 개념도이다.
도 5a, 도 5b, 도 5c, 도 6a, 도 6b 및 도 7은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그에 해당하는 그래픽 객체를 삽입하는 방법을 설명하기 위한 개념도들이다.
도 8a, 도 8b, 도 8c 및 도 9는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그로서 삽입할 정보 콘텐츠를 선택하는 방법을 설명하기 위한 개념도들이다.
도 10 및 도 11은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 정보 콘텐츠를 출력하는 방법을 설명하기 위한 개념도들이다.
1 is a conceptual diagram illustrating a method and system for inserting tags into video content according to the present invention.
Figure 2 is a conceptual diagram illustrating an example of tag insertion in a tag insertion method and system for video content according to the present invention.
Figure 3 is a flowchart for explaining a method of inserting tags into video content in the present invention.
FIG. 4 is a conceptual diagram illustrating a method of inserting tags into the video content shown in FIG. 3.
FIGS. 5A, 5B, 5C, 6A, 6B, and 7 are conceptual diagrams to explain a method of inserting a tag into video content and a method of inserting a graphic object corresponding to a tag in a system according to the present invention.
FIGS. 8A, 8B, 8C, and 9 are conceptual diagrams for explaining a method of inserting tags into video content and a method of selecting information content to be inserted as a tag in the system according to the present invention.
Figures 10 and 11 are conceptual diagrams to explain a method of inserting tags into video content and a method of outputting information content from the system according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은, 동영상 콘텐츠에 대한 태그 삽입 방법에 관한 것으로서, 특히, 동영상 콘텐츠를 이용하는 사용자에게, 동영상 콘텐츠와 함께 유익한 정보를 추가적으로 제공하기 위한 것이다.The present invention relates to a method of inserting tags into video content, and in particular, to provide additional useful information along with the video content to users who use the video content.

본 발명에 따른, 동영상 콘텐츠에 대한 태그 삽입 방법은, 애플리케이션(application) 또는 소프트웨어(software)의 형태로 구현되는 시스템에 의하여 일련의 과정이 수행될 수 있다(이하에서는, 애플리케이션과 소프트웨어의 용어를 구분하지 않고, 통일하여 애플리케이션이라고 명명한다). 즉, 본 발명에 따른, 동영상 콘텐츠에 대한 태그 삽입 방법은, 동영상 콘텐츠에 대한 태그 삽입 애플리케이션이라고도 명명될 수 있다. 이때, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 본 발명에 따른 고유의 기능을 단독으로 수행하기 위한 애플리케이션에 의하여 일련의 과정이 수행될 수 있다. According to the present invention, the tag insertion method for video content can be a series of processes performed by a system implemented in the form of an application or software (hereinafter, the terms application and software are distinguished). Instead, it is unified and named application). In other words, the tag insertion method for video content according to the present invention may also be called a tag insertion application for video content. At this time, the tag insertion method for video content according to the present invention can be performed through a series of processes by an application to independently perform the unique function according to the present invention.

또한, 이와 다르게, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은 다른 적어도 하나의 기능을 추가적으로 제공하는 애플리케이션이 갖는 일 기능에 해당할 수 있다. 여기에서, 다른 적어도 하나의 기능을 추가적으로 제공하는 애플리케이션의 종류는 다양할 수 있으며, 예를 들어, 동영상 콘텐츠를 생성 또는 제작하는 애플리케이션일 수 있다. 이하에서는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법이 적용된 형태를 구분하지 않고 공통적으로 설명하도록 한다. 즉, 이하의 설명은, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법이 그 고유의 애플리케이션으로 제공되거나, 다른 애플리케이션의 일 기능으로 제공되는 것에 관계없이 공통적으로 적용될 수 있다. Additionally, differently from this, the tag insertion method for video content according to the present invention may correspond to a function of an application that additionally provides at least one other function. Here, the types of applications that additionally provide at least one other function may vary, and may be, for example, applications that create or produce video content. Hereinafter, the tag insertion method for video content according to the present invention will be described in common without distinguishing the form in which it is applied. That is, the following description can be commonly applied regardless of whether the tag insertion method for video content according to the present invention is provided as a unique application or as a function of another application.

이하에서는, 첨부된 도면과 함께, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템에 대하여, 보다 구체적으로 살펴본다. 도 1은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템을 설명하기 위한 개념도이고, 도 2는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그를 삽입의 예를 설명하기 위한 개념도이다.Below, we will look at the tag insertion system for video content according to the present invention in more detail along with the attached drawings. 1 is a conceptual diagram illustrating a method and system for inserting tags into video content according to the present invention, and FIG. 2 is a conceptual diagram illustrating an example of tag insertion in a method and system for inserting tags into video content according to the present invention. am.

보다 구체적으로, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템은, 도 1에 도시된 것과 같이, 애플리케이션의 형태로 전자기기(100c)에 설치되어, 동영상 콘텐츠에 대해 태그를 삽입하는 과정을 수행할 수 있다. More specifically, the tag insertion system for video content according to the present invention is installed in the electronic device 100c in the form of an application, as shown in FIG. 1, and performs the process of inserting tags into video content. You can.

이러한, 애플리케이션은, 전자기기 상에서의 사용자의 요청에 의하여 전자기기 상에 설치될 수 있으며, 또는 전자기기 출고 당시, 전자기기에 설치되어 존재할 수 있다. 이와 같은, 동영상 콘텐츠에 대한 태그 삽입 방법을 구현하는 애플리케이션은, 데이터 통신을 통하여, 외부 데이터(data) 저장소(또는 외부 서버(server))로부터 다운로드(download)되어, 전자기기 상에 설치될 수 있다. 그리고, 전자기기 상에서, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템이 구현된 애플리케이션이 실행되는 경우, 동영상 콘텐츠에 태그를 삽입하기 위한 일련의 과정이 진행될 수 있다.These applications may be installed on the electronic device at the request of the user on the electronic device, or may be installed and present on the electronic device at the time the electronic device is shipped. An application that implements such a tag insertion method for video content can be downloaded from an external data storage (or external server) through data communication and installed on an electronic device. . And, when an application implementing the tag insertion system for video content according to the present invention is executed on an electronic device, a series of processes for inserting tags into video content may proceed.

앞서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 본 발명에 따른 고유의 기능을 단독으로 수행하기 위한 애플리케이션 뿐만 아니라, 다른 적어도 하나의 기능을 제공하는 애플리케이션이 갖는 일 기능으로서, 일련의 과정이 수행될 수 있음은 물론이다.As seen above, the tag insertion method for video content according to the present invention is a function of not only an application that independently performs the unique function according to the present invention, but also an application that provides at least one other function, Of course, a series of processes can be performed.

본 발명에서 언급되는 전자기기는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템에 따른 기능이 동작가능한 전자기기이면 되며, 그 종류에 특별한 제한을 두지 않는다. 예를 들어, 전자기기는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 휴대용 컴퓨터(laptop computer), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 데스크톱 컴퓨터(desktop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The electronic device referred to in the present invention may be any electronic device capable of operating a function according to the tag insertion system for video content according to the present invention, and there is no particular limitation on its type. For example, electronic devices include mobile phones, smart phones, laptop computers, laptop computers, slate PCs, tablet PCs, and ultrabooks. , desktop computers, digital broadcasting terminals, PDAs (personal digital assistants), PMPs (portable multimedia players), navigation, wearable devices (e.g., watch-type terminals (smartwatch), glass-type terminals (smart) glass), HMD (head mounted display), etc. may be included.

한편, 이와 같이, 애플리케이션의 형태로 구현될 수 있는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 시스템(100a)은, 입력부(110), 출력부(120), 저장부(130), 통신부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다. 위의 구성요소들은, 소프트웨어적인 구성요소로서, 전자기기(100c)의 하드웨어적인 구성요소와 연동하여 기능을 수행할 수 있다.Meanwhile, the tag insertion system 100a for video content according to the present invention, which can be implemented in the form of an application, includes an input unit 110, an output unit 120, a storage unit 130, and a communication unit 140. and a control unit 150. The above components are software components and can perform functions in conjunction with hardware components of the electronic device 100c.

예를 들어, 입력부(110)는 전자기기(100c)에 구비된 입력부 구성(예를 들어, 터치 스크린, 가상 키(key), 물리적인 키(또는 하드웨어적인 버튼), 입력 센서, 마이크 등)을 통하여, 사용자 입력을 수신할 수 있다. 보다 구체적으로, 입력부(110)는, 동영상 콘텐츠에 대해 태그를 삽입하기 위한 태그 편집 모드에서, 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받을 수 있다. 여기에서, “선택받는다” 함은, 전자기기(100c)에 구비된 입력부 구성을 통하여 사용자의 선택이 이루어지는 것에 근거하여, 사용자의 선택에 대응되는 선택 신호(또는 입력 신호, 또는 사용자 입력)를 수신하는 것을 의미할 수 있다.For example, the input unit 110 includes an input unit configuration (e.g., touch screen, virtual key, physical key (or hardware button), input sensor, microphone, etc.) provided in the electronic device 100c. Through this, user input can be received. More specifically, the input unit 110 may select information content to be associated with video content in a tag editing mode for inserting tags into video content. Here, “being selected” means receiving a selection signal (or input signal, or user input) corresponding to the user's selection based on the user's selection being made through the configuration of the input unit provided in the electronic device 100c. It can mean doing.

다음으로, 출력부(120)는 전자기기(100c)에 구비된 출력부 구성(예를 들어, 디스플레이부, 터치 스크린, 스피커 등)을 통하여, 정보를 출력할 수 있다. Next, the output unit 120 may output information through an output unit (eg, display unit, touch screen, speaker, etc.) provided in the electronic device 100c.

또한, 저장부(130)는 전자기기(100c)에 구비된 메모리 및 외부 저장소 중 적어도 하나를 이용하여, 본 발명을 통해 생성되는 태그와 관련된 정보, 그래픽 객체와 관련된 정보 및 정보 콘텐츠와 관련된 정보 중 적어도 하나를 저장하거나, 시스템과 관련된 정보, 또는 명령(또는 명령어)들을 저장할 수 있다. In addition, the storage unit 130 uses at least one of the memory and external storage provided in the electronic device 100c to select information related to tags, information related to graphic objects, and information related to information content generated through the present invention. At least one, system-related information, or command (or commands) may be stored.

본 발명에서 저장부(130)에 “저장된다”고 함은, 물리적으로는, 전자기기(100c)의 메모리 또는 외부 저장소에 정보가 저장됨을 의미할 수 있다. 여기에서, 외부 저장소(100b)는, 클라우드(cloud) 방식의 저장소일 수 있다.In the present invention, “being stored” in the storage unit 130 may mean that information is physically stored in the memory of the electronic device 100c or in external storage. Here, the external storage 100b may be a cloud-type storage.

한편, 본 발명에 따른 기능을 갖는 애플리케이션이 전자기기(100c)에서 삭제되는 경우, 저장부(130)에 저장된 정보 또한, 전자기기(100c)에서 삭제될 수 있다. 한편, 이 경우, 외부 저장소(100b)에 저장된 정보는 삭제되지 않을 수 있다. Meanwhile, when an application having a function according to the present invention is deleted from the electronic device 100c, information stored in the storage unit 130 may also be deleted from the electronic device 100c. Meanwhile, in this case, information stored in the external storage 100b may not be deleted.

나아가, 통신부(140)는, 전자기기(100c)에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 본 발명과 관련된 정보(또는 데이터)를 적어도 하나의 외부기기(또는 외부 서버)와 송수신 하는 역할을 수행할 수 있다.Furthermore, the communication unit 140 uses the configuration of the communication module (e.g., mobile communication module, short-range communication module, wireless Internet module, location information module, broadcast reception module, etc.) provided in the electronic device 100c, It can perform the role of transmitting and receiving information (or data) related to the present invention with at least one external device (or external server).

한편, 제어부(150)는 전자기기(100c)에 구비된 CPU(Central Processing Unit)를 이용하여, 본 발명을 수행하기 위한 전반적인 제어를 수행할 수 있다. 위에서 살펴본 구성요소들은 제어부(150)의 제어 하에 동작할 수 있으며, 제어부(150)는 전자기기(100c)의 물리적인 구성요소들에 대한 제어를 수행할 수 있음은 물론이다.Meanwhile, the control unit 150 can perform overall control for carrying out the present invention using a CPU (Central Processing Unit) provided in the electronic device 100c. The components examined above can operate under the control of the control unit 150, and of course, the control unit 150 can control the physical components of the electronic device 100c.

본 발명에서 제어부(150)는, 태그 편집 모드가 실행되는 전자기기에서, 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 생성하고, 동영상 콘텐츠의 특정 재생 구간 동안 상기 그래픽 객체가 출력되도록, 상기 동영상 콘텐츠에 상기 그래픽 객체를 삽입하는 역할을 수행할 수 있다.In the present invention, the control unit 150 generates a graphic object including a tag corresponding to information content in an electronic device executing a tag editing mode, and outputs the graphic object during a specific playback section of the video content. It may play the role of inserting the graphic object into content.

본 발명에서 정보 콘텐츠란, 전자기기를 통해 나타낼 수 있는(또는 표현할 수 있는) 정보로서, 그 정보의 종류, 형태, 내용에 특별한 제한을 두지 않는다. 예를 들어, 전자문서, 웹페이지, 이미지, 동영상, E-book, URL(Uniform Resource Locator) 정보, 장소 정보, 쇼핑 정보 등도 모두 정보 콘텐츠라고 표현할 수 있다. 정보 콘텐츠는, 그 정보의 카테고리나, 정보의 유형을 구분하지 않고 매우 폭넓게 이해되어질 수 있다. 다만, 본 발명에서 의미하는 정보 콘텐츠란, 유선 또는 무선 통신을 통하여, 접근 가능한 정보로서, 그 접근 경로가 특정될 수 있는 정보를 의미할 수 있다. 여기에서, 접근 경로는 URL을 의미할 수 있다. 한편, 본 발명에서, 접근 가능한 정보라 함은, “정보 콘텐츠로의 접근을 위하여 특별한 권한이나, 보안이 필요하지 않다”는 의미까지는 포함하지 않는다. In the present invention, information content is information that can be displayed (or expressed) through an electronic device, and there are no particular restrictions on the type, form, or content of the information. For example, electronic documents, web pages, images, videos, E-books, URL (Uniform Resource Locator) information, location information, shopping information, etc. can all be expressed as information content. Information content can be understood very broadly, without distinguishing between categories of information or types of information. However, information content as meant in the present invention may mean information that is accessible through wired or wireless communication, and the access path of which can be specified. Here, the access path may mean a URL. Meanwhile, in the present invention, accessible information does not include the meaning of “no special authority or security is required to access information content.”

한편, “태그(tag)”란, “특정 정보 콘텐츠”를 나타내는(또는 대표하는, 요약하는) 정보를 의미한다. Meanwhile, “tag” means information that represents (or represents or summarizes) “specific information content.”

여기에서, “특정 정보 콘텐츠”는 임의의 정보 콘텐츠가 아니라, 사용자의 선택(또는 요청)이나 제어부(150)에 의하여 특정된 정보 콘텐츠를 의미할 수 있다. 쇼핑정보를 예를 들어 설명하면, 정보 검색 사이트(또는 정보 검색 엔진)을 통해, “운동화”라는 검색어를 입력했을 때, 출력되는 “운동화”와 관련된 다양한 정보는 “임의의 정보 콘텐츠”라고 표현될 수 있다. Here, “specific information content” may not mean arbitrary information content, but information content specified by the user's selection (or request) or the control unit 150. Taking shopping information as an example, when you enter the search term “sneakers” through an information search site (or information search engine), the various information related to “sneakers” that is displayed can be expressed as “arbitrary information content.” You can.

그리고, 이러한 임의의 정보 콘텐츠 중, 사용자의 선택(또는 요청)이나 제어부(150)에 의하여 적어도 하나가 특정된 경우, 특정된 적어도 하나의 정보 콘텐츠는, “특정 정보 콘텐츠”라고 표현될 수 있다.And, among these arbitrary information contents, when at least one is specified by the user's selection (or request) or the control unit 150, the at least one specified information content may be expressed as “specific information content.”

본 발명에서, “정보 콘텐츠가 선택되었다”라고 함은, “정보 콘텐츠가 특정 되었다”라고 이해되어질 수 있다. 나아가, 위에서 선택된 정보 콘텐츠는, “특정 정보 콘텐츠”라고도 표현될 수 있다.In the present invention, “the information content is selected” can be understood as “the information content is specified.” Furthermore, the information content selected above may also be expressed as “specific information content.”

본 발명에서는, 특정 정보 콘텐츠와 관련된 정보를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다. 따라서, 태그는, 특정 정보 콘텐츠를 나타내는(또는 대표하는, 요약하는) 정보라고 표현될 수 있다.In the present invention, information related to specific information content can be set as a tag of the specific information content. Accordingly, a tag can be expressed as information representing (or representing, or summarizing) specific information content.

나아가, 본 발명에서 제어부(150)는 태그와 특정 정보 콘텐츠를 상호 연관시킬 수 있다. 다시 말해, 태그와 특정 콘텐츠는 서로 매칭될 수 있으며, 그 매칭과 관련된 정보(또는 “매칭 정보”라고도 명명될 수 있음)는 저장부(130)에 저장될 수 있다. Furthermore, in the present invention, the control unit 150 can correlate tags and specific information content. In other words, tags and specific content may be matched with each other, and information related to the matching (or may also be called “matching information”) may be stored in the storage unit 130.

또한, 태그가 동영상 콘텐츠에 삽입되는 경우, 상기 매칭과 관련된 정보는, 동영상 콘텐츠에 포함될 수 있다. 즉, 제어부(150)는 태그를 동영상 콘텐츠에 삽입함에 있어서, 상기 매칭과 관련된 정보까지 동영상 콘텐츠에 포함시킬 수 있다.Additionally, when a tag is inserted into video content, information related to the matching may be included in the video content. That is, when inserting a tag into video content, the control unit 150 can include information related to the matching in the video content.

본 발명에서, “태그와 특정 정보 콘텐츠가 상호 연관된다”고 함은, 태그를 통하여, 특정 정보 콘텐츠로 접근이 가능함을 의미할 수 있다. 이 경우, 상기 태그에 “상기 특정 정보 콘텐츠로의 접근 경로에 대한 정보가 링크되었다” 라고도 표현될 수 있다.In the present invention, “a tag and specific information content are interrelated” may mean that access to specific information content is possible through a tag. In this case, the tag may also be expressed as “information on the access path to the specific information content is linked.”

제어부(150)는, 앞서 살펴본 특정 정보 콘텐츠로의 접근 경로에 대한 정보를, 상기 매칭 정보에 포함시킬 수 있다. 그 결과, 동영상 콘텐츠에 태그가 삽입된 후, 동영상 콘텐츠에 삽입된 태그가 사용자에 의하여 선택되는 경우, 상기 동영상 콘텐츠를 재생하던 전자기기는 동영상 콘텐츠에 포함된 매칭 정보에 근거하여, 상기 특정 정보 콘텐츠로 접근할 수 있다. 앞서 살펴본 것과 같이, 상기 접근 경로에 대한 정보는, 유선 또는 무선 통신 방식을 통해, 전자기기에서 접근 가능한 정보로서, URL 정보를 포함할 수 있다.The control unit 150 may include information about the access path to the specific information content discussed above in the matching information. As a result, after the tag is inserted into the video content, when the tag inserted into the video content is selected by the user, the electronic device playing the video content generates the specific information content based on the matching information included in the video content. You can access it with As discussed above, the information on the access path is information accessible from an electronic device through a wired or wireless communication method and may include URL information.

나아가, 태그는, 반드시 텍스트(도 2의 (a) 221 참조: “나이스 런닝화”)로 이루어지는 것 만은 아니며, 이미지(도 2의 (a) 222 이미지 참조)로도 이루어질 수 있다. 여기에서, 이미지는, 정적인 이미지(static image) 및 동적인 이미지(또는 동영상, video)를 모두 포함하는 개념이다.Furthermore, the tag is not necessarily composed of text (see image 221 in (a) of FIG. 2: “Nice running shoes”), but may also be composed of an image (see image 222 of (a) of FIG. 2). Here, the image is a concept that includes both static images and dynamic images (or moving images).

이와 같이, 텍스트 또는 이미지로 태그가 이루어 진 것을, “시각적인 정보로 태그가 이루어졌다”고 표현할 수 있다. 이외에도, 태그는 청각적인 정보로 이루어지거나, 촉각적인 정보로 이루어질 수 있음은 물론이다. In this way, a tag consisting of text or an image can be expressed as “a tag consisting of visual information.” In addition, of course, tags can be made up of auditory information or tactile information.

위에서 살펴본 것과 같이, 태그는, 정보가 출력되는 형태에 따라, 시각적인 정보로 이루어진 태그, 청각적인 정보로 이루어진 태그, 또는 촉각적인 정보로 이루어진 태그로 분류될 수 있다. 본 발명에서는, 시각적인 정보로 이루어진 태그를 동영상 콘텐츠에 삽입하는 방법에 대하여 보다 구체적으로 살펴본다.As seen above, tags can be classified into tags made of visual information, tags made of auditory information, or tags made of tactile information, depending on the form in which the information is output. In the present invention, we will look in more detail at how to insert tags consisting of visual information into video content.

한편, 태그는 특정 정보 콘텐츠와 연관성을 갖는 정보로서, 특정 정보 콘텐츠의 적어도 일부를 포함하거나, 특정 정보 콘텐츠를 대표하거나 의미할 수 있는 정보로 이루어질 수 있다. Meanwhile, a tag is information that is related to specific information content, and may include at least part of the specific information content, or may be composed of information that represents or can mean the specific information content.

본 발명에서, 제어부(150)는, 특정 정보 콘텐츠의 적어도 일부를, 특정 정보 콘텐츠의 태그로서 설정할 수 있다. 이때, 적어도 일부의 정보는 텍스트 및 이미지 중 적어도 하나로 이루어질 수 있다.In the present invention, the control unit 150 can set at least part of the specific information content as a tag of the specific information content. At this time, at least some of the information may consist of at least one of text and images.

제어부(150)는 특정 정보 콘텐츠에 포함된 정보 중 적어도 일부를 추출하여, 추출된 정보를 상기 특정 정보 콘텐츠와 연관된 태그로서 설정할 수 있다. 이때, 어떠한 정보가 추출될지 여부는, 기 설정된 기준 또는 기 설정된 알고리즘에 근거할 수 있다. 또한, 제어부(150)는, 특정 정보 콘텐츠와 연관시킬 태그에 해당하는 정보를, 사용자로부터 입력받을 수 있다. 그리고, 사용자로부터 입력받은 정보를, 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.The control unit 150 may extract at least some of the information included in specific information content and set the extracted information as a tag associated with the specific information content. At this time, what information is to be extracted may be based on a preset standard or a preset algorithm. Additionally, the control unit 150 may receive information corresponding to a tag to be associated with specific information content from the user. Additionally, information input from the user can be set as a tag for the specific information content.

위에서 살펴본 태그는, 태그 편집 모드를 통해 동영상 콘텐츠에 삽입될 수 있다. 여기에서, 태그 편집 모드란, 동영상 콘텐츠에 태그를 삽입하기 위한 모드로서, 태그 편집 모드의 실행은, 사용자의 선택에 근거할 수 있다.The tags examined above can be inserted into video content through tag editing mode. Here, the tag editing mode is a mode for inserting tags into video content, and execution of the tag editing mode can be based on the user's selection.

이때, 태그 편집 모드는, 본 발명에 따른 기능을 제공하는 애플리케이션이 실행되는 것에 근거하여, 실행될 수 있다.At this time, the tag editing mode may be executed based on the application providing the function according to the present invention being executed.

일 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능만을 고유하게 수행하는 애플리케이션인 경우, 상기 애플리케이션이 실행되었다고 함은, 곧 태그 편집 모드가 실행되었음을 의미할 수 있다. As an example, if the application that provides the function according to the present invention is an application that uniquely performs only the function according to the present invention, execution of the application may mean that the tag editing mode has been executed.

다른 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능 외에 다른 기능을 추가적으로 제공하는 애플리케이션인 경우, 상기 애플리케이션이 실행되었다고 함은, 곧 태그 편집 모드가 실행되었다는 것을 의미하지 않을 수 있다. 즉, 이 경우에는, 상기 추가적인 기능을 제공하는 애플리케이션에서, 본 발명에 따른 기능이 선택된 경우에 한하여, 태그 편집 모드가 실행될 수 있다. 이러한 기능의 선택은, 사용자의 선택에 근거할 수 있다. 상기 추가적인 기능을 제공하는 애플리케이션에서는, 본 발명에 따른 기능이 링크된(또는 연관된) 기능 아이콘 또는 메뉴가 존재할 수 있다. 제어부(150)는, 이러한 기능 아이콘 또는 메뉴를 통한 사용자의 선택에 근거하여, 태그 편집 모드를 실행할 수 있다.As another example, if the application that provides the function according to the present invention is an application that additionally provides other functions in addition to the function according to the present invention, execution of the application does not mean that the tag editing mode has been executed. You can. That is, in this case, the tag editing mode can be executed only when the function according to the present invention is selected in the application providing the additional function. Selection of these functions may be based on the user's selection. In an application that provides the additional function, there may be a function icon or menu to which the function according to the present invention is linked (or related). The control unit 150 may execute the tag editing mode based on the user's selection through the function icon or menu.

한편, 태그 편집 모드를 실행하는 방법은, 위에서 살펴본 예들 외에도 다양한 적용 예들이 존재할 수 있으므로, 본 발명에서는, 태그 편집 모드를 실행하는 방법에 대하여 특별한 제한을 두지 않기로 한다.Meanwhile, since there may be various application examples for the method of executing the tag edit mode in addition to the examples discussed above, in the present invention, no special restrictions are placed on the method of executing the tag edit mode.

한편, 본 발명에서 태그를 삽입한다고 함은, 동영상 콘텐츠와 태그를 연관시키는 것으로서, 보다 구체적으로는, 정보 콘텐츠를 나타내는(또는 대표하는) 태그를 사용자가 인식할 수 있도록 하는 시각적인 처리를 수행하는 것을 의미할 수 있다. 이때, 시각적인 처리는, 태그를 포함하는 그래픽 객체(도 2의 (a) 220 참조)가, 동영상 콘텐츠의 적어도 일 재생구간에서 나타나도록 하는 그래픽 처리를 의미할 수 있다. 따라서, 본 발명에서는, “동영상 콘텐츠에 태그를 삽입한다”고 함은, “동영상 콘텐츠에 태그를 포함하는 그래픽 객체를 삽입한다” 라고도 표현할 수 있으며, 두 표현은 모두 동일한 기술적 의미를 갖는다.Meanwhile, in the present invention, inserting a tag means associating a tag with video content, and more specifically, performing visual processing to enable the user to recognize a tag representing (or representing) information content. It can mean something. At this time, visual processing may mean graphic processing that causes a graphic object including a tag (see (a) 220 of FIG. 2) to appear in at least one playback section of video content. Therefore, in the present invention, “inserting a tag into video content” can also be expressed as “inserting a graphic object including a tag into video content”, and both expressions have the same technical meaning.

한편, 그래픽 객체(220)는, 도 2의 (a)에 도시된 것과 같이, 태그(221, 222)를 포함하는 이미지로 이해되어질 수 있다. 본 발명에서 태그는, 특정 정보 콘텐츠를 대표하는 데이터 그 자체를 의미하며, 그 데이터가 시각화 된 것을 “그래픽 객체(220)”라고 표현할 수 있다. Meanwhile, the graphic object 220 may be understood as an image including tags 221 and 222, as shown in (a) of FIG. 2. In the present invention, a tag refers to the data itself representing specific information content, and the visualization of the data can be expressed as a “graphic object 220.”

본 발명에서, 태그가 선택되었다 함은, 도 2의 (a)에 도시된 것과 같이, 전자기기(100c) 상에서 그래픽 객체(220)가 선택되었음을 의미할 수 있다. 반대로, 본 발명에서, 그래픽 객체(220)가 선택되었다 함은, 그래픽 객체(200)를 통해 나타내어지는 태그가 선택되었음을 의미할 수 있다. 이에, 본 명세서에서는, 그 선택되는 대상에 대한 엄격한 구분을 하지 않고, 혼용하여 사용하기로 한다.In the present invention, selecting a tag may mean that the graphic object 220 is selected on the electronic device 100c, as shown in (a) of FIG. 2. Conversely, in the present invention, selecting the graphic object 220 may mean that the tag represented through the graphic object 200 is selected. Accordingly, in this specification, there is no strict distinction between the selected objects and they are used interchangeably.

한편, 앞선 설명에서, 태그와 특정 정보 콘텐츠가 상호 매칭되어 있음을 살펴보았다. 본 발명에 의하면, 태그와 특정 정보 콘텐츠가 상호 매칭되었음은, 곧 그래픽 객체와 특정 정보 콘텐츠가 상호 매칭되어 있는 것과 동일하게 해석될 수 있다.Meanwhile, in the previous explanation, we saw that tags and specific information content are matched to each other. According to the present invention, matching a tag and specific information content can be interpreted as the same as matching a graphic object and specific information content.

마찬가지로, “태그와 특정 정보 콘텐츠가 상호 연관된다”고 함은, “그래픽 객체와 정보 콘텐츠가 상호 연관된다”고도 이해되어 질 수 있다. 따라서, 본 발명에서는, 그래픽 객체를 통해 특정 정보 콘텐츠로 접근이 가능할 수 있다. 이 경우, 상기 그래픽 객체에 “특정 정보 콘텐츠로의 접근 경로에 대한 정보가 링크되었다” 라고도 표현될 수 있다.Likewise, “a tag and specific information content are interrelated” can also be understood as “a graphic object and information content are interrelated.” Therefore, in the present invention, access to specific information content may be possible through a graphic object. In this case, the graphic object may also be expressed as “information on the access path to specific information content is linked.”

따라서, 도 2의 (a)에 도시된 것과 같이, 태그로서 삽입된 그래픽 객체(220)가 선택되는 경우, 도 2의 (b)에 도시된 것과 같이, 상기 태그에 매칭된 정보 콘텐츠(230)의 적어도 일부가 출력될 수 있다. Therefore, as shown in (a) of FIG. 2, when the graphic object 220 inserted as a tag is selected, the information content 230 matched to the tag as shown in (b) of FIG. 2 At least part of may be output.

한편, 본 발명에서, 그래픽 객체(220)는 태그 그 자체만을 포함할 뿐만 아니라, 다양한 시각적인 요소(예를 들어, 형상, 색상, 크기 등과 관련된 요소)로 구성될 수 있으며, 이에 대해서는 뒷부분에서 보다 구체적으로 살펴보기로 한다.Meanwhile, in the present invention, the graphic object 220 not only includes the tag itself, but may also be composed of various visual elements (e.g., elements related to shape, color, size, etc.), which will be described later. Let’s look at it in detail.

이하에서는, 위에서 살펴본 내용을 기반으로, 도면들과 함께 동영상 콘텐츠에 대해 태그를 삽입하는 방법을 보다 구체적으로 살펴본다. 도 3은 본 발명에서 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 흐름도이고, 도 4는 도 3에서 살펴본 동영상 콘텐츠에 대한 태그 삽입 방법을 설명하기 위한 개념도이다. 도 5a, 도 5b, 도 5c, 도 6a, 도 6b 및 도 7은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그에 해당하는 그래픽 객체를 삽입하는 방법을 설명하기 위한 개념도들이다.Below, based on the content discussed above, we will look in more detail at how to insert tags into video content along with drawings. FIG. 3 is a flowchart for explaining the tag insertion method for video content in the present invention, and FIG. 4 is a conceptual diagram for explaining the tag insertion method for video content seen in FIG. 3. FIGS. 5A, 5B, 5C, 6A, 6B, and 7 are conceptual diagrams to explain a method of inserting a tag into video content and a method of inserting a graphic object corresponding to a tag in a system according to the present invention.

이하에서, 도면과 함께 설명되는, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 동영상 콘텐츠에 대한 태그 삽입 시스템을 구현하는 애플리케이션(또는 소프트웨어)이 전자기기(100c)상에서 실행되어 있음을 전제로 이해되어질 수 있다. 따라서, 전자기기(100c) 상에, 본 발명의 수행을 위하여 출력되는 화면들은, 애플리케이션을 통해 제공되는 화면으로서, 본 발명에서는 이러한 화면을 “실행화면”이라고 명명할 수 있다.Hereinafter, the tag insertion method for video content according to the present invention, which is explained with the drawings, assumes that an application (or software) implementing a tag insertion system for video content is running on the electronic device 100c. It can be understood. Accordingly, the screens output on the electronic device 100c to perform the present invention are screens provided through an application, and in the present invention, these screens may be called “execution screens.”

먼저, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법에 의하면, 동영상 콘텐츠에 대한 태그 편집 모드를 실행하는 과정이 진행된다(S310, 도 3 참조). First, according to the tag insertion method for video content according to the present invention, a process of executing the tag editing mode for video content is performed (S310, see FIG. 3).

태그 편집 모드는, 전자기기(100c) 상에서 실행될 수 있다. 나아가, 앞서 살펴본 것과 같이, 태그 편집 모드는 동영상 콘텐츠에 태그를 삽입하기 위한 모드로서, 사용자의 선택에 근거하여 실행될 수 있다.The tag editing mode may be executed on the electronic device 100c. Furthermore, as discussed above, the tag editing mode is a mode for inserting tags into video content, and can be executed based on the user's selection.

일 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능만을 고유하게 수행하는 애플리케이션인 경우, 전자기기의 화면 상에서 상기 애플리케이션에 대응되는 아이콘이 선택되는 것에 근거하여, 태그 편집 모드가 실행될 수 있다.As an example, when the application that provides the function according to the present invention is an application that uniquely performs only the function according to the present invention, the tag edit mode is selected based on the icon corresponding to the application being selected on the screen of the electronic device. can be executed.

또 다른 예로서, 본 발명에 따른 기능을 제공하는 애플리케이션이, 본 발명에 따른 기능 외에 다른 기능을 추가적으로 제공하는 애플리케이션인 경우, 상기 추가적인 기능을 제공하는 애플리케이션에서, 본 발명에 따른 기능이 선택되는 것에 근거하여, 태그 편집 모드가 실행될 수 있다. 이러한 기능의 선택은, 사용자의 선택에 근거할 수 있다. As another example, if the application providing the function according to the present invention is an application that additionally provides other functions in addition to the function according to the present invention, the function according to the present invention is selected from the application providing the additional function. Based on this, the tag editing mode can be executed. Selection of these functions may be based on the user's selection.

예를 들어, 상기 추가적인 기능을 제공하는 애플리케이션은 동영상 콘텐츠를 제작(또는 생성)하는 애플리케이션일 수 있다. 이 경우, 본 발명에 따른 기능은 동영상 콘텐츠를 제작하는데 활용될 수 있는 하나의 기능으로서 탑재될 수 있다. 이때, 제어부(150)는 동영상 콘텐츠를 제작하기 위한 제어 및 동영상 콘텐츠에 태그를 삽입하기 위한 제어를 모두 수행할 수 있다.For example, an application that provides the additional function may be an application that produces (or generates) video content. In this case, the function according to the present invention can be installed as a function that can be used to produce video content. At this time, the control unit 150 can perform both control for producing video content and control for inserting tags into video content.

보다 구체적으로 살펴보면, 상기 동영상 콘텐츠를 제작(또는 생성)하는 애플리케이션에서는, 도 4의 (a)에 도시된 것과 같이, 본 발명에 따른 기능이 링크된(또는 연관된) 기능 아이콘(410) 또는 메뉴가 존재할 수 있다. 상기 태그 편집 모드는, 상기 동영상 콘텐츠의 편집을 위한 콘텐츠 편집 모드에서 발생되는 태그 삽입 요청 이벤트에 근거하여 실행될 수 있다. 제어부(150)는 전자기기(100c)에서 상기 기능 아이콘(410)이 선택되는 경우, 이를 태그 삽입 요청 이벤트가 발생했다고 판단할 수 있다. 그리고, 제어부(150)는 이러한 태그 삽입 요청 이벤트에 근거하여, 태그 편집 모드를 실행할 수 있다. 한편, 이러한 기능 아이콘(410)으로의 접근 경로는 매우 다양할 수 있으며, 본 도면에 한정되지 않는다.Looking more specifically, in the application for producing (or generating) the video content, as shown in (a) of FIG. 4, a function icon 410 or menu to which the function according to the present invention is linked (or associated) It can exist. The tag editing mode may be executed based on a tag insertion request event occurring in the content editing mode for editing the video content. When the function icon 410 is selected in the electronic device 100c, the control unit 150 may determine that a tag insertion request event has occurred. And, the control unit 150 may execute the tag edit mode based on this tag insertion request event. Meanwhile, the access path to the function icon 410 may be very diverse and is not limited to this drawing.

도 4의 (a)에 도시된 것과 같이, 상기 콘텐츠 편집 모드에서 상기 전자기기(100c)의 디스플레이부에는, 콘텐츠 편집 실행화면이 출력되고, 상기 콘텐츠 편집 실행화면의 일 영역에는, 상기 동영상 콘텐츠의 편집과 관련된 적어도 하나의 기능 아이콘이 출력될 수 있다. 그리고, 상기 태그 삽입 요청 이벤트는, 상기 적어도 하나의 기능 아이콘 중 상기 태그 편집 모드의 실행 기능에 링크된 어느 하나의 기능 아이콘(410)이 선택되는 경우 발생될 수 있다.As shown in (a) of FIG. 4, in the content editing mode, a content editing execution screen is output on the display unit of the electronic device 100c, and in one area of the content editing execution screen, the video content is displayed. At least one function icon related to editing may be output. Additionally, the tag insertion request event may be generated when any one function icon 410 linked to an execution function of the tag edit mode among the at least one function icon is selected.

한편, 본 도면에서는, 본 기능에 따른 태그 편집 모드를 실행하는 일 예를 설명한 것일 뿐, 위의 예에 본 발명이 구속되지 않는다. 태그 편집 모드가 실행된 이후의 단계는, 본 발명에 따른 기능이 고유의 애플리케이션으로서 제공되거나, 추가적인 기능을 제공하는 애플리케이션의 일 기능으로 제공되는 것에 관계없이 공통적으로 적용될 수 있다.Meanwhile, in this drawing, only an example of executing the tag editing mode according to this function is explained, and the present invention is not limited to the above example. The steps after the tag editing mode is executed can be commonly applied regardless of whether the function according to the present invention is provided as a unique application or as a function of an application that provides additional functions.

한편, 본 발명에 따른 태그 편집 모드는, 동영상 콘텐츠에 대하여 태그를 삽입하기 위한 것으로서, 본 발명에서 태그 편집을 수행하기 위해서는, 태그를 삽입할 동영상 콘텐츠의 특정이 이루어져야 한다. 이때, 상기 S310 단계는, 동영상 콘텐츠를 특정하는 과정까지를 포함할 수 있다. 즉, S310 단계는, 동영상 콘텐츠를 구성하는 영상을 선택받는 단계를 더 포함할 수 있다. 이와 같이, 동영상 콘텐츠의 특정은, 사용자에 의하여, 적어도 하나의 영상이 선택되는 것에 근거하여 이루어질 수 있다. 제어부(150)는 사용자에 의해 선택된 적어도 하나의 영상을 이용하여, 동영상 콘텐츠를 생성할 수 있다. 그리고, 이러한 동영상 콘텐츠를, 태그 편집의 대상이 되는 동영상 콘텐츠로서 특정할 수 있다. 이와 같이, 태그 편집의 대상이 되는 동영상 콘텐츠는, 사용자에 의해 선택된 영상에 대응되는 동영상 콘텐츠일 수 있다. Meanwhile, the tag editing mode according to the present invention is for inserting tags into video content. In order to perform tag editing in the present invention, video content into which tags are to be inserted must be specified. At this time, step S310 may include a process of specifying video content. That is, step S310 may further include a step of selecting an image constituting video content. In this way, specification of video content can be made based on at least one video being selected by the user. The control unit 150 may generate video content using at least one image selected by the user. Then, such video content can be specified as video content subject to tag editing. In this way, the video content subject to tag editing may be video content corresponding to the video selected by the user.

여기에서, 사용자에 의해 선택된 영상은, 정적인 영상(static image) 또는 동적인 영상(또는 동영상, video) 중 적어도 하나일 수 있다. 이때, 사용자에 의해 선택된 영상이, 정적인 영상인 경우, 동영상 콘텐츠에는, 정적인 영상을 이용하여 생성된 동영상이 포함될 수 있다. 제어부(150)는, 사용자에 의해 선택된 영상이, 정적인 영상인 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 동적인 영상(또는 동영상)을 생성할 수 있다. 그리고, 제어부(150)는 상기 생성된 동적인 영상에 대해, 태그 삽입을 수행할 수 있다. 이때, 제어부(150)는, 상기 정적인 영상의 적어도 일부를 복사(copy) 또는 복제하여, 복수의 프레임을 생성함으로써, 상기 기 설정된 재생시간을 갖는 동적인 영상을 생성할 수 있다. 이와 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법은, 사용자에 의해 선택된 영상의 유형에 구애받지 않고, 태그 삽입을 수행할 수 있다.Here, the image selected by the user may be at least one of a static image or a dynamic image (or video). At this time, if the image selected by the user is a static image, the video content may include a video generated using the static image. If the image selected by the user is a static image, the control unit 150 may generate a dynamic image (or video) with a preset playback time using the static image. Additionally, the control unit 150 may insert tags into the generated dynamic image. At this time, the control unit 150 may generate a dynamic image having the preset playback time by copying or duplicating at least a portion of the static image to generate a plurality of frames. In this way, the tag insertion method for video content according to the present invention can perform tag insertion regardless of the type of video selected by the user.

위에서 살펴본 것과 같이, 본 발명에서 태그 삽입의 대상이 되는 동영상 콘텐츠는, 하나 또는 복수의 동영상으로 구성될 수 있다. 예를 들어, 도 6a에 도시된 것과 같이, 동영상 콘텐츠는 복수의 동영상(610, 620, 630)으로 이루어질 수 있다. 이러한 복수의 동영상의 구분은, 동영상 콘텐츠가 생성되기 전, 복수의 동영상들이 하나의 동영상 파일로 존재했는지 또는 별개의 동영상 파일로 존재했는지에 근거하여 이루어질 수 있다. 이와 같이, 본 발명에서는, 하나 또는 복수로 이루어진 동영상을 포함하는 동영상 콘텐츠의 적어도 일 구간에 대하여, 태그를 삽입하는 태그 편집 모드가 실행될 수 있다.As seen above, the video content subject to tag insertion in the present invention may consist of one or multiple videos. For example, as shown in FIG. 6A, video content may consist of a plurality of videos 610, 620, and 630. Classification of the plurality of videos can be made based on whether the plurality of videos existed as one video file or as separate video files before the video content was created. As such, in the present invention, a tag editing mode for inserting a tag into at least one section of video content including one or multiple videos can be executed.

한편, 태그 편집 모드의 실행은, 태그를 삽입할 동영상 콘텐츠가 특정된 후 이루어질 수 있다. 이와 반대로, 태그 편집 모드의 실행은, 동영상 콘텐츠가 특정되기 전 먼저 실행될 수 있다. 이 경우, 동영상 콘텐츠는, 태그 편집 모드가 실행된 후에, 선택될 수 있다. 나아가, 동영상 콘텐츠로서, 복수의 영상이 선택된 경우, 제어부(150)는 선택된 복수의 영상을 하나의 동영상 콘텐츠로서 합성하는 영상 처리를 수행할 수 있다.Meanwhile, execution of the tag editing mode can be performed after video content into which a tag is to be inserted is specified. In contrast, execution of the tag editing mode may be executed before video content is specified. In this case, video content can be selected after tag editing mode is executed. Furthermore, when a plurality of images are selected as video content, the control unit 150 may perform image processing to synthesize the plurality of selected images into one video content.

S310 과정에서 함께 살펴본 것과 같이, 동영상 콘텐츠가 특정되고, 태그 편집 모드가 실행된 경우, 본 발명에서는, 동영상 콘텐츠와 연관시킬 정보 콘텐츠에 대한 선택신호를 수신하는 과정이 진행된다(S320). 다시 말해, 태그 편집 모드가 실행된 전자기기(100c)에서, 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 선택받는 과정이 진행된다.As seen in step S310, when video content is specified and the tag editing mode is executed, in the present invention, a process of receiving a selection signal for information content to be associated with the video content is performed (S320). In other words, in the electronic device 100c in which the tag editing mode is executed, a process of selecting information content to be associated with the video content is performed.

앞서 살펴본 것과 같이, 정보 콘텐츠는, 전자기기를 통해 나타낼 수 있는(또는 표현할 수 있는) 정보로서, 그 정보의 종류, 형태, 내용에 특별한 제한을 두지 않는다. 예를 들어, 전자문서, 웹페이지, 이미지, 동영상, E-book, URL(Uniform Resource Locator) 정보, 장소 정보, 쇼핑 정보 등도 모두 정보 콘텐츠라고 표현할 수 있다.As discussed above, information content is information that can be displayed (or expressed) through electronic devices, and there are no particular restrictions on the type, form, or content of the information. For example, electronic documents, web pages, images, videos, E-books, URL (Uniform Resource Locator) information, location information, shopping information, etc. can all be expressed as information content.

본 발명에서, 제어부(150)는 사용자로부터 정보 콘텐츠를 선택받을 수 있도록 하는 사용자 환경을 제공할 수 있다. 이러한, 사용자 환경에 따른 실행화면(420, 도 4 참조)통해, 제어부(150)는 사용자로부터 정보 콘텐츠를 선택받거나, 입력받을 수 있다.In the present invention, the control unit 150 can provide a user environment that allows the user to select information content. Through this execution screen 420 (see FIG. 4) according to the user environment, the control unit 150 can select or receive information content from the user.

여기에서, “정보 콘텐츠를 선택 받는다” 함은, 전자기기를 통해 제공가능한 정보 콘텐츠 중 적어도 하나를 동영상 콘텐츠에 태그로서 삽입할 정보로서 선택함을 의미한다. 이 경우, 정보 콘텐츠는 적어도 하나의 저장소(전자기기 및 외부 저장소를 모두 포함하는 개념임)에 저장되어 존재할 수 있다.Here, “receiving information content selected” means selecting at least one of the information content available through an electronic device as information to be inserted as a tag in the video content. In this case, the information content may exist and be stored in at least one storage (a concept that includes both electronic devices and external storage).

또한, “정보 콘텐츠를 입력 받는다” 함은, 정보 콘텐츠의 원천이 사용자의 입력에 근거하는 것으로서, 예를 들어, 전자기기(100c)를 통해 사용자로부터 메모, URL주소 등의 정보가 입력되는 것을 의미한다. 이 경우, 정보 콘텐츠는 사용자가 입력한 정보 자체일 수 있다.In addition, “receiving information content” means that the source of information content is based on the user’s input, for example, information such as a memo or URL address is input from the user through the electronic device 100c. do. In this case, the information content may be the information itself entered by the user.

한편, 본 발명에서는, “선택의 방식으로 정보 콘텐츠를 특정”하는 것을 “제1 방식으로 정보 콘텐츠를 선택한다”라고 표현하고, “입력의 방식으로 정보 콘텐츠를 특정”하는 것을 “제2 방식으로 정보 콘텐츠를 선택”한다고 표현할 수 있다. Meanwhile, in the present invention, “specifying the information content by the method of selection” is expressed as “selecting the information content by the first method,” and “specifying the information content by the method of input” is expressed as “the second method.” It can be expressed as “selecting information content.”

한편, 제1 방식 또는 제2 방식 중 어느 방식으로 정보 콘텐츠를 선택할지는, 사용자의 선택에 근거할 수 있다. 제어부(150)는, 제1 방식 또는 제2 방식에 따라, 서로 다른 정보 콘텐츠 선택 화면을 제공할 수 있다.Meanwhile, whether to select information content using the first method or the second method may be based on the user's selection. The control unit 150 may provide different information content selection screens according to the first method or the second method.

제어부(150)는 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. 이와 다르게, 제어부(150)는 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. When information content is selected in the first method, the control unit 150 may search for information content and provide a user environment for selecting at least one of the searched information as information content. Alternatively, when information content is selected in the second method, the control unit 150 may provide a user environment for inputting information content.

한편, 본 발명에서는, 정보 콘텐츠를 선택받기 위한 실행화면(420)을 도 4의 (b)에 도시된 것과 같이 구성할 수 있다. Meanwhile, in the present invention, the execution screen 420 for selecting information content can be configured as shown in (b) of FIG. 4.

제어부(150)는, 도 4의 (b)에 도시된 것과 같이, 실행화면(420) 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 표시할 수 있다. 도시와 같이, 복수의 카테고리 항목은, 장소, 쇼핑, 링크, 책, 영화, news, 여행 등과 같이 서로 다른 정보 카테고리에 해당할 수 있다. 본 발명에서는, 사용자가 정보 콘텐츠를 선택하는데 있어, 그 선택의 편의를 위하여, 정보 콘텐츠를 선택하는 과정에서, 정보의 카테고리를 일차적으로 선택하도록 할 수 있다. As shown in (b) of FIG. 4, the control unit 150 may display a plurality of category items each corresponding to different information categories on the execution screen 420. Like cities, multiple category items may correspond to different information categories, such as places, shopping, links, books, movies, news, travel, etc. In the present invention, when a user selects information content, for convenience of selection, a category of information can be selected first in the process of selecting the information content.

이때, 각각의 카테고리에는 정보를 선택하는 방식이 기 설정되어 존재할 수 있다. 즉, 각각의 카테고리에는, 앞서 살펴본, 제1 방식 또는 제2 방식 중 어느 방식으로 각각의 카테고리에 해당하는 정보를 선택받을지 여부가 기 설정되어 존재할 수 있다.At this time, a method for selecting information may be preset in each category. That is, for each category, it may be preset whether information corresponding to each category will be selected through the first method or the second method, which was discussed above.

예를 들어, “장소”항목에 해당하는 카테고리는, 도 8a에 도시된 것과 같이, 제1 방식인 “선택의 방식”으로 정보 콘텐츠를 특정하는 것으로 설정될 수 있다. 이 경우, 제어부(150)는 상기 “장소”항목이 선택되는 것에 근거하여, 장소와 관련된 정보를 검색하기 위한 실행화면(도 8a의 (b) 참조)을 제공할 수 있다. 그리고, 이러한 실행화면을 통해, 사용자는, 특정 장소를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택할 수 있다. 이렇게 선택된 정보는, 정보 콘텐츠로서 특정될 수 있다.For example, the category corresponding to the “place” item may be set to specify information content in the first method, “selection method,” as shown in FIG. 8A. In this case, the control unit 150 may provide an execution screen (see (b) of FIG. 8A) for searching information related to the place based on the selection of the “place” item. And, through this execution screen, the user can search for a specific place and select at least one of the searched information as information content. The information selected in this way can be specified as information content.

다른 예로서, “링크”항목에 해당하는 카테고리는, 도 9에 도시된 것과 같이, 제2 방식인 “입력의 방식”으로 정보 콘텐츠를 특정하는 것으로 설정될 수 있다. 이 경우, 제어부(150)는 사용자로부터 정보를 입력받기 위한 실행화면(도 9의 (b) 참조)을 제공할 수 있다. 이와 같이, 본 발명에서는, 제1 및 제2 방식 중 어느 하나의 방식으로 정보 콘텐츠를 선택할 수 있다. As another example, the category corresponding to the “link” item may be set to specify information content in the second method, “input method,” as shown in FIG. 9. In this case, the control unit 150 may provide an execution screen (see (b) of FIG. 9) to receive information from the user. In this way, in the present invention, information content can be selected in either the first or second manner.

한편, 제어부(150)는, 복수의 카테고리 중 어느 하나가 선택된 경우, 선택된 카테고리에 대응되는 방식으로 정보 콘텐츠가 선택될 수 있는 사용자 환경을 제공하되, 상기 사용자 환경을 통해 제공되는 정보는, 상기 선택된 카테고리에 대응되는 정보로 제한할 수 있다. Meanwhile, the control unit 150 provides a user environment in which information content can be selected in a manner corresponding to the selected category when one of a plurality of categories is selected, and the information provided through the user environment is It can be limited to information that corresponds to the category.

다시 말해 제어부(150)는, 도 4의 (b)에 도시된 것과 같이, 제1 방식으로 정보 콘텐츠를 선택하는 것이 설정된 제1 카테고리(예를 들어, “쇼핑” 카테고리)에 해당하는 항목(421)이 선택된 경우, 도 4의 (c)에 도시된 것과 같이, 쇼핑 정보를 검색할 수 있는 실행화면(또는 검색 화면, 430)을 제공할 수 있다. 그리고, 제어부(150)는 상기 실행화면(430)을 통해, 정보 검색을 위한 검색어(또는 정보)가 입력된 경우(예를 들어, “nice”), 상기 검색어와 연관된 쇼핑 정보를 검색할 수 있다. 즉, 이 경우, 제어부(150)는, 상기 검색어와 연관된 다른 종류(예를 들어, 사전 정보, 인물 정보 등)의 정보가 존재하더라도, 쇼핑 정보만을 검색결과로서 출력할 수 있다.In other words, the control unit 150, as shown in (b) of FIG. 4, selects the item 421 corresponding to the first category (e.g., “shopping” category) in which information content is set to be selected in the first manner. ) is selected, an execution screen (or search screen, 430) for searching shopping information can be provided, as shown in (c) of FIG. 4. In addition, when a search word (or information) for information search is input through the execution screen 430 (for example, “nice”), the control unit 150 can search for shopping information related to the search word. . That is, in this case, the control unit 150 may output only shopping information as a search result even if other types of information (e.g., dictionary information, person information, etc.) related to the search term exist.

즉, 제어부(150)는, 상기 실행 화면(430)을 통해 검색어가 입력되면, 해당 검색어를 상품을 검색하기 위한 정보로서 인식할 수 있다. 그리고, 상기 입력된 검색어에 대응되는 상품 판매와 관련된 정보를 정보 콘텐츠로서 검색할 수 있다.That is, when a search word is entered through the execution screen 430, the control unit 150 can recognize the search word as information for searching a product. Additionally, information related to product sales corresponding to the entered search term can be searched as information content.

이와 같이, 제어부(150)는, 카테고리가 선택된 후, 정보 콘텐츠를 검색하기 위한 정보(예를 들어, “nice”) 검색어가 추가적으로 입력되면, 제어부(150)는, 상기 추가적으로 입력된 정보(예를 들어, 검색어)에 대응되면서, 상기 일차적으로 선택된 카테고리에 해당하는 정보를 검색할 수 있다. 즉, 제어부(150)는 사용자로부터 서로 다른 정보 카테고리 중 어느 하나가 선택된 경우, 선택된 카테고리에 대응되는 정보 콘텐츠를 제공할 수 있다.In this way, if a search word (e.g., “nice”) for searching information content is additionally entered after a category is selected, the control unit 150 controls the additionally inputted information (e.g., For example, it is possible to search for information corresponding to the primarily selected category while corresponding to a search term). That is, when one of different information categories is selected by the user, the control unit 150 may provide information content corresponding to the selected category.

이와 같이, 정보 콘텐츠가 검색된 경우, 제어부(150)는 검색된 정보 콘텐츠 중 적어도 하나를 선택받을 수 있다(도 4의 (c), 431 참조). 정보 콘텐츠의 선택은, 도시와 같이, 정보 콘텐츠에 각각 대응되는 항목들 중 어느 하나의 항목(431)이 선택되는 것에 의하여 이루어질 수 있다. 상기 항목(431)의 선택은, 상기 항목(431)에 링크된 웹페이지, 또는 전자문서 페이지를 선택하는 것일 수 있다. 예를 들어, 제어부(150)는 상기 항목(431)이 선택되는 것에 근거하여, 상기 항목(431)에 대응되는 상품 판매 페이지(예를 들어, “나이스 런닝화” 상품 판매 페이지)를 정보 콘텐츠로서 특정할 수 있다. 이때, 상기 선택은, 전자기기(100c)를 통해, 사용자에 의하여 이루어질 수 있으며, 제어부(150)는 상기 사용자의 선택에 따른 선택 신호를 수신할 수 있다.In this way, when information content is searched, the control unit 150 can select at least one of the searched information content (see 431 in (c) of FIG. 4). Selection of information content may be made by selecting one item 431 among items corresponding to each information content, as shown in the figure. Selecting the item 431 may mean selecting a web page or electronic document page linked to the item 431. For example, based on the item 431 being selected, the control unit 150 specifies a product sales page (for example, a “nice running shoes” product sales page) corresponding to the item 431 as information content. can do. At this time, the selection may be made by the user through the electronic device 100c, and the control unit 150 may receive a selection signal according to the user's selection.

이와 같이, 사용자의 선택에 기반하여, 적어도 하나의 정보 콘텐츠가 특정된 경우, 특정된 정보 콘텐츠에 대응되는 태그를 포함한 그래픽 객체를 생성하는 과정이 진행된다(S330). In this way, when at least one information content is specified based on the user's selection, a process of generating a graphic object including a tag corresponding to the specified information content proceeds (S330).

태그를 포함하는 그래픽 객체를 생성하기 위하여, 제어부(150)는 특정된 정보 콘텐츠와 관련된 태그를 생성할 수 있다. 앞서 살펴본 것과 같이, “태그(tag)”란, “특정 정보 콘텐츠”를 나타내는(또는 대표하는, 요약하는) 정보를 의미한다. In order to create a graphic object including a tag, the control unit 150 may create a tag related to specified information content. As seen above, “tag” refers to information that represents (or represents or summarizes) “specific information content.”

제어부(150)는, 특정 정보 콘텐츠에 포함된 정보 중 적어도 일부를 추출하여, 태그로서 설정할 수 있다. 예를 들어, 제어부(150)는 도 4의 (c)에 선택된 항목(431)에 대응되는 정보 콘텐츠로부터 적어도 일부를 추출할 수 있다. 제어부(150)는 정보 콘텐츠로부터 텍스트 또는 이미지 중 적어도 하나를 추출할 수 있다. 예를 들어, 제어부(150)는, 정보 콘텐츠로부터, “나이스 런닝화”라는 텍스트와 이미지 중 적어도 하나를 추출할 수 있다. 그리고, 추출된 정보를 이용하여, 태그를 생성(또는 설정)할 수 있다.The control unit 150 can extract at least some of the information included in specific information content and set it as a tag. For example, the control unit 150 may extract at least part of the information content corresponding to the item 431 selected in (c) of FIG. 4. The control unit 150 may extract at least one of text or images from information content. For example, the control unit 150 may extract at least one of the text “Nice Running Shoes” and an image from information content. And, using the extracted information, a tag can be created (or set).

제어부(150)는, 텍스트가 추출된 경우, 추출된 텍스트 자체를 태그로서 설정할 수 있다. 또한, 제어부(150)는 이미지가 추출된 경우, 추출된 이미지 자체를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있고, 이와 다르게, 추출된 이미지에 대해 썸네일(thumbnail)이미지(도 4의 (d) 442 참조)를 생성하여, 썸네일 이미지를 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.When text is extracted, the control unit 150 can set the extracted text itself as a tag. In addition, when an image is extracted, the control unit 150 can set the extracted image itself as a tag of the specific information content, and differently, a thumbnail image (442 in FIG. 4 (d)) for the extracted image. Reference) can be created and a thumbnail image can be set as a tag for the specific information content.

이와 같이, 태그가 생성(또는 설정)되는 경우, 제어부(150)는 태그와 특정 정보 콘텐츠를 상호 연관시킬 수 있다. 여기에서, “상호 연관시킨다”는 것은 상호 매칭하는 것을 의미할 수 있다. 태그와 정보 콘텐츠와의 연관관계는 앞서, 도 1 및 도2와 함께 살펴본 설명으로 대체하도록 한다.In this way, when a tag is created (or set), the control unit 150 can correlate the tag with specific information content. Here, “correlate” may mean matching each other. The relationship between tags and information content will be replaced with the explanation seen above with FIGS. 1 and 2.

한편, 정보 콘텐츠로부터 어떠한 정보가 태그를 설정하기 위한 정보로서 추출될지 여부는, 기 설정된 기준 또는 기 설정된 알고리즘에 근거할 수 있다. 또한, 제어부(150)는, 특정 정보 콘텐츠와 연관시킬 태그에 해당하는 정보를, 사용자로부터 입력받을 수 있다. 그리고, 사용자로부터 입력받은 정보를, 상기 특정 정보 콘텐츠의 태그로서 설정할 수 있다.Meanwhile, what information is to be extracted from the information content as information for setting a tag may be based on a preset standard or a preset algorithm. Additionally, the control unit 150 may receive information corresponding to a tag to be associated with specific information content from the user. Additionally, information input from the user can be set as a tag for the specific information content.

이와 같이, 태그의 설정(또는 생성)이 완료되면, 제어부(150)는 태그(도 4의 (d), 441, 442 참조)를 포함하는 그래픽 객체(도 4의 (d), 420)를 생성할 수 있다. 제어부(150)는, 상기 그래픽 객체(420)가 선택되는 경우, 상기 특정 정보 콘텐츠가 출력될 수 있도록, 상기 그래픽 객체(420, 또는 상기 태그)에 상기 특정 정보 콘텐츠를 링크할 수 있다. 여기에서, “상기 그래픽 객체에 상기 특정 정보 콘텐츠를 링크” 한다는 것은, 상기 그래픽 객체에 상기 특정 정보 콘텐츠로의 접근 경로에 해당하는 링크 정보를 연결시키는 것을 의미할 수 있다.In this way, when the setting (or creation) of the tag is completed, the control unit 150 creates a graphic object ((d) of FIG. 4, 420) including the tag (see (d), 441, and 442 of FIG. 4). can do. When the graphic object 420 is selected, the control unit 150 may link the specific information content to the graphic object 420 (or the tag) so that the specific information content can be output. Here, “linking the specific information content to the graphic object” may mean linking link information corresponding to an access path to the specific information content to the graphic object.

한편, 정보 콘텐츠, 태그 및 그래픽 객체 간의 상호 연관 관계에 대한 설명 역시, 앞서 도 1 및 도2와 함께 살펴본 설명으로 대체하도록 한다.Meanwhile, the description of the interrelationship between information content, tags, and graphic objects will also be replaced with the description previously discussed with FIGS. 1 and 2.

그래픽 객체(420)는, 도 4의 (d)에 도시된 것과 같이, 태그 그 자체(441, 442)만을 포함할 뿐만 아니라, 다양한 시각적인 요소(예를 들어, 형상, 색상, 크기 등과 관련된 요소)로 구성될 수 있다. 제어부(150)는 기 설정된 크기, 형상 및 색상으로 이루어지는 그래픽 객체를 생성하며, 이러한 그래픽 객체는, 태그(441, 442)를 포함할 수 있다. As shown in (d) of FIG. 4, the graphic object 420 not only includes the tags themselves 441 and 442, but also includes various visual elements (e.g., elements related to shape, color, size, etc. ) can be composed of. The control unit 150 creates a graphic object with a preset size, shape, and color, and this graphic object may include tags 441 and 442.

제어부(150)는 정보 콘텐츠의 카테고리에 따라, 그래픽 객체의 크기, 형상 및 색상 중 적어도 하나를 다르게 설정할 수 있다. The control unit 150 may set at least one of the size, shape, and color of the graphic object differently depending on the category of information content.

본 발명에서는, 복수의 카테고리 항목 각각에는 서로 다른 색상 정보가 매칭되어 존재할 수 있다. 이러한 매칭과 관련된 정보(또는 매칭 정보)는 저장부(130)에 저장되어 존재할 수 있다. 제어부(150)는, 이러한 매칭 정보에 근거하여, 특정 정보 콘텐츠가 속한 카테고리에 매칭된 색상으로, 그래픽 객체의 배경 색상(또는 색상)을 설정할 수 있다. 즉, 제어부(150)는, 상기 서로 다른 색상 정보 중 특정 정보 콘텐츠가 속한 카테고리 항목에 매칭된 색상 정보에 기반하여, 상기 특정 정보 콘텐츠의 태그를 포함하는 그래픽 객체의 배경 색상을 설정할 수 있다. 따라서, 카테고리가 서로 상이한 정보 콘텐츠의 경우, 그래픽 객체의 색상 또한 상이할 수 있다. 이와 같이, 카테고리 별로 배경 색상을 상이하게 하는 경우, 사용자는, 어떤 종류의 정보가 태그되었는지 여부를 색상만으로도 쉽게 인지할 수 있다.In the present invention, different color information may be matched to each of a plurality of category items. Information (or matching information) related to such matching may be stored in the storage unit 130. Based on this matching information, the control unit 150 may set the background color (or color) of the graphic object to a color that matches the category to which the specific information content belongs. That is, the control unit 150 may set the background color of the graphic object including the tag of the specific information content based on the color information matched to the category item to which the specific information content belongs among the different color information. Therefore, in the case of information content of different categories, the color of the graphic object may also be different. In this way, when the background color is different for each category, the user can easily recognize what type of information is tagged just by color.

한편, 본 발명에서는, 그래픽 객체의 크기, 형상 및 색상 중 적어도 하나를 사용자의 선택에 근거하여 변경할 수 있다. 예를 들어, 도 7의 (a) 및 (b)에 도시된 것과 같이, 제어부(150)는 그래픽 객체의 색상을 설정받기 위한 인터페이스(예를 들어, 선택 영역(710))를 제공할 수 있다. 그리고, 제어부(150)는 상기 선택 영역(710)을 통해 사용자로부터 어느 하나의 항목(예를 들어, 도 7의 (a) 711 또는 도 7의 (b) 712)이 선택된 경우, 선택된 항목에 대응되는 색상으로 그래픽 객체의 배경 색상을 변경할 수 있다(예를 들어, 도 7의 (a)에 도시된 그래픽 객체(720) 또는 도 7의 (b)에 도시된 그래픽 객체(730) 참조).Meanwhile, in the present invention, at least one of the size, shape, and color of a graphic object can be changed based on the user's selection. For example, as shown in (a) and (b) of FIGS. 7, the control unit 150 may provide an interface (e.g., selection area 710) for setting the color of a graphic object. . And, when an item (e.g., 711 (a) 711 in FIG. 7 or 712 (b) 712 in FIG. 7) is selected by the user through the selection area 710, the control unit 150 responds to the selected item. The background color of the graphic object can be changed to the desired color (for example, see the graphic object 720 shown in (a) of FIG. 7 or the graphic object 730 shown in (b) of FIG. 7).

한편, 제어부(150)는, 사용자의 선택에 근거하여, 그래픽 객체의 배경 색상이 변경된 경우, 변경된 이후, 새로 생성되는 그래픽 객체의 배경 색상을, 상기 사용자에 의해 선택된 색상으로 설정할 수 있다. 이는 사용자의 선호 색상을 반영하기 위함이다. 이때, 제어부(150)는, 새롭게 생성되는 모든 그래픽 객체의 배경 색상을 상기 선택된 색상으로 설정하는 것이 아니라, 상기 배경 색상이 변경된 그래픽 객체와 관련성이 있는 그래픽 객체가 새롭게 생성되는 경우에 한하여, 새롭게 생성되는 그래픽 객체의 배경 색상을 상기 선택된 색상으로 설정할 수 있다.Meanwhile, when the background color of a graphic object is changed based on the user's selection, the control unit 150 may set the background color of the newly created graphic object to the color selected by the user after the change. This is to reflect the user's preferred color. At this time, the control unit 150 does not set the background color of all newly created graphic objects to the selected color, but creates a new graphic object only when a graphic object that is related to the graphic object whose background color has been changed is newly created. The background color of the graphic object can be set to the selected color.

이때, 상기 배경 색상이 변경된 그래픽 객체(이하, “제1 그래픽 객체”라 명명함)와 관련성이 있는 그래픽 객체(이하, “제2 그래픽 객체”라 명명함)는, 정보 콘텐츠의 카테고리에 근거하여 결정될 수 있다. 즉, 제어부(150)는, 상기 제1 그래픽 객체에 링크된 정보 콘텐츠(또는 특정 정보 콘텐츠)의 카테고리와, 동일한 카테고리에 속하는 정보 콘텐츠가 링크된 제2 그래픽 객체의 배경 색상을, 상기 선택된 색상으로 설정할 수 있다.At this time, the graphic object (hereinafter referred to as “second graphic object”) related to the graphic object (hereinafter referred to as “first graphic object”) whose background color has been changed is based on the category of information content. can be decided. That is, the control unit 150 sets the background color of the category of information content (or specific information content) linked to the first graphic object and the background color of the second graphic object to which information content belonging to the same category is linked to the selected color. You can set it.

한편, 위에서 살펴본 것과 같이, 태그를 포함하는 그래픽 객체가 생성되면, 동영상 콘텐츠의 특정 재생구간 동안 그래픽 객체가 출력되도록, 동영상 콘텐츠에 그래픽 객체를 삽입하는 과정이 진행된다(S340).Meanwhile, as seen above, when a graphic object including a tag is created, a process of inserting the graphic object into the video content is performed so that the graphic object is output during a specific playback section of the video content (S340).

도 4의 (d)에 도시된 것과 같이, 동영상 콘텐츠에는, 태그(441, 442)를 포함하는 그래픽 객체(440)가 삽입될 수 있다.As shown in (d) of FIG. 4, a graphic object 440 including tags 441 and 442 may be inserted into video content.

제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 중 상기 특정 재생 구간에 대응되는 적어도 하나의 프레임에 상기 그래픽 객체(440)를 오버랩하는 그래픽 처리를 수행할 수 있다.The control unit 150 may perform graphics processing to overlap the graphic object 440 with at least one frame corresponding to the specific playback section among a plurality of frames included in video content.

보다 구체적으로, 도 5a에 도시된 것과 같이, 동영상 콘텐츠는, 복수의 프레임(frame)으로 구성되며, 제어부(150)는, 복수의 프레임 중 특정 재생 구간(T1)에 포함된 적어도 하나의 프레임(511, 512, 513, 514, 515)에 그래픽 객체(520)를 오버랩 할 수 있다. 한편, 동영상 콘텐츠를 구성하는 프레임은 이미지(image)라고도 명명될 수 있다. More specifically, as shown in FIG. 5A, video content consists of a plurality of frames, and the control unit 150 selects at least one frame (T1) included in a specific playback section (T1) among the plurality of frames. The graphic object 520 can overlap with numbers 511, 512, 513, 514, and 515. Meanwhile, the frames that make up video content may also be called images.

본 발명에서, 그래픽 객체(520)가 동영상 콘텐츠(또는 프레임)에 오버랩된다고 함은, 그래픽 객체(520)를 동영상 콘텐츠(또는 프레임)에 합성하는 그래픽 처리가 수행됨을 의미할 수 있다.In the present invention, saying that the graphic object 520 overlaps the video content (or frame) may mean that graphics processing to synthesize the graphic object 520 into the video content (or frame) is performed.

한편, 상기 그래픽 객체가 삽입되는 적어도 하나의 프레임은, 상기 동영상 콘텐츠에서 상기 그래픽 객체의 출력이 시작되는 시작 프레임(511) 및 상기 시작 프레임(511)과 연속하며, 상기 특정 재생 구간에 포함된 적어도 하나의 연관 프레임(512, 513, 514, 515)으로 구성될 수 있다. 상기 시작 프레임(511) 및 적어도 하나의 연관 프레임(512, 513, 514, 515)은 상기 특정 재생 구간 동안 재생되는 프레임들에 해당한다.Meanwhile, at least one frame in which the graphic object is inserted is a start frame 511 where output of the graphic object begins in the video content and is continuous with the start frame 511, and at least one frame included in the specific playback section It may consist of one related frame (512, 513, 514, and 515). The start frame 511 and at least one related frame 512, 513, 514, and 515 correspond to frames played during the specific playback period.

제어부(150)는 특정 재생 구간을 벗어난 프레임들(516, 517)에 대해서는, 그래픽 객체를 오버랩하지 않을 수 있다. 이러한 특정 재생 구간은, 사용자의 선택 또는 제어부의 제어 하에 설정 또는 변경될 수 있다.The control unit 150 may not overlap graphic objects for frames 516 and 517 that fall outside a specific playback section. This specific playback section can be set or changed under the user's selection or control of the controller.

한편, 제어부(150)는, 시작 프레임의 기 설정된 제1 위치에 상기 그래픽 객체를 삽입하도록 이루어진다. 여기에서, 제1 위치는, 기 설정된 위치라고도 표현될 수 있다. 기 설정된 위치는, 시스템 상에서 기본으로 설정된 위치(또는 디폴트(default)로 설정된 위치)일 수 있다.Meanwhile, the control unit 150 is configured to insert the graphic object into a preset first position of the start frame. Here, the first location may also be expressed as a preset location. The preset location may be a default location (or a default location) on the system.

도 5c의 (a)에 도시된 것과 같이, 기 설정된 제1 위치는, 제1 좌표(x1, x2)에 해당하는 위치일 수 있다. 본 발명에서 좌표는, 프레임에 대한 절대좌표를 의미할 수 있다. 그래픽 객체(520)는, 시작 프레임 및 연관 프레임에서 상기 제1 좌표(x1, x2)에 따른 제1 위치에 출력될 수 있다. 나아가, 제어부(150) 도 5c의 (a)에 도시된 것과 같이, 전자기기(100c)를 통한 터치 입력을 통해, 상기 시작 프레임의 상기 제1 위치에 삽입된 상기 그래픽 객체(520)가, 상기 제1 위치와 다른 제2 위치(예를 들어, 도 5c의 (b)에 도시된 제2 좌표(x2, y2))로 이동되는 경우, 상기 시작 프레임 상에서 그래픽 객체(520)의 삽입 위치를 상기 제2 좌표(x2, y2)에 따른 상기 제2 위치로 보정할 수 있다. 이때, 제어부(150)는, 상기 그래픽 객체(520)의 삽입 위치가, 상기 시작 프레임 상에서 변경되는 것에 연동하여, 연관 프레임에서의 상기 그래픽 객체(520)의 삽입 위치 변경할 수 있다. 제어부(150)는, 연관 프레임에서의 그래픽 객체(520)의 출력 위치가, 상기 시작 프레임에서의 출력 위치와 동일하도록, 상기 연관 프레임의 상기 제2 위치에 상기 그래픽 객체(520)를 삽입할 수 있다. As shown in (a) of FIG. 5C, the preset first position may be a position corresponding to the first coordinates (x1, x2). In the present invention, coordinates may mean absolute coordinates for a frame. The graphic object 520 may be output at a first position according to the first coordinates (x1, x2) in the start frame and the associated frame. Furthermore, as shown in (a) of FIG. 5C, the control unit 150 displays the graphic object 520 inserted into the first position of the start frame through a touch input through the electronic device 100c. When moving to a second position different from the first position (for example, the second coordinates (x2, y2) shown in (b) of FIG. 5C), the insertion position of the graphic object 520 on the start frame is It can be corrected to the second position according to the second coordinates (x2, y2). At this time, the control unit 150 may change the insertion position of the graphic object 520 in the related frame in conjunction with the change in the insertion position of the graphic object 520 on the start frame. The control unit 150 may insert the graphic object 520 into the second position of the related frame so that the output position of the graphic object 520 in the related frame is the same as the output position in the start frame. there is.

위의 설명에서는, 시작 프레임에서 그래픽 객체의 삽입 위치가 변경되는 경우에 대하여 살펴보았으나, 본 발명에서는 이에 한정되지 않는다. 즉, 제어부(150)는, 시작 프레임 및 연관프레임 중 어느 하나에서 그래픽 객체의 삽입 위치가 변경되는 경우, 나머지 프레임에 대해서도 그래픽 객체의 삽입 위치를 변경할 수 있다.In the above description, a case where the insertion position of a graphic object is changed in the start frame has been discussed, but the present invention is not limited to this. That is, when the insertion position of the graphic object is changed in any one of the start frame and the related frame, the control unit 150 may change the insertion position of the graphic object for the remaining frames.

다음으로, 그래픽 객체가 출력되는 “특정 재생 구간”에 대하여 살펴보면, 특정 재생 구간은, i) 동영상 콘텐츠의 어느 재생시점부터 그래픽 객체를 출력할지에 대한 시작 시점 및 ii) 상기 시작 시점으로부터, 얼만큼의 재생 시간 동안 그래픽 객체의 출력을 유지할지에 대한 출력 유지 시간에 의하여 특정될 수 있다.Next, looking at the “specific playback section” where the graphic object is output, the specific playback section is: i) the start time of the video content from which playback point the graphic object will be output, and ii) how long from the start point. It can be specified by the output maintenance time as to whether to maintain the output of the graphic object during the playback time.

특정 재생 구간에 포함된 적어도 하나의 프레임은, i) 동영상 콘텐츠를 구성하는 복수의 프레임들 중 상기 시작 시점에 대응되는 시작 프레임 및 상기 시작 시점으로부터 상기 출력 유지 시간 사이에 포함된 적어도 하나의 연관 프레임으로 구성될 수 있다.At least one frame included in a specific playback section is: i) a start frame corresponding to the start point among a plurality of frames constituting the video content and at least one related frame included between the start point and the output maintenance time It can be composed of .

한편, 위에서 살펴본, 시작 시점 및 출력 유지 시간 중 적어도 하나는 사용자의 선택에 근거하여 변경되거나, 설정되는 것이 가능하다.Meanwhile, at least one of the start point and output maintenance time discussed above can be changed or set based on the user's selection.

먼저, 시작 시점이 특정되는 경우를 살펴보면, 제어부(150)는, 앞서 살펴본, 태그 삽입 요청 이벤트가 발생한 시점에 근거하여, 그래픽 객체의 출력이 시작되는 시작 시점을 특정할 수 있다. 보다 구체적으로, 제어부(150)는, 동영상 콘텐츠를 구성하는 복수의 프레임 중, 태그 삽입 요청 이벤트가 발생한 시점에 상기 전자기기(100c)에서 출력되고 있었던 프레임(도 4의 (a) 및 도 5의 511 참조)을, 시작 프레임으로 설정할 수 있다. 그리고, 제어부(150)는 상기 동영상 콘텐츠 내에서의 상기 시작 프레임의 재생 시점을, 특정 재생 구간의 시작 시점으로 설정할 수 있다. 한편, 본 발명은, 위에서 살펴본 방법 외에도, 다양한 방법으로 시작 시점 및 시작 프레임을 설정하거나, 선택받을 수 있다.First, looking at the case where the start time is specified, the control unit 150 can specify the start time at which the output of the graphic object begins based on the time when the tag insertion request event described above occurs. More specifically, the control unit 150 selects a frame that was being output from the electronic device 100c at the time a tag insertion request event occurred among a plurality of frames constituting the video content ((a) in Figures 4 and 5). 511) can be set as the starting frame. Additionally, the control unit 150 may set the playback time of the start frame within the video content as the start time of a specific playback section. Meanwhile, in the present invention, in addition to the methods discussed above, the start point and start frame can be set or selected in various ways.

다음으로, 특정 재생 구간을 설정하는 방법에 대하여 살펴보면, 제어부(150)는 상기 시작 시점으로부터 기 설정된 시간만큼을 특정 재생 구간으로 설정할 수 있다.Next, looking at a method of setting a specific playback section, the control unit 150 can set a preset time from the start point as a specific playback section.

이때, 상기 기 설정된 시간은, 시스템 상에서 기본으로 설정된 시간(또는 디폴트(default)로 설정된 시간)일 수 있다.At this time, the preset time may be a time set as default (or a time set as default) on the system.

예를 들어, 앞서 살펴본 것과 같이, 사용자에 의해 선택된 정적인 영상이 기 설정된 재생시간을 갖는 동영상으로 변환된 경우, 제어부(150)는, 상기 기 설정된 재생시간 동안 상기 변환된 동영상에 대하여, 그래픽 객체를 삽입할 수 있다. 이때, 상기 특정 재생 구간은, 상기 기 설정된 재생 시간에 대응될 수 있다.For example, as seen above, when a static image selected by the user is converted to a video with a preset playback time, the control unit 150 generates a graphic object for the converted video during the preset playback time. can be inserted. At this time, the specific playback section may correspond to the preset playback time.

이와 다르게, 제어부(150)는, 상기 시작 시점으로부터, 특정 재생 구간을 설정하기 위한 시간정보를 사용자로부터 선택받을 수 있다.Alternatively, the control unit 150 may receive time information for setting a specific playback section selected from the user from the start point.

예를 들어, 도 5b에 도시된 것과 같이, 제어부(150)는 특정 재생 구간을 설정받기 위한 인터페이스(예를 들어, 설정 영역(530))를 제공할 수 있다. For example, as shown in FIG. 5B, the control unit 150 may provide an interface (eg, setting area 530) for setting a specific playback section.

특정 재생 구간은, “재생 유지 시간”을 선택받는 것에 의하여 특정될 수 있다. 제어부(150)는 상기 선택 영역(530)을 통해 사용자로부터 어느 하나의 항목(예를 들어, 도 5b(a)의 533 항목, 또는 도 5b(b)의 531 항목)이 선택된 경우, 선택된 항목에 대응되는 시간만큼을, 그래픽 객체가 출력되는 재생 구간(또는 출력 유지 시간)으로 설정할 수 있다. 이때, 상기 그래픽 객체가 출력되는 특정 재생 구간은, 상기 시작 프레임에 대응되는 시작 시점부터, 상기 선택된 재생 유지 시간(예를 들어, 3초)까지에 해당하는 재생 구간일 수 있다.A specific playback section can be specified by selecting a “playback maintenance time”. When an item (for example, item 533 in FIG. 5b(a) or item 531 in FIG. 5b(b)) is selected by the user through the selection area 530, the control unit 150 selects the selected item. The corresponding time can be set as the playback section (or output maintenance time) in which the graphic object is output. At this time, the specific playback section in which the graphic object is output may be a playback section corresponding to the start time corresponding to the start frame to the selected playback maintenance time (for example, 3 seconds).

보다 구체적으로, 도 5b의 (b)에 도시된 것과 같이, “초”에 해당하는 항목(531)이 선택된 경우, 제어부(150)는, 기 특정된 시작 시점으로부터 3초에 해당하는 재생구간에 포함된 프레임들에 그래픽 객체(520)를 삽입할 수 있다. 즉, 제어부(150)는, 동영상 콘텐츠 중, 상기 기 특정된 시작 시점에 대응되는 시작 프레임 및 상기 3초에 대응되는 재생 구간에 포함된 적어도 하나의 프레임(또는 연관 프레임)에 그래픽 객체(520)를 삽입할 수 있다.More specifically, as shown in (b) of FIG. 5B, when the item 531 corresponding to “seconds” is selected, the control unit 150 selects the playback section corresponding to 3 seconds from the pre-specified start time. A graphic object 520 can be inserted into the included frames. That is, the control unit 150 displays a graphic object 520 in at least one frame (or related frame) included in the start frame corresponding to the predetermined start point and the playback section corresponding to the 3 seconds among the video content. can be inserted.

한편, 본 발명에서 제어부(150)는 동영상 단위로 그래픽 객체를 삽입할 수 있다. 예를 들어, 도 6a에 도시된 것과 같이, 동영상 콘텐츠는 복수의 동영상(610, 620, 630)으로 이루어질 수 있다. 이러한 복수의 동영상의 구분은, 동영상 콘텐츠가 생성되기 전, 복수의 동영상들이 하나의 동영상 파일로 존재했는지 또는 별개의 동영상 파일로 존재했는지에 근거하여 이루어질 수 있다. Meanwhile, in the present invention, the control unit 150 can insert graphic objects on a video basis. For example, as shown in FIG. 6A, video content may consist of a plurality of videos 610, 620, and 630. Classification of the plurality of videos can be made based on whether the plurality of videos existed as one video file or as separate video files before the video content was created.

제어부(150)는, 위에서 살펴본 것과 같이, 복수의 동영상 중, 기 특정된 시작 프레임(611)을 포함하는 특정 동영상(610)에 대해서만 그래픽 객체(611a)를 삽입할 수 있다. 제어부(150)는, 상기 기 특정된 시작 프레임(611)부터 시작되는 상기 특정 동영상(610)의 잔여 재생 시간이, 상기 선택된 재생 시간(예를 들어, 3초)보다 짧은 경우, 상기 잔여 재생 시간에 해당하는 프레임들에 대해서만, 그래픽 객체(611)를 삽입할 수 있다.As discussed above, the control unit 150 may insert the graphic object 611a only for a specific video 610 including a pre-specified start frame 611 among a plurality of videos. If the remaining playback time of the specific video 610 starting from the predetermined start frame 611 is shorter than the selected playback time (for example, 3 seconds), the controller 150 sets the remaining playback time to The graphic object 611 can be inserted only for the frames corresponding to .

따라서, 본 발명에 의하면, 동영상 콘텐츠가 재생되는 경우, 상기 특정 동영상(610)의 상기 특정 재생 구간에 대해서만, 그래픽 객체(611a)가 출력될 수 있다(또는 나타날 수 있다). 그리고, 상기 동영상 콘텐츠에서 상기 특정 동영상(610)과 다른 동영상(620)이 재생되는 경우, 상기 그래픽 객체(611a)는 전자기기(100c)에서 사라질 수 있다. 여기에서, 그래픽 객체(611a)가 전자기기(100c)에서 사라진다고 함은, 전자기기(100c)에 더 이상 출력되지 않음을 의미한다.Therefore, according to the present invention, when video content is played, the graphic object 611a may be output (or appear) only for the specific playback section of the specific video 610. Also, when a video 620 different from the specific video 610 is played in the video content, the graphic object 611a may disappear from the electronic device 100c. Here, the fact that the graphic object 611a disappears from the electronic device 100c means that it is no longer output to the electronic device 100c.

한편 본 발명에서는, 그래픽 객체의 출력이 시작되는 시작 시점이 기 특정되었더라도 이를 변경할 수 있다. 제어부(150)는 도 5b에서 살펴본 인터페이스를 통한 사용자 선택에 근거하여, 그래픽 객체의 출력이 시작되는 시작 시점 및 출력 유지 시간을 모두 설정할 수 있다.Meanwhile, in the present invention, even if the start point at which the output of the graphic object begins is already specified, it can be changed. The control unit 150 can set both the start point at which the output of the graphic object begins and the output maintenance time based on the user's selection through the interface shown in FIG. 5B.

나아가, 본 발명에서 제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 전체에 대하여, 그래픽 객체(520)를 삽입할 수 있다. Furthermore, in the present invention, the control unit 150 can insert the graphic object 520 into all of the plurality of frames included in the video content.

예를 들어, 도 5b의 (a)에 도시된 것과 같이, “클립 전체”에 해당하는 항목(533)이 선택된 경우, 제어부(150)는, 동영상 콘텐츠에 포함된 복수의 프레임 전체에 대하여, 그래픽 객체(520)를 삽입할 수 있다. For example, as shown in (a) of FIG. 5B, when the item 533 corresponding to “entire clip” is selected, the control unit 150 controls graphics for all of the plurality of frames included in the video content. Object 520 can be inserted.

이때, 제어부(150)는, 도 6a에 도시된 것과 같이, 동영상 콘텐츠가 복수의 동영상(610, 620, 630)으로 구성된 경우, 상기 복수의 동영상(610, 620, 630) 중, 앞서 살펴본 기 특정된 시작 프레임(611)을 포함하는 특정 동영상(610)을 구성하는 전체 프레임들에 대해서만, 그래픽 객체(611a)를 삽입할 수 있다. 즉, 앞서 살펴본 연관 프레임은, 상기 특정 동영상(610)을 구성하는 프레임으로 한정될 수 있다. At this time, as shown in FIG. 6A, when the video content consists of a plurality of videos 610, 620, and 630, the control unit 150 selects the specific video content described above among the plurality of videos 610, 620, and 630. The graphic object 611a can be inserted only for all frames constituting the specific video 610 including the start frame 611. In other words, the related frames discussed above may be limited to frames constituting the specific video 610.

이와 같이, 도 5b의 (a)에서 살펴본, “클립 전체”란, 동영상 콘텐츠 전체가 아닌, 동영상 콘텐츠를 구성하는 복수의 동영상(610, 620, 630) 중 어느 하나일 수 있다.As such, the “entire clip” seen in (a) of FIG. 5B may not be the entire video content, but may be one of the plurality of videos 610, 620, and 630 that make up the video content.

예를 들어, 도 6b를 살펴보면, 동영상 콘텐츠는 제1, 제2 및 제3 동영상(610, 620, 630)을 포함하고, 동영상 단위로 그래픽 객체(611a, 621a)가 삽입되었음을 알 수 있다. 예를 들어, 제1 동영상은, 제1 동영상을 구성하는 전체 프레임에 대하여 그래픽 객체(611a)가 삽입되어 있고, 제2 동영상은, 특정 재생 구간에 포함된 일부 프레임(621, 622, 623, 624)에 대해서만 그래픽 객체(612a)가 삽입되어 있다. 그리고, 제3 동영상은, 그래픽 객체가 삽입되어 있지 않다. 이와 같이, 본 발명에서는, 동영상 콘텐츠를 구성하는 개별 동영상 단위로 그래픽 객체의 삽입이 이루어질 수 있다.For example, looking at FIG. 6B, it can be seen that the video content includes first, second, and third videos 610, 620, and 630, and graphic objects 611a and 621a are inserted in each video unit. For example, in the first video, a graphic object (611a) is inserted for all frames constituting the first video, and in the second video, some frames (621, 622, 623, 624) included in a specific playback section ) The graphic object 612a is inserted only for ). And, in the third video, no graphic object is inserted. As such, in the present invention, graphic objects can be inserted into individual video units constituting video content.

한편, 본 발명에 의하면, 동영상 콘텐츠를 구성하는 복수의 동영상에 대하여, 동일한 정보 콘텐츠에 해당하는 태그 삽입 요청이 각각 수신된 경우에는, 복수의 동영상에 동일한 그래픽 객체가 삽입될 수 있음은 물론이다. Meanwhile, according to the present invention, when a tag insertion request corresponding to the same information content is received for a plurality of videos constituting video content, the same graphic object can of course be inserted into the plurality of videos.

나아가, 이상의 실시 예들에서는, 하나의 동영상에 하나의 그래픽 객체를 삽입하는 예에 대해 살펴보았으나, 본 발명에서는, 사용자의 요청에 근거하여, 하나의 동영상에 복수의 그래픽 객체를 삽입하는 것 또한 가능하다. 이 경우, 그래픽 객체의 출력위치, 출력시점, 재생 시점 등은, 모두 사용자의 선택에 근거하여 다양하게 변경 또는 설정될 수 있다. Furthermore, in the above embodiments, we have looked at examples of inserting one graphic object into one video, but in the present invention, it is also possible to insert multiple graphic objects into one video based on the user's request. do. In this case, the output location, output time, playback time, etc. of the graphic object can all be changed or set in various ways based on the user's selection.

위에서 살펴본 것과 같이, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템은, 동영상 콘텐츠를 구성하는 복수의 프레임에 정보 콘텐츠와 연관된 태그를 포함하는 그래픽 객체를 추가함으로써, 동영상 콘텐츠가 재생되는 동안, 추가적인 정보를 제공할 수 있다. 이때, 정보 콘텐츠는, 동영상 콘텐츠를 제작하는 사용자에 의하여 선택된 정보일 수 있으며, 이를 통해 사용자는, 동영상 콘텐츠와 함께 제공하고자 하는 정보를, 보다 직관적으로 제3 자에게 전달할 수 있다.As seen above, the tag insertion method and system for video content according to the present invention adds a graphic object including a tag associated with information content to a plurality of frames constituting the video content, while the video content is played, Additional information may be provided. At this time, the information content may be information selected by the user creating the video content, and through this, the user can more intuitively convey the information desired to be provided along with the video content to a third party.

또한, 본 발명에서는, 동영상 콘텐츠의 재생 구간 중 그래픽 객체가 포함되는 특정 재생 구간을 사용자의 선택에 근거하여 설정함으로써, 사용자의 의도에 따라, 추가적인 정보가 제공되는 시점을 조절할 수 있다. 이를 통해, 사용자는, 재생되고 있는 부분과 연관되도록 정보 콘텐츠를 추가할 수 있다. 나아가, 이와 같이 제작된 동영상 콘텐츠를 이용하는 제3 자(또는 사용자)는, 동영상 콘텐츠의 재생부분과 연관된 정보 콘텐츠를 제공받을 수 있으며, 이를 통해, 별도로 정보 콘텐츠를 검색하기 위한 노력을 줄일 수 있다.Additionally, in the present invention, by setting a specific playback section that includes a graphic object among the playback sections of video content based on the user's selection, the timing at which additional information is provided can be adjusted according to the user's intention. This allows the user to add information content to relate to the portion being played. Furthermore, third parties (or users) who use video content produced in this way can be provided with information content related to the playback portion of the video content, thereby reducing the effort to separately search for information content.

한편, 앞선 설명에서, S320단계에서 정보 콘텐츠를 선택하는 방법에 대하여 살펴보았다. 이하에서는, 정보 콘텐츠가 선택되거나, 입력되는 과정에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 8a, 도 8b, 도 8c 및 도 9는 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 태그로서 삽입할 정보 콘텐츠를 선택하는 방법을 설명하기 위한 개념도들이다.Meanwhile, in the previous explanation, we looked at how to select information content in step S320. Below, the process of selecting or inputting information content will be looked at in more detail along with the attached drawings. FIGS. 8A, 8B, 8C, and 9 are conceptual diagrams for explaining a method of inserting tags into video content and a method of selecting information content to be inserted as a tag in the system according to the present invention.

본 발명에서, “정보 콘텐츠를 선택 받는다” 함은, 전자기기를 통해 제공가능한 정보 콘텐츠 중 적어도 하나를 동영상 콘텐츠에 태그로서 삽입할 정보로서 선택함을 의미한다.In the present invention, “receiving information content” means selecting at least one of the information content available through an electronic device as information to be inserted as a tag into video content.

본 발명에서는, “선택의 방식으로 정보 콘텐츠를 특정”하는 것을 “제1 방식으로 정보 콘텐츠를 선택한다”라고 표현하고, “입력의 방식으로 정보 콘텐츠를 특정”하는 것을 “제2 방식으로 정보 콘텐츠를 선택”한다고 표현할 수 있다. In the present invention, “specifying the information content by the method of selection” is expressed as “selecting the information content by the first method,” and “specifying the information content by the method of input” is expressed by “the information content by the second method.” It can be expressed as “select.”

앞서 살펴본 것과 같이, 제1 방식 또는 제2 방식 중 어느 방식으로 정보 콘텐츠를 선택할지는, 사용자의 선택에 근거할 수 있다. 제어부(150)는, 제1 방식 또는 제2 방식에 따라, 서로 다른 정보 콘텐츠 선택 화면을 제공할 수 있다.As discussed above, whether to select information content using the first method or the second method may be based on the user's selection. The control unit 150 may provide different information content selection screens according to the first method or the second method.

제어부(150)는 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. 이와 다르게, 제어부(150)는 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. When information content is selected in the first method, the control unit 150 may search for information content and provide a user environment for selecting at least one of the searched information as information content. Alternatively, when information content is selected in the second method, the control unit 150 may provide a user environment for inputting information content.

나아가, 본 발명에서는, 사용자가 정보 콘텐츠를 선택하는데 있어, 그 선택의 편의를 위하여, 정보 콘텐츠를 선택하는 과정에서, 정보의 카테고리를 일차적으로 선택하도록 할 수 있다. Furthermore, in the present invention, when selecting information content, the user can primarily select an information category in the process of selecting information content for convenience of selection.

이때, 각각의 카테고리에는 정보를 선택하는 방식이 기 설정되어 존재할 수 있다. 즉, 각각의 카테고리에는, 앞서 살펴본, 제1 방식 또는 제2 방식 중 어느 방식으로 각각의 카테고리에 해당하는 정보를 선택받을지 여부가 기 설정되어 존재할 수 있다.At this time, a method for selecting information may be preset in each category. That is, for each category, it may be preset whether information corresponding to each category will be selected through the first method or the second method, which was discussed above.

예를 들어, 제1 방식과 같이, 검색의 방식으로 정보 콘텐츠를 선택하는 카테고리는, 장소, 쇼핑, 책, 영화, 뉴스, 검색 엔진(검색 포털 사이트) 내에서의 정보, SNS(social network service)에 게시된 정보 검색, 사용자의 계정과 연결되어 웹 상에 게시된 정보 검색 등과 관련된 카테고리일 수 있다.For example, as in the first method, categories for selecting information content by way of search include places, shopping, books, movies, news, information in a search engine (search portal site), and SNS (social network service). It may be a category related to searching for information posted on the web, searching for information posted on the web in connection with the user's account, etc.

다음으로, 제2 방식과 같이, 사용자 입력의 방식으로 정보 콘텐츠를 선택하는 카테고리는, URL, 외부 링크, 질문, 투표, 날씨, 날짜 등의 입력과 관련된 카테고리일 수 있다.Next, like the second method, the category for selecting information content by user input may be a category related to input such as URL, external link, question, vote, weather, date, etc.

제어부(150)는, 제1 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 검색하고, 검색된 정보 중 적어도 하나를 정보 콘텐츠로서 선택받기 위한 사용자 환경을 제공할 수 있다. When information content is selected in the first method, the control unit 150 may search for information content and provide a user environment for selecting at least one of the searched information as information content.

제어부(150)는, 상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 표시하고, 상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받을 수 있다. 그리고, 상기 전자기기 상에, 상기 어느 하나의 카테고리 항목에 대응되는 정보 콘텐츠를 검색하기 위한 검색 화면을 표시할 수 있다. 그리고, 제어부(150)는, 상기 검색 화면을 통해 검색 정보(또는 검색어)가 입력된 경우, 상기 어느 하나의 카테고리 항목에 대응되는 카테고리에 해당하며, 상기 검색 정보와 관련된 정보 콘텐츠를 검색할 수 있다. 그리고, 상기 검색된 정보 콘텐츠 중 어느 하나의 정보 콘텐츠가 선택되면, 제어부(150)는, 동영상 콘텐츠에 상기 어느 하나의 정보 콘텐츠에 대응되는 태그를 포함하는 그래픽 객체를 삽입할 수 있다.The control unit 150 may display a plurality of category items corresponding to different information categories on the electronic device and select one of the plurality of category items. Additionally, a search screen for searching information content corresponding to one of the category items may be displayed on the electronic device. In addition, when search information (or search word) is entered through the search screen, the control unit 150 may search for information content corresponding to the category corresponding to one of the category items and related to the search information. . And, when one of the searched information contents is selected, the control unit 150 may insert a graphic object including a tag corresponding to the one information content into the video content.

예를 들어, 도 8a의 (a)에 도시된 것과 같이, “장소”항목(811)이 선택되는 경우, 제어부(150)는, 장소와 관련된 정보를 검색하기 위한 실행화면(도 8a의 (b) 참조)을 전자기기(100c)에 출력할 수 있다. 이때, 실행화면에는, 전자기기(100c)의 현재 위치(예를 들어, “경기도 성남시 분당구 XX로”)와 관련된 정보(813)가 출력될 수 있다. 제어부(150)는 전자기기(100c)에 구비된 위치 정보 수집 모듈을 이용하여, 전자기기(100c)이 현재 위치 정보를 수집하고, 수집된 정보를 전자기기(100c)에 출력할 수 있다.For example, as shown in (a) of FIG. 8A, when the “place” item 811 is selected, the control unit 150 displays an execution screen ((b) of FIG. 8A for searching information related to the place. ) reference) can be output to the electronic device 100c. At this time, information 813 related to the current location of the electronic device 100c (for example, “To XX, Bundang-gu, Seongnam-si, Gyeonggi-do”) may be displayed on the execution screen. The control unit 150 may collect the current location information of the electronic device 100c using a location information collection module provided in the electronic device 100c and output the collected information to the electronic device 100c.

한편, 비록 도시되지 않았으나, 제어부(150)는, “장소”항목(811)이 선택된 경우, 장소와 관련된 정보를 검색하기 위한 실행화면 상에, 동영상 콘텐츠에 포함된 장소 정보에 대응되는 항목을 더 표시할 수 있다.Meanwhile, although not shown, when the “Location” item 811 is selected, the control unit 150 adds an item corresponding to the location information included in the video content on the execution screen for searching information related to the location. It can be displayed.

이때, 동영상 콘텐츠에 포함된 장소 정보는, 동영상 콘텐츠의 메타 데이터(meta data)로서, 존재하는 정보일 수 있다. 이때, 장소 정보는, 동영상 콘텐츠가 실제 촬영된 장소 일 수 있으며, 동영상 콘텐츠를 촬영한 전자기기에 의해 수집된 정보일 수 있다.At this time, the location information included in the video content may be existing information as meta data of the video content. At this time, the location information may be the location where the video content was actually filmed or may be information collected by the electronic device that filmed the video content.

한편, 제어부(150)는, 도 8a의 (c)에 도시된 것과 같이, 실행화면(820)을 통해, 검색어(또는 검색 정보)를 입력받고, 도 8b의 (a)에 도시된 것과 같이, 검색 정보(예를 들어, “정자동 파크뷰”)에 대응되는 장소 관련 정보 콘텐츠를 검색할 수 있다. 제어부(150)는, 검색된 정보 콘텐츠를 표시할 때, 위에서 상기 전자기기의 현재 위치 정보를 이용할 수 있다. 제어부(150)는, 검색된 장소 관련 정보 콘텐츠 중 상기 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시할 수 있다. 이때, 정보 콘텐츠(또는 장소 관련 정보 콘텐츠)의 출력은, 정보 콘텐츠 그 자체가 아니라, 정보 콘텐츠에 각각 대응되는 항목들로 출력될 수 있다. 즉, 정보 콘텐츠는, 리스트 형식으로 출력될 수 있다.Meanwhile, the control unit 150 receives a search term (or search information) through the execution screen 820, as shown in (c) of FIG. 8A, and inputs a search term (or search information) as shown in (a) of FIG. 8B, You can search for place-related information content corresponding to search information (for example, “Jeongja-dong Park View”). When displaying searched information content, the control unit 150 may use the current location information of the electronic device. The control unit 150 may display the searched place-related information content in the order closest to the current location of the electronic device. At this time, the information content (or location-related information content) may be output as items corresponding to the information content, rather than the information content itself. That is, information content can be output in a list format.

한편, 비록 도시되지는 않았지만, 제어부(150)는, 장소 관련 정보 콘텐츠에 각각 대응되는 항목들을 정렬할 때, 다양한 기준을 적용할 수 있다.Meanwhile, although not shown, the control unit 150 may apply various criteria when sorting items corresponding to place-related information content.

즉, 위에서 살펴본 것과 같이, 제어부(150)는 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시함은 물론, 상기 전자기기의 장소 선택 히스토리 정보에 근거하여, 상기 장소 관련 정보 콘텐츠를 정렬할 수 있다.That is, as seen above, the control unit 150 not only displays the searched place-related information content in the order closest to the current location of the electronic device, but also displays the place-related information based on the place selection history information of the electronic device. Content can be sorted.

이때, “장소 관련 정보 콘텐츠를 정렬”한다고 함은, 상기 장소 관련 정보 콘텐츠에 각각 대응되는 항목들에 대한 정렬을 수행하는 것을 의미할 수 있다.At this time, “sorting the place-related information content” may mean sorting items corresponding to the place-related information content.

한편, 장소 선택 히스토리 정보는, 상기 전자기기에서 선택되었던 장소에 대한 히스토리 정보로서, 제어부(150)는, 전자기기 상에서 장소(또는 장소 정보)가 선택될 때마다, 이에 대한 히스토리 정보를 수집할 수 있다. 여기에서, 상기 전자기기에서 선택되었던 장소(또는 장소 정보)는, 상기 전자기기에서 검색된 장소(또는 장소정보)까지 포함할 수 있다.Meanwhile, location selection history information is history information about a location that has been selected on the electronic device, and the control unit 150 can collect history information about the location (or location information) every time it is selected on the electronic device. there is. Here, the place (or place information) selected by the electronic device may also include the place (or place information) searched by the electronic device.

보다 구체적으로, 장소 선택 히스토리 정보는, 상기 전자기기에서 가장 최근에 선택된 장소 정보(또는 최근 장소 정보) 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보(또는 장소 선택 횟수 정보) 중 적어도 하나를 포함할 수 있다.More specifically, the location selection history information includes at least one of location information (or recent location information) most recently selected in the electronic device and selection number information (or location selection number information) for the location selected in the electronic device. can do.

여기에서, 제어부(150)는, 전자기기에서 특정 장소가 선택될 때마다, 선택된 장소에 대한 선택 횟수 카운팅을 수행할 수 있다. 따라서, 제어부(150)는 선택된 장소가 상기 전자기기에서 몇회 선택되었는지에 대한 히스토리 정보를 보유할 수 있다.Here, the control unit 150 may perform counting of the number of selections for the selected location each time a specific location is selected in the electronic device. Accordingly, the control unit 150 may retain history information about how many times the selected location has been selected on the electronic device.

이와 같이, 제어부(150)는, 상기 장소 관련 정보 콘텐츠를 출력할 때, 사용자가 관심있어 할 만한 요소들, 예를 들어, 사용자로부터 가장 가까운 장소, 사용자가 가장 최근에 검색 또는 선택한 장소, 사용자가 가장 많이 검색 또는 선택한 장소를 우선하여 표시할 수 있다. In this way, when outputting the place-related information content, the control unit 150 may include elements that the user may be interested in, such as the place closest to the user, the place most recently searched or selected by the user, You can prioritize the most searched or selected places.

한편, 제어부(150)는, 장소 관련 정보 콘텐츠를 표시할 때, 상기 전자기의 현재 위치정보, 상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 중 어느 하나를 고려하거나, 또는 적어도 두개를 고려할 수 있다.Meanwhile, when displaying location-related information content, the control unit 150 displays any one of the current location information of the electronic device, information on the most recently selected location in the electronic device, and information on the number of times the location has been selected in the electronic device. You can consider it, or at least two.

예를 들어, 제어부(150)는, 상기 전자기기의 현재 위치정보, 상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 간에 우선순위를 두어 장소 정보 관련 컨텐츠를 표시할 수 있다.For example, the control unit 150 provides location information-related content by prioritizing the current location information of the electronic device, the location information most recently selected by the electronic device, and the selection count information for the location selected by the electronic device. It can be displayed.

예를 들어, 제어부(150)는, 상기 전자기기의 현재 위치정보 정보를 우선하여 고려하되, 동일한 거리에 있는 장소가 복수개 존재하는 경우, 차선으로 상기 전자기기에서 가장 최근에 선택된 장소 정보를 고려할 수 있다.For example, the control unit 150 may consider the current location information of the electronic device first, but if there are multiple places at the same distance, the control unit 150 may consider the location information most recently selected by the electronic device as the next best option. there is.

나아가, 도 8b의 (a)에 도시된 것과 같이, 검색된 정보 콘텐츠에 대응되는 항목들 중 어느 하나의 항목(831)이 선택된 경우, 제어부(150)는, 기 특정된 동영상 콘텐츠에 대해 태그를 삽입할 수 있다. 이때, 삽입되는 태그는, 다시 말해, 태그를 포함하는 그래픽 객체일 수 있다. 즉, 도 8b의 (b)에 도시된 것과 같이, 제어부(150)는 상기 어느 하나의 항목(831)에 대응되는 정보 콘텐츠와 관련된 태그를 생성하고, 생성된 태그를 포함하는 그래픽 객체(850)를 동영상 콘텐츠(840)에 삽입할 수 있다.Furthermore, as shown in (a) of FIG. 8B, when one item 831 among the items corresponding to the searched information content is selected, the control unit 150 inserts a tag for the pre-specified video content. can do. At this time, the inserted tag may be, in other words, a graphic object including the tag. That is, as shown in (b) of FIG. 8B, the control unit 150 generates a tag related to information content corresponding to one of the items 831, and creates a graphic object 850 including the generated tag. can be inserted into the video content 840.

한편, 본 발명에서는, 입력된 검색어에 따른 검색이 이루어진 경우, 도 8c에 도시된 것과 같이, 검색 결과에 대응되는 정보 콘텐츠를, 모두 표시하지 않고, 정보 콘텐츠 각각에 대응되는 항목으로 표시할 수 있다. 이러한 항목은 도시와 같이, 리스트 형식으로 출력될 수 있다. 이때, 제어부(150)는, 각각의 항목에 기능 아이콘(870)을 출력시킬 수 있다. 이러한, 기능 아이콘(870)이 선택된 경우, 제어부(150)는, 도 8c의 (b)에 도시된 것과 같이, 선택된 기능 아이콘(870)이 포함된 항목(예를 들어, “토다이 분당점” 정보 콘텐츠 항목)에 링크된 정보 콘텐츠(880)를 출력할 수 있다. 즉, 제어부(150)는 리스트 상에서, 정보 콘텐츠로 바로 접근이 가능한 사용자 환경을 제공함으로써, 사용자가 정확한 정보 콘텐츠를 선택하도록 유도할 수 있다.Meanwhile, in the present invention, when a search is performed according to an entered search word, as shown in FIG. 8C, the information content corresponding to the search result is not displayed all, but can be displayed as an item corresponding to each information content. . These items can be output in list format, such as cities. At this time, the control unit 150 may output a function icon 870 for each item. When the function icon 870 is selected, the control unit 150 selects an item (e.g., “Todai Bundang Branch” information) including the selected function icon 870, as shown in (b) of FIG. 8C. Information content 880 linked to a content item) may be output. In other words, the control unit 150 can guide the user to select the correct information content by providing a user environment in which information content can be directly accessed from the list.

다음으로, 제어부(150)는, 제2 방식으로 정보 콘텐츠를 선택받는 경우, 정보 콘텐츠를 입력받기 위한 사용자 환경을 제공할 수 있다. 예를 들어, 도 9의 (a)에 도시된 것과 같이, “링크”항목(911)이 선택된 경우, 제어부(150)는 도 9의 (b)에 도시된 것과 같이, 링크 정보를 입력받기 위한 실행화면을 출력할 수 있다. 이때, 실행화면은, 링크 정보 입력 영역(920)을 포함할 수 있다. 링크 정보 입력 영역(920)는 도 9의 (c)에 도시된 과같이, 사용자로부터 입력된 정보가 출력될 수 있다. 사용자로부터의 정보 입력은, 전자기기(100c)를 통해 이루어질 수 있으며, 도시와 같이, 가상의 키보드(930)를 통하여 입력되는 것 또한 가능하다. Next, when information content is selected in the second method, the control unit 150 may provide a user environment for inputting information content. For example, as shown in (a) of FIG. 9, when the “link” item 911 is selected, the control unit 150 performs a function to receive link information as shown in (b) of FIG. 9. The execution screen can be printed. At this time, the execution screen may include a link information input area 920. The link information input area 920 may output information input by the user, as shown in (c) of FIG. 9 . Information can be input from the user through the electronic device 100c, and can also be input through the virtual keyboard 930 as shown.

이와 같이, 사용자로부터 정보가 입력된 경우, 제어부(150)는 사용자로부터 입력된 정보를 정보 콘텐츠로서 특정할 수 있다. 제어부(150), 도 9의 (d)에 도시된 것과 같이, 사용자로부터 입력된 정보 중 적어도 일부를 태그로 생성하고, 생성된 태그를 포함하는 그래픽 객체(960)를 동영상 콘텐츠(950)에 삽입할 수 있다. 한편, 제어부(150)는, 사용자로부터 정보가 입력된 경우, 입력된 정보를, 선택된 카테고리에 대응되는 정보로 처리할 수 있다. 예를 들어, “링크”항목이 선택된 경우, 입력된 정보를 링크 정보로서 처리할 수 있다. 링크 정보로서 처리한다고 함은, 제어부(150)가 링크 정보를 URL주소로 인식하고, 입력된 정보에 대응되는 웹페이지로 바로 접근 가능하도록, 그래픽 객체(960)와 URL 주소를 링크하는 것을 의미할 수 있다. 이 경우, 그래픽 객체(960)가 선택된 경우, 사용자로부터 입력된 정보(예를 들어, 링크 정보(또는 URL주소)에 해당하는 웹페이지가 전자기기(100c) 상에 출력될 수 있다.In this way, when information is input from the user, the control unit 150 can specify the information input from the user as information content. As shown in (d) of FIG. 9, the control unit 150 generates tags from at least some of the information input from the user and inserts a graphic object 960 including the generated tags into the video content 950. can do. Meanwhile, when information is input from the user, the control unit 150 may process the input information as information corresponding to the selected category. For example, when the “Link” item is selected, the entered information can be processed as link information. Processing it as link information means that the control unit 150 recognizes the link information as a URL address and links the graphic object 960 and the URL address so that the web page corresponding to the input information can be directly accessed. You can. In this case, when the graphic object 960 is selected, a web page corresponding to information input by the user (for example, link information (or URL address)) may be output on the electronic device 100c.

한편, 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법을 통해, 태그가 삽입된 동영상 콘텐츠는, 다양한 전자기기에서 출력되는 것이 가능하다. 이하에서는, 위에서 살펴본 방식으로 제작된 동영상 콘텐츠가 임의의 전자기기에서 재생되는 경우, 태그로서 삽입된 그래픽 객체를 통해 정보 콘텐츠가 출력되는 방법에 대하여 보다 구체적으로 살펴본다. 도 10 및 도 11은 본 발명에 따른 동영상 콘텐츠에 대한 태그 삽입 방법 및 시스템에서 정보 콘텐츠를 출력하는 방법을 설명하기 위한 개념도들이다.Meanwhile, through the method of inserting tags into video content according to the present invention, video content with tags inserted can be output from various electronic devices. Below, we will look in more detail at how information content is output through graphic objects inserted as tags when video content produced in the manner described above is played on any electronic device. Figures 10 and 11 are conceptual diagrams to explain a method of inserting tags into video content and a method of outputting information content from the system according to the present invention.

본 발명에 따른 동영상 콘텐츠는, 다양한 전자기기에서 재생될 수 있으며, 동영상 콘텐츠에 삽입된 그래픽 객체는, 앞서 살펴본 특정 재생 구간에서 동영상 콘텐츠가 재생되는 중에 함께 출력될 수 있다. 이러한 동영상 콘텐츠는, 전자기기(100c)에 설치된 동영상 재생 관련 애플리케이션을 통해 재생될 수 있다.Video content according to the present invention can be played on various electronic devices, and graphic objects inserted into the video content can be output together while the video content is being played in the specific playback section discussed above. Such video content can be played through a video playback-related application installed on the electronic device 100c.

예를 들어, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 동영상 콘텐츠가 재생되고 있던 전자기기(100c)의 디스플레이부는, 도 10의 (a)에 도시된 것과 같이, 적어도 두개의 영역(1010, 1020)으로 분할 될 수 있다. 여기에서, 상기 전자기기의 일 영역(1010)에서는, 상기 동영상 콘텐츠가 계속하여 출력되고, 상기 전자기기의 다른 일 영역(1020)에서는 상기 그래픽 객체(1030)에 링크된 정보 콘텐츠가 출력될 수 있다. For example, as shown in (a) of FIG. 2, when the graphic object 220 inserted into the video content is selected, the display unit of the electronic device 100c on which the video content was being played is shown in (a) of FIG. 10. ), it can be divided into at least two areas (1010, 1020). Here, the video content is continuously output in one area 1010 of the electronic device, and information content linked to the graphic object 1030 may be output in another area 1020 of the electronic device. .

한편, 사용자의 요청에 근거하여, 상기 적어도 두개의 영역(1010, 1020) 중 어느 하나의 영역에 포함된 정보의 출력이 종료될 수 있다. 이 경우, 디스플레이부는 더 이상 분할되지 않고, 하나의 영역으로 존재할 수 있다. 이때, 디스플레이부에는, 상기 적어도 두개의 영역 중, 상기 어느 하나의 영역과 다른 영역에 포함되었던 정보가 계속하여 출력될 수 있다. Meanwhile, based on the user's request, output of information included in one of the at least two areas 1010 and 1020 may be terminated. In this case, the display unit is no longer divided and may exist as one area. At this time, information included in one of the at least two areas and a different area may be continuously displayed on the display unit.

이와 다르게, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 상기 그래픽 객체(220)에 링크된 정보 콘텐츠를 포함하는 팝업 윈도우(미도시됨)가 전자기기에 출력될 수 있다. 이때, 팝업 윈도우가 출력되더라도, 동영상 콘텐츠의 재생은 계속하여 유지될 수 있다. 나아가, 팝업 윈도우는 사용자의 요청에 근거하여, 출력이 종료될 수 있다.Differently, as shown in (a) of FIG. 2, when the graphic object 220 inserted in the video content is selected, a pop-up window (not shown) containing information content linked to the graphic object 220 can be output to an electronic device. At this time, even if a pop-up window is output, playback of the video content can be maintained. Furthermore, the output of the pop-up window may be terminated based on the user's request.

또한, 이와 다르게, 도 2의 (a)에 도시된 것과 같이, 동영상 콘텐츠에 삽입된 그래픽 객체(220)가 선택된 경우, 동영상 콘텐츠가 재생되고 있던 전자기기(100c)의 디스플레이부는, 도 10의 (b)에 도시된 것과 같이, 그래픽 객체에 링크된 정보 콘텐츠(1040)가 출력될 수 있다. 이때, 전자기기(100c)의 제어부는, 상기 동영상 콘텐츠의 재생 화면을, 정보 콘텐츠 출력 화면으로 전환할 수 있다. 이 경우, 제어부는, 상기 정보 콘텐츠 출력화면의 적어도 일 영역에, 동영상 콘텐츠(1050)를 출력할 수 있다. 이러한 동영상 콘텐츠(1050)는, 팝업 윈도우를 통해 출력될 수 있다. Additionally, differently from this, as shown in (a) of FIG. 2, when the graphic object 220 inserted into the video content is selected, the display unit of the electronic device 100c on which the video content was being played appears (in FIG. 10). As shown in b), information content 1040 linked to a graphic object may be output. At this time, the control unit of the electronic device 100c may change the playback screen of the video content to an information content output screen. In this case, the control unit may output video content 1050 to at least one area of the information content output screen. This video content 1050 may be output through a pop-up window.

나아가, 전자기기에서 본 발명을 통해 생성된 동영상 콘텐츠가 재생되는 경우, 도 11의 (a)에 도시된 것과 같이, 전자기기의 일 영역에는 상기 동영상 콘텐츠와 관련된 적어도 하나의 기능 아이콘이 출력될 수 있다. 상기 적어도 하나의 기능 아이콘은 전자기기에서 동영상 콘텐츠가 재생되는 중에, 또는 재생이 정지된 중에 출력될 수 있다.Furthermore, when video content created through the present invention is played on an electronic device, at least one function icon related to the video content may be output in one area of the electronic device, as shown in (a) of FIG. 11. there is. The at least one function icon may be output while video content is being played on an electronic device, or while playback is stopped.

한편, 상기 적어도 하나의 기능 아이콘 중 상기 동영상 콘텐츠에 연관된 정보 콘텐츠의 출력을 위한 어느 하나의 기능 아이콘(1120)이 선택된 경우, 전자기기에서는, 도 11의 (b)에 도시된 것과 같이, 상기 동영상 콘텐츠와 관련된 모든 정보 콘텐츠에 대응되는 항목(1130, 1140, 1150)을 포함하는 정보 리스트가 표시될 수 있다. 본 발명에서는, 이러한 기능을 “전체보기” 또는 “모아보기” 기능 등으로 명명할 수 있다. Meanwhile, when any one function icon 1120 for outputting information content related to the video content among the at least one function icon is selected, in the electronic device, as shown in (b) of FIG. 11, the video content An information list including items 1130, 1140, and 1150 corresponding to all information content related to the content may be displayed. In the present invention, this function may be named “View All” or “View All” function, etc.

이와 같이, 정보 콘텐츠에 대응되는 항목(1130, 1140, 1150) 중 어느 하나의 항목(1150)이 선택된 경우, 전자기기에서는, 도 11의 (c)에 도시된 것과 같이, 선택된 항목(1150)에 대응되는 정보 콘텐츠(1160)가 출력될 수 있다. 따라서, 본 발명을 통해 생성된 동영상 콘텐츠를 이용하는 사용자는, 언제라도, 동영상 콘텐츠와 관련되어 태그된 정보 콘텐츠를 한번에 보다 쉽게 파악할 수 있다. 이와 같이, 본 발명에서는, 동영상 콘텐츠에 태그된 정보 콘텐츠로의 직관적인 진입을 유도할 수 있다. In this way, when one of the items 1130, 1140, and 1150 corresponding to the information content is selected, the electronic device displays the selected item 1150 as shown in (c) of FIG. 11. Corresponding information content 1160 may be output. Accordingly, a user using video content created through the present invention can more easily identify information content tagged in relation to video content at any time. In this way, the present invention can induce intuitive entry into information content tagged in video content.

이상에서 살펴본 것과 같이, 본 발명에서는, 동영상 콘텐츠에 포함된 그래픽 객체가 선택되는 경우, 그래픽 객체에 포함된 태그에 링크된 정보 콘텐츠를 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는, 동영상 콘텐츠의 이용 중에 언제라도 정보 콘텐츠로 접근할 수 있다. 이때, 본 발명에서는, 정보 콘텐츠에 대한 정보가 출력되더라도, 전자기기의 일 영역에서 계속하여 동영상 콘텐츠가 재생되도록 하는 사용자 환경을 제공함으로써, 동영상 콘텐츠를 이용하는 제3자(또는 사용자)는 끊김없이 동영상 콘텐츠를 계속하여 이용할 수 있다.As seen above, in the present invention, when a graphic object included in video content is selected, by providing information content linked to a tag included in the graphic object, a third party (or user) using the video content can: You can access information content at any time while using video content. At this time, in the present invention, by providing a user environment that allows video content to be continuously played in one area of the electronic device even if information about information content is output, a third party (or user) using video content can continuously play video content. You can continue to use the content.

Claims (12)

전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집 모드를 실행하는 단계;
상기 태그 편집 모드가 실행되는 것에 근거하여, 상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 제공하는 단계;
상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받는 단계;
상기 어느 하나의 카테고리 항목에 대응되는 특정 정보 카테고리에 해당하며, 상기 특정 정보 카테고리에 기 설정된 방식으로 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 특정받는 단계; 및
상기 동영상 콘텐츠에 상기 정보 콘텐츠에 대응되는 태그 그래픽 객체를 삽입하는 단계를 포함하고,
상기 서로 다른 정보 카테고리 각각에는, 상기 정보 콘텐츠를 특정하는 제1 방식 및 상기 제1 방식과는 다른 제2 방식 중 어느 하나가 기 설정되어 존재하고,
상기 정보 콘텐츠를 특정 받는 단계에서는,
상기 제1 방식 및 상기 제2 방식 중 상기 특정 정보 카테고리에 기 설정된 방식으로, 상기 정보 콘텐츠를 특정할 수 있는 사용자 환경을 상기 전자기기에 제공하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
On the electronic device, executing a tag editing mode for video content;
Based on the tag editing mode being executed, providing a plurality of category items each corresponding to a different information category on the electronic device;
Selecting one category item from among the plurality of category items;
a step of specifying information content that corresponds to a specific information category corresponding to the one category item and is to be associated with the video content in a preset manner for the specific information category; and
Inserting a tag graphic object corresponding to the information content into the video content,
In each of the different information categories, one of a first method for specifying the information content and a second method different from the first method are preset, and
In the step of specifying the information content,
A tag insertion method for video content, characterized in that a user environment capable of specifying the information content is provided to the electronic device using a method preset to the specific information category among the first method and the second method.
제1항에 있어서,
상기 제1 방식은, 선택의 방식으로 상기 정보 콘텐츠를 특정하는 방식이고,
상기 제2 방식은, 입력의 방식으로 상기 정보 콘텐츠를 특정하는 방식인 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 1,
The first method is a method of specifying the information content by a selection method,
The second method is a method of inserting tags into video content, characterized in that the information content is specified by an input method.
삭제delete 제2항에 있어서,
상기 어느 하나의 카테고리 항목에 상기 제1 방식이 매칭되어 있는 경우, 상기 정보 콘텐츠를 특정받는 단계는,
상기 전자기기 상에, 상기 어느 하나의 카테고리 항목에 대응되는 정보 콘텐츠를 검색하기 위한 검색 화면을 표시하는 단계;
상기 검색 화면을 통해 검색 정보가 입력된 경우, 상기 어느 하나의 카테고리 항목에 대응되는 카테고리에 해당하며, 상기 검색 정보와 관련된 정보 콘텐츠를 검색하는 단계; 및
상기 검색된 정보 콘텐츠 중 어느 하나의 정보 콘텐츠를 선택받는 단계를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 2,
If the first method is matched to any one of the category items, the step of specifying the information content includes,
displaying a search screen for searching information content corresponding to one of the category items on the electronic device;
When search information is input through the search screen, searching for information content corresponding to the category corresponding to one of the category items and related to the search information; and
A tag insertion method for video content, comprising the step of selecting one of the searched information contents.
제4항에 있어서,
상기 어느 하나의 카테고리 항목이 장소와 관련된 카테고리 항목인 경우, 상기 검색하는 단계에서는,
상기 검색 정보에 대응되는 장소 관련 정보 콘텐츠를 검색하고,
상기 전자기기의 현재 위치 정보를 이용하여, 상기 전자기기의 현재 위치와 가장 가까운 순으로 상기 검색된 장소 관련 정보 콘텐츠를 표시하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 4,
If one of the category items is a category item related to a place, in the searching step,
Search for place-related information content corresponding to the search information,
A tag insertion method for video content, characterized in that, using the current location information of the electronic device, the searched place-related information content is displayed in the order of closest proximity to the current location of the electronic device.
제4항에 있어서,
상기 어느 하나의 카테고리 항목이 장소와 관련된 카테고리 항목인 경우, 상기 검색하는 단계에서는,
상기 검색 정보에 대응되는 장소 관련 정보 콘텐츠를 검색하고,
상기 전자기기의 현재 위치로부터의 거리정보 및 상기 전자기기와 관련된 장소 선택 히스토리 정보 중 적어도 하나에 근거하여, 상기 검색된 장소 관련 정보 콘텐츠를 정렬하여 표시하고,
상기 장소 선택 히스토리 정보는,
상기 전자기기에서 가장 최근에 선택된 장소 정보 및 상기 전자기기에서 선택된 장소에 대한 선택 횟수 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 4,
If one of the category items is a category item related to a place, in the searching step,
Search for place-related information content corresponding to the search information,
Sorting and displaying the searched place-related information content based on at least one of distance information from the current location of the electronic device and place selection history information related to the electronic device,
The location selection history information above is,
A tag insertion method for video content, comprising at least one of information on the most recently selected location in the electronic device and information on the number of times a location has been selected in the electronic device.
제4항에 있어서,
상기 어느 하나의 카테고리 항목이 장소와 관련된 카테고리 항목인 경우, 상기 검색 화면에는,
상기 동영상 콘텐츠의 메타 데이터(meta data)에 포함된 장소 정보가 더 표시되는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 4,
If any of the above category items is a category item related to a place, the search screen will display,
A tag insertion method for video content, characterized in that location information included in meta data of the video content is further displayed.
제2항에 있어서,
상기 어느 하나의 카테고리 항목에 상기 제2 방식이 매칭되어 있는 경우, 상기 정보 콘텐츠를 특정받는 단계는,
상기 전자기기 상에, 정보 입력 영역을 포함하는 화면을 제공하는 단계; 및
상기 입력 영역을 통해 상기 정보 콘텐츠를 입력받는 단계를 포함하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 2,
If the second method is matched to any one of the category items, the step of specifying the information content includes,
providing a screen including an information input area on the electronic device; and
A tag insertion method for video content, comprising the step of receiving the information content through the input area.
제8항에 있어서,
상기 어느 하나의 카테고리 항목이 링크(Link)와 관련된 카테고리 항목인 경우,
상기 태그 그래픽 객체를 생성하는 단계에서는,
상기 입력된 정보 콘텐츠를 URL 주소로 인식하고,
상기 URL 주소에 대응되는 웹페이지로 바로 접근 가능하도록, 상기 태그 그래픽 객체와 상기 URL 주소를 링크하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to clause 8,
If any of the above category items is a category item related to a link,
In the step of creating the tag graphic object,
Recognize the input information content as a URL address,
A tag insertion method for video content, characterized in that linking the tag graphic object and the URL address so that a web page corresponding to the URL address can be directly accessed.
제1항에 있어서,
상기 복수의 카테고리 항목 각각에는 서로 다른 색상 정보가 매칭되어 존재하고,
상기 태그 그래픽 객체를 생성하는 단계에서는,
상기 서로 다른 색상 정보 중 상기 어느 하나의 카테고리 항목에 매칭된 색상 정보에 대응되는 색상으로 상기 태그 그래픽 객체의 배경 색상을 설정하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 방법.
According to paragraph 1,
Different color information exists in matching each of the plurality of category items,
In the step of creating the tag graphic object,
A tag insertion method for video content, characterized in that setting the background color of the tag graphic object to a color corresponding to color information matched to one of the category items among the different color information.
태그 편집 모드가 실행되는 전자기기에서, 동영상 콘텐츠에 대한 태그 삽입 시스템에 관한 것으로서,
상기 태그 편집 모드가 실행되는 것에 근거하여, 상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 제공하는 제어부; 및
상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받는 입력부를 포함하고,
상기 제어부는,
상기 어느 하나의 카테고리 항목에 대응되는 특정 정보 카테고리에 해당하며, 상기 특정 정보 카테고리에 기 설정된 방식으로 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 특정받고,
상기 동영상 콘텐츠에 상기 정보 콘텐츠에 대응되는 태그 그래픽 객체를 삽입하며,
상기 서로 다른 정보 카테고리 각각에는, 상기 정보 콘텐츠를 특정하는 제1 방식 및 상기 제1 방식과는 다른 제2 방식 중 어느 하나가 기 설정되어 존재하고,
상기 제어부는,
상기 제1 방식 및 상기 제2 방식 중 상기 특정 정보 카테고리에 기 설정된 방식으로, 상기 정보 콘텐츠를 특정할 수 있는 사용자 환경을 상기 전자기기에 제공하는 것을 특징으로 하는 동영상 콘텐츠에 대한 태그 삽입 시스템.
Pertaining to a tag insertion system for video content in an electronic device running a tag editing mode,
a control unit providing a plurality of category items each corresponding to different information categories on the electronic device based on execution of the tag edit mode; and
An input unit that selects one of the plurality of category items,
The control unit,
It corresponds to a specific information category corresponding to one of the category items, and information content to be associated with the video content is specified in a preset manner for the specific information category,
Inserting a tag graphic object corresponding to the information content into the video content,
In each of the different information categories, one of a first method for specifying the information content and a second method different from the first method are preset, and
The control unit,
A tag insertion system for video content, characterized in that the electronic device is provided with a user environment in which the information content can be specified in a method preset to the specific information category among the first method and the second method.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장 가능한 프로그램으로서,
전자기기 상에서, 동영상 콘텐츠에 대한 태그 편집 모드를 실행하는 단계;
상기 태그 편집 모드가 실행되는 것에 근거하여, 상기 전자기기 상에, 서로 다른 정보 카테고리에 각각 대응되는 복수의 카테고리 항목을 제공하는 단계;
상기 복수의 카테고리 항목 중 어느 하나의 카테고리 항목을 선택받는 단계;
상기 어느 하나의 카테고리 항목에 대응되는 특정 정보 카테고리에 해당하며, 상기 특정 정보 카테고리에 기 설정된 방식으로 상기 동영상 콘텐츠와 연관시킬 정보 콘텐츠를 특정받는 단계; 및
상기 동영상 콘텐츠에 대응되는 태그 그래픽 객체를 삽입하는 단계를 수행하는 명령어들을 포함하며,
상기 서로 다른 정보 카테고리 각각에는, 상기 정보 콘텐츠를 특정하는 제1 방식 및 상기 제1 방식과는 다른 제2 방식 중 어느 하나가 기 설정되어 존재하고,
상기 정보 콘텐츠를 특정 받는 단계에서는,
상기 제1 방식 및 상기 제2 방식 중 상기 특정 정보 카테고리에 기 설정된 방식으로, 상기 정보 콘텐츠를 특정할 수 있는 사용자 환경을 상기 전자기기에 제공하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장 가능한 프로그램.
A program that is executed by one or more processes in an electronic device and can be stored in a computer-readable recording medium,
On the electronic device, executing a tag editing mode for video content;
Based on the tag editing mode being executed, providing a plurality of category items each corresponding to a different information category on the electronic device;
Selecting one category item from among the plurality of category items;
a step of specifying information content that corresponds to a specific information category corresponding to the one category item and is to be associated with the video content in a preset manner for the specific information category; and
Includes instructions for inserting a tag graphic object corresponding to the video content,
In each of the different information categories, one of a first method for specifying the information content and a second method different from the first method are preset, and
In the step of specifying the information content,
Can be read by a computer, comprising instructions for providing the electronic device with a user environment capable of specifying the information content in a manner preset to the specific information category among the first method and the second method. A program that can be saved on a recording medium.
KR1020210179659A 2020-03-13 2021-12-15 Method and system for adding tag to video content KR102620445B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031301A Division KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content

Publications (2)

Publication Number Publication Date
KR20210154957A KR20210154957A (en) 2021-12-21
KR102620445B1 true KR102620445B1 (en) 2024-01-02

Family

ID=77925443

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content
KR1020210179659A KR102620445B1 (en) 2020-03-13 2021-12-15 Method and system for adding tag to video content

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200031301A KR102341209B1 (en) 2020-03-13 2020-03-13 Method and system for adding tag to video content

Country Status (1)

Country Link
KR (2) KR102341209B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240062639A (en) * 2022-11-02 2024-05-09 삼성전자주식회사 Electric device and the control method thereof
KR102521904B1 (en) 2022-11-28 2023-04-17 (주)비디오몬스터 System and method for automatic video editing using utilization of auto labeling and insertion of design elements

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907885B1 (en) * 2017-10-17 2018-12-18 주식회사 팝스라인 Terminal and control method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598632B1 (en) * 2009-10-01 2016-02-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Mobile terminal and method for editing tag thereof
KR101674946B1 (en) * 2010-04-16 2016-11-22 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101519047B1 (en) * 2013-10-16 2015-05-12 한양대학교 에리카산학협력단 Video processing method
KR101938667B1 (en) * 2017-05-29 2019-01-16 엘지전자 주식회사 Portable electronic device and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907885B1 (en) * 2017-10-17 2018-12-18 주식회사 팝스라인 Terminal and control method thereof

Also Published As

Publication number Publication date
KR20210115467A (en) 2021-09-27
KR102341209B1 (en) 2021-12-20
KR20210154957A (en) 2021-12-21

Similar Documents

Publication Publication Date Title
US11281711B2 (en) Management of local and remote media items
US10203845B1 (en) Controlling the rendering of supplemental content related to electronic books
US8826169B1 (en) Hiding content of a digital content item
US11307908B2 (en) Format-specific data object passing between applications
US10671267B2 (en) Systems and methods for presentation of content items relating to a topic
US8977963B1 (en) In place expansion of aggregated views
CN104769581B (en) System and method for providing linked note-taking
US20130268826A1 (en) Synchronizing progress in audio and text versions of electronic books
US11960525B2 (en) Automatically formatting content items for presentation
KR102620445B1 (en) Method and system for adding tag to video content
US11630939B2 (en) Semantic navigation of content documents
US20140195337A1 (en) Browser interface for accessing supplemental content associated with content pages
WO2013090946A1 (en) Systems and methods involving features of seach and/or search integration
US20130013401A1 (en) System and method for providing document link service and linkable advertisement
TW201426361A (en) Flat book to rich book conversion in e-readers
WO2014093446A2 (en) Context based look-up in e-readers
US10387503B2 (en) Systems and methods involving features of search and/or search integration
KR20130095511A (en) Method for producing literary work using e-book contents in e-book library
US20190258666A1 (en) Resource accessibility services
EP4099711A1 (en) Method and apparatus and storage medium for processing video and timing of subtitles
RU2625936C1 (en) Machine-sensible information processing method
Chang et al. Mobile Website Creation based on Web Data eXtraction and Reuse
KR20230069683A (en) Apparatus and method for processing integrated contents
KR20230032687A (en) Method for providing music sharing sns

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant