WO2017209482A1 - 동영상 컨텐츠를 제공하는 시스템 및 방법 - Google Patents

동영상 컨텐츠를 제공하는 시스템 및 방법 Download PDF

Info

Publication number
WO2017209482A1
WO2017209482A1 PCT/KR2017/005617 KR2017005617W WO2017209482A1 WO 2017209482 A1 WO2017209482 A1 WO 2017209482A1 KR 2017005617 W KR2017005617 W KR 2017005617W WO 2017209482 A1 WO2017209482 A1 WO 2017209482A1
Authority
WO
WIPO (PCT)
Prior art keywords
video content
user
matching emotion
emotion code
code
Prior art date
Application number
PCT/KR2017/005617
Other languages
English (en)
French (fr)
Inventor
신민규
천솔지
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160067374A external-priority patent/KR101843021B1/ko
Application filed by (주)잼투고 filed Critical (주)잼투고
Priority claimed from KR1020170066540A external-priority patent/KR20170135745A/ko
Publication of WO2017209482A1 publication Critical patent/WO2017209482A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies

Definitions

  • the present invention relates to a system and method for providing video content.
  • a user In order to view a desired video content on a site that provides video content, a user generally searches for video content through keywords. Keyword search is helpful when a user finds exactly the desired video content, but there is no video content that the user specifically wants, and it is not suitable when a user wants to browse various video contents.
  • Video recommendation according to the input of interest information has a problem in that it is difficult for the user to correctly grasp his or her preferences or to satisfy the preferences of the users.
  • the classification criteria of the provider are applied to classify the various contents by type, but the user's personal classification criteria cannot be reflected, so the recommended video contents for each individual does not satisfy the user's preference. have.
  • the user may require post-evaluation such as recommendation or star rating for the video content.
  • This post evaluation is used as an index for determining the quality of the corresponding content, and is used as a means for evaluating high quality video by users.
  • recommendation or star rating only covers dissatisfaction with the video content and is irrelevant to the property of the video content. Therefore, user feedback on post-assessment is used as the basis of curation to classify the video content by property. There is no problem.
  • Google's U.S. Patent No. 8,775,415 "Media-Based Recommendations" sends user's interest information while watching episodes of a series, and recommends episodes of other series with high relevance according to the popularity of the third party.
  • the method is disclosed.
  • the user has an effect of recommending an episode of another series in addition to the series that he or she watches.
  • the relevance level of the episode of the series being watched and the episode of the other series recommended is only explained by the similarity of the program in the detailed description of the cited invention, and there is a problem that the evaluation or preference of users is not reflected in the determination of the relevance level.
  • US Patent No. 8,595,226, "Method and system for providing content according to personal preference,” refers to a user requesting a category of video content, and if the category or subcategory of the category corresponds to a preference tag set by the user, Disclosed is a method for providing video content according to a preference score based on access frequency, a preference level, etc. of a video content of a category requested by the user. According to this method, there is an effect that can recommend video content reflecting the user's preferences, but not only the user needs to input the preference tag in advance, but also the user's mood or preference change that the recommended video content changes from time to time. There was a problem of not responding adaptively.
  • US Patent No. 8,832,721 Video Efficacy Measurement of MoviTV discloses a method of detecting a user's movement using a camera and estimating the user's immersion based on the user's movement and reflecting it in the recommendation of the video content. According to the method of reflecting the user's immersion based on physical change in the recommendation of the video content, the user convenience is high because the user does not require additional recommendation or evaluation of the video content, and it is distorted because it is based on the physical change. The advantage of the evaluation is that it is less.
  • the content evaluation is to provide high-quality content to subscribers and ultimately for the provider of the video.
  • the user must provide the body information corresponding to the sensitive personal information while watching the video for the provider. Providing the user's physical information not only raises privacy concerns but also violates applicable laws in countries that restrict the collection of personal information.
  • Patent Document 0002 US Patent No. 8,595,226
  • the video content providing system and the method according to the present invention by receiving the estimated matching emotion code through the visual response item selected by the user who received the video content for the video content to obtain the estimated matching emotion code
  • the video content providing system and the method according to the present invention by receiving the estimated matching emotion code through the visual response item selected by the user who received the video content for the video content to obtain the estimated matching emotion code
  • the user since the user selects a visual response item such as a simple figure and returns an estimated matching emotion code matching the selected visual response item, the user infers the meaning of the visual response item. It is not necessary to read a sentence or the like and interpret the meaning, so that the user's convenience of content evaluation is improved.
  • a user is provided with a video content in a state in which a user does not recognize a correlation between a visual response item that is a non-literal display and a matching emotion code that is an ideological expression of a psychology matching the visual response item.
  • Another purpose is to prevent users from intentionally evaluating distortion by having them perform an evaluation.
  • a video content providing system and a method may include adding a plurality of matching emotion codes to integrated content evaluation information according to a frequency of a visual response item selected by a plurality of users for a specific video content, and evaluating integrated content.
  • a video content evaluation information map of the corresponding video content based on the information, another purpose is to display various emotional responses based on the emotions of various users in an integrated and clear manner.
  • the video content providing system and the method according to an embodiment of the present invention provide the same type of video content having the same estimated matching emotion code as the estimated matching emotion code corresponding to the visual response item selected by the user to the user.
  • users can receive similar emotional video contents in various genres so that users can respond to changing emotions and preferences. For other purposes.
  • the video content providing system and the method according to an embodiment of the present invention provides the user with the video content viewing having the opposite video content having an estimated matching emotion code opposite to the estimated matching emotion code corresponding to the visual response item selected by the user. Accordingly, another purpose is to satisfy the desire of the user who is in a state of elevation of a certain emotion to reverse the emotion.
  • a video content providing system and a method according to an embodiment of the present invention provide deep video content having the same matching emotion code as the estimated matching emotion code corresponding to the visual response item selected by the user, but having an estimated matching emotion code corresponding to a deeper emotion.
  • a video content providing method comprising: a first step of identifying a selected video content selected from a first user by providing a video selection interface for selecting video content in a video sharing environment; A second step of the video content providing system receiving at least one selected visual response item from the first user by providing a questionnaire response interface including visual response items selectable after or during playback of the selected video content; The video content providing system receives a matching emotion code corresponding to the selected visual response item as an estimated matching emotion code of the first user through a matching emotion code database in which matching emotion codes matching the visual response items are stored.
  • the video content providing system generates an integrated estimated matching emotion code by integrating estimated matching emotion codes of a plurality of users except the first user and the estimated matching emotion code of the first user with respect to the selected video content.
  • Fourth step And a fifth step of generating, by the video content providing system, integrated content evaluation information for the selected video content based on the integrated estimated matching emotion code generated in the fourth step.
  • the first part receiving the first estimated matching emotion code to the nth estimated matching emotion code for the selected video content of the first to n-th user (n is an integer of 2 or more) through the matching emotion code database step; And a first rank estimate matching emotion code to an m th rank estimate matching according to a frequency rank of the estimated matching emotion codes through the first estimated matching emotion code to the nth estimated matching emotion code returned through the first sub-step. And a second sub-step of determining an emotion code (m is an integer of 1 or more).
  • the third sub-step may further include generating the first ranking estimation matching emotion code as integrated content evaluation information of the selected video content through the frequency ranking of the estimated matching emotion codes of the second sub-step. do.
  • the second rank estimation matching emotion code to the k th rank estimation matching emotion code (k is an integer greater than or equal to 2 and less than or equal to m) through the frequency ranking of the estimated matching emotion codes of the second sub-step may be determined.
  • the fourth sub-step of adding the integrated content evaluation information characterized in that it further comprises.
  • the first rank estimation matching emotion code is displayed in a representative content evaluation information display area, and the second rank estimation matching emotion code to the kth rank estimation matching emotion code (k is an integer of 2 or more m or less).
  • Sub step characterized in that it further comprises.
  • the video content providing system the sixth step of providing the first user with the same type of video content having the integrated content evaluation information matching the estimated matching emotion code of the first user; do.
  • the video content providing system the seventh step of providing the first user with the opposite video content having the integrated content evaluation information that is opposite to the estimated matching emotion code of the first user;
  • Matching emotion code database characterized in that it further comprises matching emotion code relationship information defining the matching emotion code for each matching emotion code.
  • the matching emotion code relation information defining a level indicating a deepening degree for each matching emotion code is stored in the matching emotion code database, and the video content providing system is configured to estimate the matching of the first user.
  • the first step includes matching emotion code relationship information defining mutually opposite matching emotion codes for each matching emotion code, and matching emotion code relationship information defining a level representing a level of deepening for each matching emotion code.
  • a sixth sub-step of storing in a database wherein the video content providing system selects one of an emotional state maintaining option, an emotional state inversion option, and an emotional state deepening option from the first user after the third step.
  • a ninth step of receiving selection In the ninth step, when the emotion state maintenance option is selected from the first user, the video content providing system selects homogeneous video content having the integrated content evaluation information that matches the estimated matching emotion code of the first user.
  • a tenth step of providing the first user When the emotion state reversal option is selected by the first user in the ninth step, the video content providing system selects the opposite video content having the integrated content evaluation information that is opposite to the estimated matching emotion code of the first user.
  • the ninth step receives a swipe in a first direction through the touch screen of the first user's information terminal as an emotional state maintaining option, and the first user through the touch screen of the information terminal of the first user.
  • the wife may be input as an emotional deepening option.
  • the first step stores matching emotion code relationship information that defines the relationship between the matching emotion codes in the matching emotion code database, and after the third step matches the estimated matching emotion code of the first user.
  • the video content providing system provides a questionnaire sequence in which questionnaires including a plurality of selectable visual response items are sequentially arranged through the questionnaire response interface, wherein the questionnaire sequence includes a first emotion.
  • a first questionnaire group for determining a group and a second questionnaire group for determining a level of the first emotion group, or the first questionnaire group for determining a second emotion group distinct from the first emotion group and the first question group
  • a second questionnaire group for determining the level of the two emotion groups
  • the matching emotion code database stores and stores a plurality of matching emotion codes divided into the first emotion group and the second emotion group, and the first emotion. And storing level information of each of the matching emotion codes belonging to the group and level information of each of the matching emotion codes belonging to the second emotion group. It shall be.
  • a video content providing method comprising: a first step of identifying a selected video content that is a video content selected from a first user by providing a video selection interface for selecting video content in a video sharing environment; A second video inputting system providing a questionnaire response interface including a plurality of selectable visual response items after or during playback of the selected video content to receive at least one selected visual response item from the first user; step; The video content providing system receives a matching emotion code corresponding to the selected visual response item as an estimated matching emotion code of the first user through a matching emotion code database in which matching emotion codes matching the visual response items are stored.
  • the video content providing system receives a plurality of individual content evaluation information of a plurality of users other than the first user with respect to the selected video content, and integrates the individual content evaluation information of the first user to integrate integrated content evaluation information.
  • a video providing system includes a questionnaire response interface providing module providing a questionnaire response interface including a plurality of visual response items selectable after or during playback of a video content selected by a user; A selection visual response item identification module for identifying selection visual response items that are at least one visual response item selected from the user; A matching emotion code database for storing a matching emotion code that is an emotion code matched for each of the plurality of visual response items, and returning the matching emotion code corresponding to the selected visual response item as an estimated matching emotion code of the user; An individual content evaluation information generation module for generating individual content evaluation information of the user for the selected video content based on the estimated matching emotion code returned from the matching emotion code database; An integrated estimated matching emotion code generation module for generating an integrated estimated matching emotion code by integrating estimated matching emotion codes of a plurality of users with respect to the selected video content; And an integrated content evaluation information generation module for generating integrated content evaluation information of a plurality of users of the selected video content based on the integrated estimation matching emotion code generated from the integrated estimation matching emotion code generation
  • the integrated estimation matching emotion code generation module integrates the first estimated matching emotion code to the nth estimated matching emotion code of the first to n th users (n is an integer of 2 or more) for the selected video content.
  • the integrated estimated matching emotion code is generated, and the integrated content evaluation information generation module estimates a first rank according to a frequency ranking of the estimated matching emotion codes through the first estimated matching emotion code to the nth estimated matching emotion code.
  • a frequency ranking determiner for determining a matching emotion code to an m th rank estimation matching emotion code (m is an integer of 1 or more).
  • the integrated content evaluation information generation module characterized in that for generating the integrated content evaluation information of the selected video content of the first ranking estimation matching emotion code determined by the frequency ranking unit.
  • the integrated content evaluation information generation module is configured to determine the second rank estimate matching emotion code determined by the frequency ranking unit to the k th rank estimate matching emotion code (k is an integer of 2 or more and m or less). Characterized in that the added to the integrated content evaluation information.
  • the integrated content evaluation information generation module displays the first ranking estimation matching emotion code determined by the frequency ranking unit in a representative content evaluation information display area, and the second ranking estimation matching emotion code to the k th time.
  • an integrated content evaluation map generator configured to display an integrated content evaluation information map displaying a ranking estimation matching emotion code on the second ranking content evaluation information display area to the first ranking content evaluation information display area.
  • the evaluation map generator may determine the width of each content evaluation information display area based on the estimated matching emotion code ranking.
  • the integrated content evaluation information generation module the integrated content evaluation information storage unit for storing the integrated content evaluation information for each of the selected video content classified by the estimated matching emotion code returned from the matching emotion code database;
  • an integrated content recommendation unit configured to provide the user with homogeneous video content that is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code that matches the estimated matching emotion code of the user. It is done.
  • the matching emotion code database further stores matching emotion code relationship information defining a matching emotion code corresponding to each matching emotion code
  • the integrated content evaluation information generating module evaluates the integrated content for each of the selected video content.
  • An integrated content evaluation information storage unit for classifying and storing information for each estimated matching emotion code returned from the matching emotion code database;
  • an integrated content recommendation unit configured to provide the user with upper half video content which is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code that is opposite to the estimated matching emotion code of the user. It is done.
  • the matching emotion code database further stores matching emotion code relationship information defining a level indicating a deepening degree for each matching emotion code
  • the integrated content evaluation information generation module is further configured to evaluate the integrated content for each of the selected video content.
  • An integrated content evaluation information storage unit for classifying and storing information for each estimated matching emotion code returned from the matching emotion code database;
  • an integrated content recommendation unit for providing the user with deep video content, which is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code whose level is deeper than the estimated matching emotion code of the user. It is characterized by including.
  • the integrated content evaluation information generation module further comprises: an integrated content evaluation information storage unit for storing the integrated content evaluation information for each of the selected video content by storing the estimated matching emotion codes returned from the matching emotion code database; And when the state maintenance request signal is received from the user, provide the same type of video content, which is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code that matches the estimated matching emotion code of the user, to the user.
  • the video content which is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code that is opposite to the estimated matching emotion code of the user, is provided to the user.
  • Maid It characterized in that it comprises a; a recreational integrated content like portion provided to the user.
  • the integrated content recommendation unit recognizes a swipe in a first direction on the touch screen of the user's information terminal as the state maintaining request signal and recognizes a swipe in a second direction different from the first direction. Recognizing a reverse request signal, it is characterized in that the swipe in the third direction different from the first direction and the second direction as the state deepening request signal.
  • the matching emotion code database further stores matching emotion code relationship information defining matching emotion codes for each matching emotion code
  • the integrated content evaluation information generation module generates the content evaluation information for each user
  • a homogeneous video content list that is a list of video contents having the integrated content evaluation information that matches the estimated matching emotion code of the user, and a list of the video content having the integrated content evaluation information that is opposite to the estimated matching emotion code
  • a video content list generator displaying a video content list.
  • the questionnaire response interface providing module provides a questionnaire sequence in which questionnaires including a plurality of selectable visual response items are sequentially arranged through the questionnaire response interface, wherein the questionnaire sequence determines a first emotion group.
  • a first questionnaire group and a second questionnaire group for determining a level of the first emotion group, or a second questionnaire group for determining a second emotion group distinct from the first emotion group;
  • a second questionnaire group for determining a level, wherein the matching emotion code database stores and stores a plurality of matching emotion codes divided into the first emotion group and the second emotion group, and belongs to the first emotion group. And further storing level information of each of the emotion codes and level information of each of the matching emotion codes belonging to the second emotion group.
  • the video content providing system and the method according to the present invention by receiving the estimated matching emotion code through the visual response item selected by the user who has received the video content for the video content, the estimated matching emotion code to the individual content
  • the evaluation information and generating the integrated content evaluation information by collecting the individual content evaluation information of the plurality of users, it provides an effect of evaluating the video content in a three-dimensional and qualitative manner based on the emotional response of various users.
  • the user since the user selects a visual response item such as a simple figure and returns an estimated matching emotion code matching the selected visual response item, the user infers the meaning of the visual response item. Because it does not need to read the sentence or interpret the meaning, or to improve the convenience of the user's content evaluation, and because it is not based on a call dislike, it provides an effect of improving the user's participation rate of the content evaluation.
  • a user is provided with a video content in a state in which a user does not recognize a correlation between a visual response item that is a non-literal display and a matching emotion code that is an ideological expression of a psychology matching the visual response item.
  • a video content providing system and a method may include adding a plurality of matching emotion codes to integrated content evaluation information according to a frequency of a visual response item selected by a plurality of users for a specific video content, and evaluating integrated content.
  • displaying the integrated content evaluation information map of the video content based on the information, it provides the effect of integrating and clearly displaying various emotional responses based on the emotions of various users.
  • the video content providing system and the method according to an embodiment of the present invention provide the same type of video content having the same estimated matching emotion code as the estimated matching emotion code corresponding to the visual response item selected by the user to the user.
  • users can receive similar emotional video contents in various genres so that users can respond to changing emotions and preferences. Provide effect.
  • the video content providing system and the method according to an embodiment of the present invention provides the user with the video content viewing having the opposite video content having an estimated matching emotion code opposite to the estimated matching emotion code corresponding to the visual response item selected by the user. Accordingly, it provides an effect of satisfying the desire of the user who is in a state of elevation of a certain emotion to reverse the emotion.
  • a video content providing system and a method according to an embodiment of the present invention provide deep video content having the same matching emotion code as the estimated matching emotion code corresponding to the visual response item selected by the user, but having an estimated matching emotion code corresponding to a deeper emotion.
  • the user who is in an elevated state of a certain emotion according to the viewing of the video content provides an effect of satisfying the desire to deepen such emotion.
  • FIG. 1 is a block diagram showing a video content providing system according to an embodiment of the present invention.
  • FIG. 2 is a view illustrating a web page screen of the video content providing system according to an exemplary embodiment of the present invention.
  • 3 is a table showing matching emotion codes for each visual response item according to an embodiment of the present invention.
  • FIG. 4 is a data structure diagram showing individual content evaluation information according to an embodiment of the present invention.
  • FIG. 5 is a data structure diagram showing integrated content evaluation information according to an embodiment of the present invention.
  • FIG. 6 is a screen embodiment of a touch screen of a user information terminal according to an embodiment of the present invention.
  • FIG. 7 is a processing flowchart illustrating a video content providing method according to the present invention.
  • FIG. 8 is a flowchart illustrating a method of generating integrated content evaluation information in a method for providing video content according to an embodiment of the present invention.
  • FIG. 9 is a process flowchart showing a video content providing method according to an embodiment of the present invention.
  • FIG. 10 is a view for explaining a video content providing system according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a method for recommending video content according to an embodiment of the present invention.
  • FIG. 12 is a configuration diagram illustrating a device and a server according to an embodiment of the present invention.
  • the description that a part “includes” an element means that the element may further include other elements, except for the absence of a special objection thereto.
  • the terms “.. module”, “.. unit”, “.. server”, “.. system”, etc. described in the specification mean a unit that processes at least one function or operation, which is hardware or software or It may be implemented in a combination of hardware and software, and may be included in one device or each other device.
  • the video content providing system 100 includes a questionnaire response interface providing module 120, a selection visual response item identification module 130, a matching emotion code database 140, and individual content evaluation. And an information generation module 150, an integrated estimation matching emotion code generation module 160, and an integrated content evaluation information generation module 170.
  • each component is functionally divided to clearly explain the operation of the video content providing system 100 according to the present invention. Therefore, each module is not necessarily divided into a single physically separated component, but may be implemented in the form of a set of computer instructions constituting a part of a program, for example. The function of the module can be expressed.
  • a user accesses a server providing video content through an information terminal (or device) to select a desired video content through keyword search, or a video. It may be performed by selecting a desired video content from the content list.
  • the video selection interface may be implemented as, for example, a selection screen implemented through a web page or a video search app (application) for selecting a desired video content from a plurality of video contents through an internet browser.
  • the video content providing system 100 may be an information terminal (or device) such as a mobile phone, a tablet, a PC, a notebook, a wearable, a virtual reality machine, a server, or a server, and may include a server and an information terminal. It may be.
  • the user can install a program or application in the information terminal, execute the application, and send and receive data to and from the server using the application.
  • the survey response interface providing module 120 provides a survey response interface including a plurality of visual response items that can be selected after or during playback of the selected video content selected by the user.
  • a plurality of visual response items is displayed on the display device.
  • the visual response items may be displayed separately from the video content or may be displayed overlayed with the video content.
  • the video content providing system 100 plays the selected video content 210.
  • a questionnaire response interface 212 for estimating the psychological state of the user according to the viewing of the video content after the play of the selected or selected video content 210 is completed is provided.
  • the video content providing system 100 may receive an input for selecting a visual response item a plurality of times while the video content 210 is being played, and estimate the psychological state of the user according to the playback time of the video content 210. It may be.
  • the user may select the visual response item to be displayed several times while watching the video content, and the video content providing system 100 may store the visual response item selected by the user and the selected number together.
  • the video content providing system 100 may estimate that the psychological state of the user watching the video content 210 is changed into empathy and love sadness through visual response items selected by the user.
  • the questionnaire response interface 212 may be configured as a questionnaire including a plurality of visual response items 222 selectable by a user.
  • the questionnaire is preferably a question that the user can quickly answer without deeply worrying and a simple choice that can be selected.
  • the visual response item 222 may be, for example, a color, an image, a figure, a physical object, or the like.
  • the preference preference test is for measuring individual emotional states by using distinctive simple shapes.
  • the color preference test is also used to measure individual emotional states using three or more elements of color. Each test analyzes individual psychology according to preferences by shape and color based on standardized clinical results.
  • the visual response items 222 are not particularly limited, and may be various objects designed through clinical results, for example, to measure an individual emotional state in the psychoanalytic field.
  • the visual response item 222 of the present invention excludes a sentence type text set that is difficult to intuitively select.
  • a typical questionnaire consists of sentence questions and sentence choices. Sentence-type questions and choices have a problem that intuitive selection is difficult because the user must read the entire question and the choices and interpret the meaning. When a user who is watching a video content is given a sentence-type question, the user may not respond to the questionnaire to avoid the trouble of reading and interpreting each sentence.
  • the survey participation rate can be increased intuitively and easily without additional analysis, thereby providing an effect of increasing the survey participation rate.
  • the video content providing system 100 may construct a questionnaire including visual response items suitable for the selected video content selected by the user. For example, if the user has watched the video content of the comic genre, the video content providing system 100 may provide a questionnaire or a question corresponding to the bright mood to include visual response items of colors that can identify bright mood more specifically. Can be. On the contrary, if the user has watched the video content of the tragedy genre, the video content providing system 100 may provide a questionnaire or a question corresponding to the depressed mood that includes visual response items of the colors to more specifically identify the depressed mood. Can be.
  • the video content providing system 100 may further include a questionnaire response setting module 125 for setting a questionnaire corresponding to the genre of video content.
  • a questionnaire response setting module 125 for setting a questionnaire corresponding to the genre of video content.
  • an administrator of the video content providing system 100 may set a questionnaire corresponding to a genre for each genre of video content using the questionnaire response setting module 125.
  • the selection visual response item identification module 130 identifies the selection visual response item that is at least one visual response item selected by the user.
  • the matching emotion code database 140 stores a matching emotion code, which is an emotion code matched for each of the plurality of visual response items, and returns a matching emotion code corresponding to the selected visual response item as an estimated matching emotion code of the user.
  • matching emotion codes are classified and stored for each visual response item.
  • the matching emotion code database 140 may define a star-shaped visual response item as a first emotion, a circle-shaped visual response item as a second emotion, and a heart-shaped visual response item as a third emotion.
  • the first emotion may be defined as a "sympathetic" matching emotion code
  • the second emotion is a "happy” matching emotion code
  • the third emotion may be defined as a "love” matching emotion code.
  • the video content providing system 100 plays the video content selected by the user, and returns a matching emotion code corresponding to the visual response item selected by the user from the matching emotion code database 140 to estimate the user's matching with the selected video content. Emotion codes can be identified.
  • a single visual response item is not necessarily one-to-one associated with a single matching emotion code, a plurality of visual response items may be associated with a single matching emotion code, a single visual response item is a plurality of matching emotions May be associated with the codes.
  • a single questionnaire response interface does not only need to include a single question, but may also include a plurality of questions when it is necessary to further grasp the emotion of the user.
  • the number of visual response items presented in one question is not particularly limited, and an appropriate number of visual response items may be selected according to the user's convenience of selection and the accuracy of an emotional state to be acquired. Also, only visual response items may be displayed without question.
  • the personal content evaluation information generation module 150 generates the user's personal content evaluation information for the selected video content based on the estimated matching emotion code returned from the matching emotion code database 140.
  • the individual content evaluation information may include a video content identifier for identifying video content, a user identifier for identifying a user, and an estimated matching emotion code. More preferably, the individual content evaluation information may include additional information (eg, a plurality of estimated matching emotion codes when the user answers a plurality of questions, and selected visual response items when the user selects a plurality of visual response items for a single question). The plurality of estimated matching emotion codes, viewing time information, viewing frequency information, etc. may be further included.
  • the integrated estimation matching emotion code generation module 160 generates the integrated estimation matching emotion code by integrating the estimated matching emotion codes of the plurality of users with respect to the selected video content. That is, the integrated estimation matching emotion code generation module 160 integrates the first estimated matching emotion code to the nth estimated matching emotion code of the first to n th users (n is an integer of 2 or more) for the selected video content. Generate an integrated estimated matching emotion code.
  • the integrated estimated matching emotion codes are 6 products. It can be one emotion and four second emotions.
  • the integrated content evaluation information generation module 170 generates integrated content evaluation information of a plurality of users for the selected video content based on the integrated estimated matching emotion code generated from the integrated estimation matching emotion code generation module 160.
  • the integrated content evaluation information generation module 170 may generate the integrated content evaluation information based on the first emotion having the largest six times.
  • the integrated content evaluation information may include a video content identifier and an integrated matching emotion code for identifying the video content. More preferably, the integrated content evaluation information may further include additional information (for example, an estimated matching emotion code of second rank frequency or an estimated matching emotion code of third rank frequency, information on the number of users added to the integrated evaluation of corresponding video content, etc.). have.
  • the video content providing system 100 recognizes the estimated emotion code of the user through the selected visual response item, utilizes the estimated emotion code as individual content evaluation information, and integrates the estimated emotion codes of a plurality of users into the video content. It provides an effect that can be used as content evaluation information. In addition, the video content providing system 100 provides an effect of increasing the objectivity of content evaluation because more users participate in content evaluation because the user intuitively selects a visual response item without cumbersome recognition or procedure.
  • the video content providing system 100 may generate estimated matching emotion codes for a plurality of users who watch the selected video content, respectively.
  • the integrated estimation matching emotion code generation module 160 integrates the first estimated matching emotion code to the nth estimated matching emotion code of the first to n th users (n is an integer of 2 or more) for the selected video content and performs integrated estimation. Matching emotion code can be generated.
  • the integrated content evaluation information generation module 170 may further include a frequency ranking determiner 172 that determines the frequency ranking of the estimated matching emotion codes through the first estimated matching emotion code to the nth estimated matching emotion code. .
  • the frequency ranking determiner 172 may determine the first rank matching matching feeling code to the m th rank matching matching feeling code (m is an integer of 1 or more) according to the frequency ranking of the estimated matching feeling codes.
  • the integrated content evaluation information generation module 170 may generate the first ranking estimation matching emotion code determined by the frequency ranking unit 172 as integrated content evaluation information of the selected video content.
  • the video content may include a comic element and a tragic element.
  • the integrated content evaluation information generation module 170 may generate integrated content evaluation information based on a plurality of matching emotion codes.
  • the integrated content evaluation information generation module 170 selects the second rank estimate matching emotion code to the k th rank estimate matching emotion code determined by the frequency ranking unit 172 (k is an integer of 2 or more and m or less). Can be added as integrated content evaluation information.
  • the integrated content evaluation information map 240 may be visualized in various ways, and as shown, it is preferable to visualize the size, color, or position of the emotion code according to the frequency of the visual response item selected by the user.
  • the integrated content evaluation information generation module 170 displays the first ranking estimation matching emotion code determined by the frequency ranking determiner 172 in the representative content evaluation information display area, and the second ranking estimation matching emotion code to the k th rank ( k is an integer greater than or equal to 2 and less than or equal to m).
  • An integrated content evaluation map displaying the integrated content evaluation information map 240 in which the estimated matching emotion code is displayed on the second rank content evaluation information display area to the first rank content evaluation information display area.
  • the generation unit 174 may further include.
  • the integrated content evaluation map generator 174 may determine the width of each content evaluation information display area based on the estimated matching emotion code ranking. For example, the integrated content evaluation map generation unit 174 may most widely allocate the representative content evaluation information display area, and display the first rank estimation matching emotion code in the representative content evaluation information display area the largest. For example, when the first rank estimation matching emotion code is “warm,” the integrated content evaluation map generator 174 may display “warm” as the largest. In addition, the integrated content evaluation map generator 174 may allocate the representative content evaluation information display area to the center of the integrated content evaluation information map 240 to be the largest. The remaining content evaluation information display areas may be allocated to positions surrounding the representative content evaluation information display area. In addition, the integrated content evaluation map generation unit 174 may display only the first ranking estimation matching emotion code on the integrated content evaluation information map 240.
  • the boundaries of the content evaluation information display areas may or may not be displayed. 2 shows an example in which no boundary is displayed and only emotion codes (sympathy, joy, happiness, love, etc.) are displayed.
  • the boundary may be displayed by a solid line, a dotted line, or the like, and each display area may be displayed in a different color.
  • the video content providing system 100 recommends another video content corresponding to the mental state of the user.
  • the video content providing system 100 recommends the same kind of video content that can maintain the current psychological state of the user, and second, the video content providing system 100 views the current psychological state of the user. Third, the video content that can be deepened is recommended, and the third video content providing system 100 recommends the opposite video content that can reverse the current mental state of the user.
  • the video content providing system 100 may recommend another video content having integrated content evaluation information based on the “fun” emotion code. If the user wants to deepen the pleasant emotion, the video content providing system 100 may recommend other video content having integrated content evaluation information based on the “very enjoyable” emotion code. When the user wants to reverse the pleasant emotion, the video content providing system 100 may recommend other video content having integrated content evaluation information based on the “sorrow” emotion code.
  • the video content providing system 100 may recommend other video content having integrated content evaluation information based on the “sorrow” emotion code.
  • the video content is provided.
  • the system 100 provides video content that matches the user's selection.
  • the video content providing system 100 determines the state maintaining request 231 when the user touches an area marked “Keep” or swipes the touch screen from left to right.
  • the video content providing system 100 determines the state reversal request 232 when the user touches an area marked “upper” or swipes the touch screen from top to bottom.
  • the video content providing system 100 determines the deepening request 233 when the user touches an area marked as “deep” or swipes up from the bottom of the touch screen.
  • the video content providing system 100 may detect an intensity at which the user presses the touch screen and determine what the user's request is based on the intensity. Although two options are provided in FIG. 2, other options may be provided in addition to the maintenance, inversion, and deepening options.
  • the video content providing system 100 may recommend video content according to a user's request.
  • the integrated content evaluation information generation module 170 may include an integrated content evaluation information storage unit 171 and an integrated content recommendation unit 173.
  • the integrated content evaluation information storage unit 171 classifies and stores the integrated content evaluation information for each video content by the estimated matching emotion codes returned from the matching emotion code database 140.
  • the integrated content recommendation unit 173 provides the user with homogeneous video content having integrated content evaluation information corresponding to the estimated matching emotion code that matches the estimated matching emotion code of the user.
  • the video content providing system 100 may provide integrated content evaluation information based on an emotion code matching "triangle". Recommend video content to have. For example, when the first emotion is “joy”, the "triangle" is matched with the middle level emotion code among the "joy” emotion codes. Therefore, the video content providing system 100 recommends video content having an intermediate level of "joy” as integrated content evaluation information.
  • the matching emotion code relation information may be stored in advance so as to recommend the video content according to the user's request.
  • the matching emotion code database 140 may further store matching emotion code relationship information that defines a level indicating a deepening degree for each matching emotion code.
  • the integrated content recommendation unit 173 provides the user with deepened video content having integrated content evaluation information corresponding to the estimated matching emotion code whose level is deeper than the estimated matching emotion code of the user. For example, in FIG.
  • the video content providing system 100 may determine the first of the first emotion group corresponding to the deepening.
  • the video content having integrated content evaluation information based on the emotion code corresponding to the "star shape” corresponding to the "image” of the emotion is recommended.
  • the matching emotion code relation information may be stored in advance so as to recommend the video content according to the user's request.
  • the matching emotion code database 140 may further store matching emotion code relationship information that defines opposite matching emotion codes for each matching emotion code.
  • the first emotion group and the second emotion group define opposite matching emotion codes.
  • the first emotional group may be “positive” and the second emotional group may be “negative”.
  • the first emotion of the first emotion group may be opposite to the first emotion of the second emotion group.
  • the integrated content recommendation unit 173 provides the user with the upper half video content, which is the video content having the integrated content evaluation information corresponding to the estimated matching emotion code that is opposite to the estimated matching emotion code of the user. If a "triangle" visual response item matching the first emotion of the first emotion group is selected, the video content providing system 100 may provide an emotion corresponding to the "diamond shape" matching the first emotion of the second emotion group corresponding to the inversion. Recommended video content with integrated content evaluation information based on code.
  • the video content providing system 100 may recommend other video content corresponding to the gesture of the user after viewing the video content.
  • the video content providing system 100 performs a state holding request signal of a user's swipe in the first direction 62 with respect to the touch screen 60 of the information terminal while providing the video content. It is input as the first selection signal recognized as.
  • the video content providing system 100 uses the integrated content evaluation information storage unit 171 and the integrated content recommendation unit 173 to provide a video having integrated content evaluation information corresponding to the estimated matching emotion code that matches the estimated matching emotion code of the user. Recommend content.
  • the video content providing system 100 recognizes a user's swipe in the second direction 63 with respect to the touch screen 60 of the information terminal as the state inversion request signal of the above-described example while providing the video content. It is input as the second selection signal.
  • the video content providing system 100 uses the integrated content evaluation information storage unit 171 and the integrated content recommendation unit 173 to provide a video having integrated content evaluation information corresponding to the estimated matching emotion code that is opposite to the estimated matching emotion code of the user. Recommend content.
  • the video content providing system 100 recognizes a swipe of the user in the third direction 61 with respect to the touch screen 60 of the information terminal as the state deepening request signal of the above-described example while providing the video content. It is input as a selection signal.
  • the video content providing system 100 uses the integrated content evaluation information storage unit 171 and the integrated content recommendation unit 173 to evaluate the integrated content evaluation information corresponding to the estimated matching emotion code whose level is increased compared to the estimated matching emotion code of the user. Recommend video content having.
  • the video content providing system 100 uses the integrated content list interface 235 to match other video contents that match the estimated matching emotion code of the user and other video contents that are in conflict with each other.
  • the list may be displayed together while providing the selected video content.
  • the integrated content evaluation information generation module 170 is opposite to the homogeneous video content list that is a list of video contents having the integrated content evaluation information matching the estimated matching emotion code of the user after generating the user's personalized content evaluation information, and the estimated matching emotion code.
  • the integrated content list generator 175 may display an upper half video content list, which is a list of video contents having integrated content evaluation information.
  • the video content providing system 100 includes a questionnaire 220 and a questionnaire including a plurality of selectable visual response items 222 through the questionnaire response interface 212 illustrated in FIG. 2.
  • 220 may include a questionnaire response interface providing module 120 that provides a questionnaire sequence in which a plurality of questionnaires are sequentially arranged.
  • the questionnaire sequence includes a first questionnaire group for determining the first emotion group and a second questionnaire group for determining the level of the first emotion group, or a first question for determining a second emotion group that is distinguished from the first emotion group. And a second questionnaire group for determining the level of the questionnaire group and the second emotion group.
  • the matching emotion code database 140 stores a plurality of matching emotion codes into a first emotion group and a second emotion group, and stores the level information and the second emotion group of each of the matching emotion codes belonging to the first emotion group. Further stores the level information of each of the matching feeling codes belonging to.
  • the video content providing method according to the present invention is implemented through the video content providing system 100.
  • the first step s10 may be performed by, for example, a user accessing a video content providing server through an information terminal and selecting a desired video content through keyword search, or selecting a desired video content from a video content list.
  • the video selection interface may be implemented as, for example, a selection screen implemented through a web page or an application for selecting a desired video content among a plurality of video contents through an internet browser.
  • the video content providing system 100 provides a survey response interface including visual response items that can be selected after or during playback of the selected video content to receive at least one selected visual response item from the first user. Steps s21 to s23 are performed.
  • the video content providing system 100 is playing the selected video content or the selected video.
  • a questionnaire response interface 212 for estimating a psychological state according to user's viewing of video content is provided (S22).
  • the survey response interface 212 may be a survey including a plurality of visual response items 222 selectable by a user.
  • the survey may include questions that the user can quickly select without worrying deeply.
  • the visual response item may be, for example, a color, an image, a figure, a physical object, or the like.
  • the visual response item may exclude a sentence type text set that is difficult to intuitively select.
  • the video content providing system 100 presents a visual response item consisting of simple questions and simple figures to the user as in the embodiment of the present invention, the user can intuitively and easily answer the questionnaire without any additional analytical action, so the survey participation rate To increase the effect.
  • the video content providing system 100 may provide a questionnaire including visual response items suitable for the attribute of the selected video content. For example, if a user watches a select video content of a comedy genre, the questionnaire includes visual response items of color that can identify bright mood more specifically, or the question of the questionnaire itself is provided as a question corresponding to the cheerful mood, and conversely a phenomenon If the selected video content of the genre is watched, the questionnaire includes visual response items of colors for more specifically identifying the depressed mood, or the question of the questionnaire may be provided as a question corresponding to the depressed mood. For example, an administrator of the video content providing system 100 may set a questionnaire corresponding to the genre of video content.
  • the video content providing system 100 estimates the matching emotion code corresponding to the selected visual response item through the matching emotion code database 140 in which matching emotion codes matching each visual response item are stored.
  • a third step (s30) is performed (s31), and the first user's personal content evaluation information for the selected video content is generated based on the estimated matching emotion code (s32).
  • the matching emotion code database 140 stores matching emotion codes for each visual response item.
  • the star-shaped visual response item may be defined as a first emotion
  • the circular visual response item is a second emotion
  • the heart-shaped visual response item corresponds to a third emotion.
  • the first emotion may be defined as a "joy” matching emotion code
  • the second emotion is a "sadness” matching emotion code
  • the third emotion may be defined as a "fear” matching emotion code.
  • the video content providing system 100 receives a matching emotion code corresponding to the visual response item selected by the user according to the playback of the selected video content from the matching emotion code database 140.
  • the estimated matching emotion code of the user according to the content viewing may be identified.
  • a single visual response item is not necessarily one-to-one associated with a single matching emotion code, a plurality of visual response items may be associated with a single matching emotion code, a single visual response item is a plurality of matching emotions May be associated with the codes.
  • a single questionnaire response interface does not only need to include a single question, but may include a plurality of questions when it is necessary to further grasp the emotion of the user.
  • the number of response visual response items presented in one question is not particularly limited and may be determined as an appropriate number according to the user's selection convenience and the accuracy of the emotional state to be acquired.
  • the video content providing system 100 generates user's personal content evaluation information for the selected video content based on the estimated matching emotion code returned from the matching emotion code database 140.
  • the individual content evaluation information may include a video content identifier for identifying video content, a user identifier for identifying a user, and an estimated matching emotion code as illustrated in FIG. 4.
  • the personal content evaluation information may correspond to additional information (eg, a plurality of estimated matching emotion codes when the user answers a plurality of questions, and a plurality of visual response items selected when the user selects a plurality of visual response items for a single question). And a plurality of estimated matching emotion codes, viewing time information, viewing frequency information, and the like.
  • the video content providing system 100 integrates the estimated matching emotion codes of a plurality of users except the first user with the estimated matching emotion code of the first user (s41) for the selected video content (s41).
  • a fourth step S40 is performed.
  • the video content providing system 100 integrates estimated matching emotion codes of a plurality of users for a single selected video content to generate an integrated estimated matching emotion code. That is, the video content providing system 100 integrates the first estimated matching emotion code and the nth estimated matching emotion code of the first to n th users (n is an integer of 2 or more) for the selected video content, and performs integrated estimation matching. Generate an emotion code.
  • the video content providing system 100 performs a fifth step 50 of generating integrated content evaluation information for the selected video content based on the integrated estimated matching emotion code generated in the fourth step. .
  • the integrated content evaluation information may include a video content identifier and an integrated matching emotion code for identifying the video content.
  • the integrated content evaluation information may further include additional information (for example, an estimated matching emotion code of second rank frequency or an estimated matching emotion code of third rank frequency, user number information added to the integrated evaluation of video content, etc.).
  • the video content providing system 100 recognizes an estimated emotion code of a user through the selected visual response item, utilizes the estimated emotion code as individual content evaluation information, and estimates matching emotions of a plurality of users. By combining the codes, it provides an effect that can be utilized as integrated content evaluation information for video content.
  • the video content providing system 100 according to the present invention provides an effect of increasing the objectivity of content evaluation by allowing more users to participate in content evaluation because the user intuitively selects a visual response item without cumbersome recognition or procedure. .
  • the video content providing system 100 matches the first estimated matching emotion code to the nth estimated matching emotion code of the first to n th users (n is an integer of 2 or more) with respect to the video content selected by the user.
  • the first sub-step of returning through the database 140 and integrating the first estimated matching emotion code to the nth estimated matching emotion code (s41) to generate the integrated estimated matching emotion code (s42) is performed.
  • the video content providing system 100 according to the frequency ranking of the matching emotion codes through the first estimated matching emotion code to the nth estimated matching emotion code (the first rank matching emotion code to the m th estimated matching emotion code ( m is an integer of 1 or more) (s43).
  • the video content providing system 100 performs a third substep of extracting the first ranking estimation matching emotion code determined in the second substep (s44) and generating the integrated content evaluation information of the selected video content (s45). do.
  • the video content providing system 100 extracts the second rank estimation matching emotion code to the first rank estimate matching emotion codes following the first rank determined in the second sub-step (s46), and then integrates the selected content of the selected video content.
  • the fourth sub-step of adding to the evaluation information (s47) is performed.
  • the video content providing system 100 performs a fifth sub-step of generating an integrated content evaluation information map using the integrated content evaluation information (s48).
  • the video content providing system 100 may display the emotion codes for the video content through the integrated content evaluation information map.
  • the user may select any one of the emotion codes displayed on the integrated content evaluation information map, and the video content providing system 100 may recommend video content corresponding to the emotion code selected by the user.
  • the video content providing system 100 may provide a video selection interface for selecting video content in a video sharing environment to identify selected video content, which is video content selected by a first user, in operation S90. Perform the steps.
  • the video content providing system 100 may provide a survey response interface including a plurality of selectable visual response items after or during playback of the selected video content to receive at least one selected visual response item from the first user.
  • the second steps s91 to s93 are performed.
  • the video content providing system 100 returns a matching emotion code corresponding to the selected visual response item as the estimated matching emotion code of the first user through a matching emotion code database in which matching emotion codes matched for each visual response item are stored.
  • a third step of generating personal content evaluation information of the first user for the selected video content based on the estimated matching emotion code is performed (S95).
  • the video content providing system 100 receives a plurality of individual content evaluation information of a plurality of users except the first user with respect to the selected video content (s96), and the plurality of individual users of the plurality of users except the first user.
  • the integrated content evaluation information is generated by integrating the content evaluation information with the individual content evaluation information of the first user (s97) and provides the generated integrated content evaluation information (s98).
  • the video content providing system 100 performs a fifth step of providing (s99) homogeneous video content having integrated content evaluation information matching the estimated matching emotion code of the first user to the first user.
  • the video content providing system 100 may include a device 300 and / or a server 400. 1 to 9, the contents described with respect to the video content providing system 100 are equally applied to the device 300 or the server 400 of FIG. 10.
  • the device 300 may be a user's mobile phone, tablet, PC, laptop, wearable, VR device, or the like.
  • the server 400 may be a data processing device including a memory, a processor, and the like.
  • the server 400 may further include a display device.
  • the server 400 is connected to the device 300 by a communication network such as wired or wireless.
  • the device 300 and the server 400 may transmit and receive data.
  • the device 300 may receive a user's input and transmit data or information according to the user's input to the server 400.
  • the device 300 may download video content, a program, an application, or various data from the server 400 through a communication network.
  • the device 300 may store video content.
  • the device 300 may download the video content from the server 400 or may store the video content in the internal memory of the device 300.
  • the device 300 may include a camera, and the user may capture a video using the camera of the device 300 and store the video in the memory of the device 300.
  • the device 300 may receive video content from an electronic device other than the server 400.
  • the device 300 may transmit the captured video or the video content received from another electronic device to the server 400.
  • each step of the video content providing method is performed by the device 300. All may be performed.
  • 11 is a flowchart illustrating a method of recommending video content, according to an exemplary embodiment. 11 illustrates a method in which the device 300 receives video content through the server 400.
  • the server 400 transmits a video selection interface to the device 300.
  • the device 300 may access a website provided by the server 400 through the Internet, and the server 400 may transmit information of the website to the device 300.
  • the server 400 may transmit an application file to the device 300, and the application file may include a video selection interface.
  • the video selection interface provides a list of a plurality of video contents and provides an environment in which a user can search or select the video contents.
  • the device 300 may install and execute an application file received from the server 400.
  • the device 300 displays a video selection interface.
  • the device 300 may provide a video selection interface to a user through a display device.
  • the device 300 receives a user's selection.
  • the user may select any one of the plurality of video contents displayed on the device 300 or search for a video to select the video content.
  • the device 300 transmits information about the video content selected by the user to the server 400.
  • the device 300 may transmit a title, an identification number, an identification letter, or the like of the video content to the server 400.
  • the server 400 transmits the video content and the survey response interface selected by the user to the device 300.
  • the server 400 may transmit the entire file of the video content to the device 300 or may transmit a part of the video content to the device 300 according to a time point at which the video content is played.
  • the survey response interface may be transmitted to the device 300 together with or separately from the video content.
  • the survey response interface may be transmitted to the device 300 while the video content is played on the device 300, and may be transmitted to the device 300 after the playback of the video content is completed.
  • the server 400 may transmit the video content option processing interface 234 illustrated in FIG. 2 to the device 300.
  • the device 300 plays the video content received from the server 400.
  • the device 300 may play video content on a full screen or play video content on a partial screen.
  • the device 300 displays a survey response interface.
  • the device 300 may display the survey response interface while playing the video content, or display the survey response interface after the playback of the video content is completed. If the device 300 plays the video content on the full screen, the device 300 may overlay the questionnaire response interface on the video content and display the video. In addition, when playing the video content on a part of the screen, the device 300 may display the survey response interface separately from the video content.
  • the device 300 receives a user's selection. For example, the device 300 receives a user's selection through a questionnaire response interface. The user may select at least one of the visual response items displayed in the survey response interface, and the device 300 identifies the visual response item selected by the user. The user may select any one of the displayed visual response items or directly input a figure, letters or numbers. The device 300 may identify a user's input by searching for a figure, letters, or numbers most similar to a figure, letters, or numbers directly input by the user. In addition, the device 300 receives a user's selection through the video content option processing interface 234 shown in FIG. 2. The user can select any one of the plurality of options, and the device 300 identifies the option selected by the user.
  • the device 300 transmits information about the user's selection to the server 400.
  • the device 300 transmits information about the visual response item selected by the user to the server 400.
  • the device 300 may transmit a name, an identification number, or an identifier of the visual response item to the server 400.
  • the device 300 transmits information about the option selected by the user to the server 400.
  • the device 300 transmits information indicating any one of state maintenance, state inversion, or state maintenance to the server 400.
  • the server 400 determines video content according to a user's selection.
  • the server 400 determines the video content to be transmitted to the device 300 based on the information about the user's selection received from the device 300. For example, the server 400 may determine the video content according to the visual response item selected by the user, or determine the video content according to the option selected by the user.
  • the server 400 determines the video content based on the user's selection and the emotion code evaluated by other users.
  • the method of determining the video content by the server 400 may be applied in the same manner as described above.
  • the server 400 transmits the determined video content to the device 300.
  • the server 400 transmits the entire file of the determined video content to the device 300.
  • the server 400 may transmit only the title, identification number, etc. of the video content determined to the device 300.
  • the device 300 recommends video content received from the server 400.
  • the device 300 may search for the video content stored in the memory and recommend the searched video content.
  • the device 300 may recommend the video content by displaying the title or representative image of the video content to be recommended.
  • the device 300 includes a processor 310, a display device 320, and a memory 330.
  • the server 400 includes a processor 410 and a memory 420.
  • the above description about the video content providing system 100 also applies to the device 300 and the server 400. All steps performed by the video content providing system 100 may be executed by the device 300 or the server 400.
  • the device 300 and the server 400 may transmit or receive data or information to each other, and determine video content to be recommended to the user.
  • Device 300 and server 400 may include one or more processors or memory.
  • the processor 310 of the device 300 controls the display apparatus 320 and the memory 330. For example, the processor 310 determines a video content or an interface to be displayed on the display device 320. The processor 310 stores data in or reads data from the memory 330.
  • the device 300 may further include a touch screen for receiving an input from a user.
  • the touch screen receives a user's touch input and transmits information about the touch input to the processor 310.
  • the device 300 may further include a motion sensor for detecting a movement of the device 300.
  • the motion sensor may detect a direction, intensity, time, etc. of the device 300 moving.
  • the display apparatus 320 of the device 300 may simultaneously display the video content, the questionnaire, the user input field, the recommended video content, the list of the video contents, the video content evaluation map, or the like at the same time.
  • the display device 320 may display the video content and the questionnaire together.
  • the display device 320 may display a list of video content and recommended video content.
  • the device 300 may display a plurality of video contents on the display apparatus 320 and receive an input for selecting any one video content from a user.
  • the device 300 may display the video content selected by the user among the plurality of video contents on the display apparatus 320 in full screen.
  • the device 300 may transmit information indicating the selected video content to the server 400, and download or stream the selected video content from the server 400.
  • the device 300 may download or stream the questionnaire about the video content received from the server 400.
  • the device 300 may display a questionnaire on the display device 320 while playing the selected video content. Alternatively, the device 300 may display the questionnaire on the display device 320 after completing the playback of the selected video content.
  • the survey may be displayed to overlap with the video content or may be displayed in an area separate from the video content.
  • the memory 330 stores video content or information about video content.
  • the memory 330 may store the visual response item, the emotion code, and the relationship information between the visual response item and the emotion code.
  • the device 300 may transmit information about the visual response item selected by the user to the server 400.
  • the device 300 may read the emotion code corresponding to the visual response item selected by the user from the memory 330, and transmit the information about the emotion code to the server 400.
  • the device 300 may determine the video content according to the emotion code corresponding to the visual response item selected by the user, and transmit information about the video content determined to the server 400.
  • the device 300 may receive the determined video content from the server 400 or read the determined video content from the memory 330 and play the same through the display apparatus 320.
  • the processor 310 of the device 300 may determine the video content to be recommended according to a user's input.
  • the processor 310 may determine the video content to be recommended according to the visual response item selected by the user or the option selected by the user.
  • the processor 310 may determine video content to be recommended according to the selected visual response item.
  • the processor 310 estimates the psychological state of the user by using an emotion code matching the visual response item, and determines the video content to be recommended according to the estimated psychological state.
  • the processor 310 recommends the video content having the same emotion code as the user's emotion code, recommends the video content having the emotion code opposite to the user's emotion code, or the video content having the emotion code deeper than the user's emotion code. I can recommend it.
  • the processor 310 may generate an integrated content evaluation information map for the video content, and display the integrated content evaluation information map.
  • the user may select any one of the emotion codes displayed on the integrated content evaluation information map, and the processor 310 may recommend video content corresponding to the emotion code selected by the user.
  • the server 400 transmits data to the device 300.
  • the server 400 may transmit a video selection interface, a questionnaire response interface, video content, and an emotion code of the video content to the device 300.
  • the processor 410 of the server 400 may determine data to be transmitted to the device 300 based on the information received from the device 300.
  • the processor 410 of the server 400 may determine video content to be recommended by using a user input received from the device 300 and data stored in the memory 420.
  • the processor 410 determines the attribute of the video content according to the visual response item selected by the user or the option selected by the user, and recommends the video content having the determined attribute.
  • the processor 410 of the server 400 may determine video content to be recommended according to the selected visual response item.
  • the processor 410 estimates the psychological state of the user by using an emotion code matching the visual response item, and determines the video content to be recommended according to the estimated psychological state.
  • the processor 410 recommends video content having the same emotion code as the user's emotion code, recommends the video content having the emotion code opposite to the user's emotion code, or the video content having the emotion code deeper than the user's emotion code. I can recommend it.
  • the memory 420 of the server 400 stores a questionnaire response interface, video content, and emotion codes of video content. Also, the memory 420 may store a program, an application, and the like for providing video content.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

사용자로부터 선택된 동영상 컨텐츠를 식별하는 단계; 상기 선택된 동영상 컨텐츠의 재생 이후 또는 재생 중 비쥬얼 응답 아이템들을 표시하고, 상기 사용자로부터 선택된 비쥬얼 응답 아이템을 식별하는 단계; 상기 선택된 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 상기 사용자의 추정 매칭 감정코드로 결정하는 단계; 상기 사용자를 제외한 복수의 사용자들의 추정 매칭 감정코드들과 상기 사용자의 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성하는 단계; 및 상기 통합 추정 매칭 감정코드를 기초로 상기 선택된 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보를 생성하는 단계;를 포함하는 동영상 컨텐츠 제공 방법.

Description

동영상 컨텐츠를 제공하는 시스템 및 방법
본 발명은 동영상 컨텐츠를 제공하는 시스템 및 방법에 관한 것이다.
온라인 동영상 커뮤니티의 확산과 동영상 컨텐츠를 제공하는 기술이 발달함에 따라, 사용자들은 용이하게 네트워크를 통해 동영상들을 감상하고, 공유할 수 있다.
또한, 사용자들의 개인화된 컨텐츠(UGC, User Generated Contents) 제작 욕구의 증가에 따라 다양한 동영상 컨텐츠들이 생산 및 제공되고 있으며, YouTube 등과 같이 동영상 컨텐츠를 제공하는 사이트는 동영상 컨텐츠를 제작하는 사람들에게 동영상들을 쉽게 업로드하고 업로드 된 동영상을 다른 사용자에게 공유할 수 있는 기회를 제공한다.
동영상 컨텐츠를 제공하는 사이트에서 사용자가 원하는 동영상 컨텐츠를 보기 위해서 사용자는 일반적으로 키워드를 통해 동영상 컨텐츠를 검색한다. 키워드 검색은 사용자가 정확히 원하는 동영상 컨텐츠를 찾을 때에는 도움이 되지만, 사용자가 특별히 원하는 동영상 컨텐츠가 없고, 여러 동영상 컨텐츠들을 훑어 보고자 할 때에는 적합하지 않다.
키워드 검색의 한계를 극복하기 위해 동영상 컨텐츠를 추천하는 다양한 방법이 제안되었다. 예컨대 많은 사용자들이 선택한 동영상 컨텐츠를 인기 컨텐츠로 추천하는 방법, 사용자의 기존 구매 또는 감상한 동영상 컨텐츠와 동일한 장르의 다른 동영상 컨텐츠들을 추천하는 방법, 사용자가 관심정보를 입력한 경우 입력된 관심정보와 관련 있는 동영상 컨텐츠를 추천하는 방법 등이 있다.
그런데 자신의 기호조차 파악할 수 없을 정도로 다양한 종류의 동영상 컨텐츠가 공급되는 환경에서 사용자에게 사용자의 성향에 부합하는 최적화된 동영상 컨텐츠를 자동으로 추천하는 것이 필요한데, 종래의 방법에 따르면 인기 동영상 컨텐츠를 추천하는 것은 사용자의 기호를 반영하기 어렵고, 사용자의 구매 또는 감상 패턴에 따라 동영상 컨텐츠를 추천하는 것은 사용자가 접하지 못한 분야의 동영상 컨텐츠를 추천할 수 없다. 관심정보 입력에 따른 동영상 추천은 사용자가 자신의 기호를 정확히 파악하지 못한 경우 또는 시시각각 변하는 사용자의 기호를 충족하기 어렵다는 문제가 있다.
더욱이 동종의 컨텐츠를 추천한다고 하더라도 여러 개의 컨텐츠들을 종류별로 분류함에 있어 제공자의 분류기준이 적용될 뿐 사용자의 개인적인 분류기준이 반영되지 못하여 개인에 따라 추천된 동영상 컨텐츠가 사용자의 기호를 충족시키지 못하는 문제가 있다.
한편, 동영상 컨텐츠를 감상한 후 사용자에게 해당 동영상 컨텐츠에 대한 추천여부 또는 별점평가 등의 사후평가를 요구하는 경우가 있다. 이러한 사후평가는 해당 컨텐츠의 퀄리티를 결정하는 지표로 사용되어 고품질의 동영상을 사용자들에 의해 평가하게 하는 수단으로 활용된다.
그런데, 동영상 컨텐츠 감상 후 동영상 컨텐츠를 추천할 것인지 또는 높은 별점을 부여할 것이지는 동영상 컨텐츠에 대한 사용자의 긍정적 평가에 기반하게 된다. 그리고 사후평가는 강제적인 것이 아니기 때문에 동영상 컨텐츠에 대한 높은 관심도를 갖는 사람들만 사후평가에 참여하는 것이 일반적이다. 이 결과 사후평가에 기반한 컨텐츠 평가는 사용자의 폭넓은 참여를 확보하지 못해 평가결과의 보편성이 떨어지는 문제가 있었다.
뿐만 아니라, 추천여부 또는 별점평가 등은 해당 동영상 컨텐츠에 대한 호불호만을 가릴 뿐이고 해당 동영상 컨텐츠의 속성과는 무관하기 때문에 사후평가에 관한 사용자 피드백은 동영상 컨텐츠를 속성별로 분류하는 큐레이션의 기반정보로 활용할 수 없는 문제가 있다.
Google사의 미국 등록특허 제8,775,415호 "Media-Based Recommendations"는 시리즈물의 에피소드를 사용자가 시청하는 중 사용자의 관심정보를 전송하면, 제삼자의 인기도에 따라 관련성 레벨이 높은 다른 시리즈물의 에피소드를 사용자에게 추천하는 방법을 개시한다. 이러한 종래기술에 따르면 사용자는 자신이 감상하는 시리즈물 외에 다른 시리즈물의 에피소드를 추천 받는 효과가 있다. 하지만 감상 중인 시리즈물의 에피소드와 추천 받는 다른 시리즈물의 에피소드의 관련성 레벨은 인용발명의 상세한 설명에서 프로그램의 유사도로만 설명되었을 뿐 관련성 레벨의 결정에 사용자들의 평가나 기호가 반영되지 못하는 문제가 있었다.
Yahoo사의 미국 등록특허 제8,595,226호 "Method and system for providing content according to personal preference"는 사용자가 동영상 컨텐츠의 카테고리를 요청하고, 카테고리 또는 카테고리의 하위 카테고리가 사용자가 기설정한 선호도 태그에 해당하면, 사용자가 요청한 카테고리의 동영상 컨텐츠의 접속빈도, 선호도 레벨 등에 기반한 선호도 점수에 따라 동영상 컨텐츠를 제공하는 방법을 개시한다. 이러한 방법에 따르면, 사용자의 선호도가 반영된 동영상 컨텐츠를 추천할 수 있는 효과가 있지만, 사용자로부터 사전에 선호도 태그를 미리 입력 받아야 할 뿐 아니라, 추천되는 동영상 컨텐츠가 시시각각 변하는 사용자의 기분 또는 기호의 변화에 적응적으로 대응하지 못하는 문제가 있었다.
한편, 인터넷 기술, 블로그 및 소셜 네트워크와 같은 새로운 형태의 통신의 확산에 의해 개인적 기호와 감성이 동영상 컨텐츠를 선택하는 중요한 요소가 되고 있다. 대표적으로 동영상 컨텐츠를 선택할 때, 다른 사용자들의 의견이 반영된 별점을 확인하여 소비성향이나 선호경향을 파악하고 별점을 기반으로 동영상 컨텐츠를 선택하는 사용자가 확대되는 실정이다.
그러나 별점 부여 방식과 같이 개인의 감정을 일반화하고 포괄적인 틀에서 다루고자 하는 동영상 컨텐츠 평가방법은 개인 간의 기호와 감성 차이를 간과하고 있다는 점이 문제라고 할 수 있다. 이러한 문제점을 보완하기 위하여 개인의 성격이나 능력, 적성 등 개인의 심리를 분석할 수 있도록 설문지 유형의 심리검사, 성향검사 등과 같은 구조화된 검사들이 있으나 이는 사용자가 전체 질문과 선택문항들을 읽어보고 의미를 해석해야 하기 때문에 복잡한 처리를 요하는 장시간의 평가를 견뎌야 하는 복잡하고 불편한 문제가 있다.
MoviTV사의 미국등록특허 제8,832,721호 "Video Efficacy Measurement"는 카메라를 이용하여 사용자의 움직임을 감지하고 사용자의 움직임에 기초하여 사용자의 몰입도를 추정하여 동영상 컨텐츠의 추천에 반영하는 방법을 개시한다. 신체적 변화에 기반한 사용자의 몰입도 추정을 동영상 컨텐츠의 추천에 반영하는 방법에 따르면 사용자에게 동영상 컨텐츠에 대한 부가적인 추천행위 또는 평가행위를 요구하지 않기 때문에 사용자 편의성이 높고, 신체적 변화에 기반하기 때문에 왜곡 평가에 의한 영향이 적다는 장점이 있다. 하지만, 동영상 감상중인 사용자의 신체변화를 지속적으로 모니터링 하는 예컨대 카메라 장비, 뇌파 측정 장비 등의 고가의 부가적 장비가 요구되고, 부가적 장비를 구비하지 않은 일반적인 모니터, 텔레비전에는 상기 방법을 적용하기 어렵다 둘째, 컨텐츠 평가는 양질의 컨텐츠를 가입자에게 공급하기 위한 것으로 궁극적으로 동영상의 제공자를 위한 것인데, 제공자를 위해 사용자가 동영상 감상 중에 지속적으로 민감한 개인정보에 해당하는 신체정보를 제공해야 하는 문제가 있다. 사용자의 신체정보를 제공하는 것은 프라이버시 침해 문제를 야기할 뿐 아니라 개인정보 수집을 제한하는 국가에서는 관련 법률의 위반문제가 있다.
[선행기술문헌]
[특허문헌 0001] 미국 등록특허 제8,775,415호
[특허문헌 0002] 미국 등록특허 제8,595,226호
[특허문헌 0003] 미국 등록특허 제8,832,721호
상기의 문제를 해결하기 위해, 본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 동영상 컨텐츠를 제공 받은 사용자가 동영상 컨텐츠에 대해 선택한 비쥬얼 응답 아이템을 통해 추정 매칭 감정코드를 반환 받아 추정 매칭 감정코드를 개인별 컨텐츠 평가정보로 생성하고, 복수의 사용자들의 개인별 컨텐츠 평가정보를 취합하여 통합 컨텐츠 평가정보를 생성함으로써, 다양한 사용자의 감성적 반응에 기초하여 입체적이고 정성적으로 동영상 컨텐츠를 평가하는 것을 목적으로 한다.
본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 간단한 도형 등의 비쥬얼 응답 아이템을 선택하고 선택된 비쥬얼 응답 아이템에 매칭되는 추정 매칭 감정코드를 반환하기 때문에 사용자는 비쥬얼 응답 아이템의 의미 등을 추론하거나 문장 등을 읽고 의미를 해석할 필요가 없기 때문에, 사용자의 컨텐츠 평가 편리성을 제고하고, 호불호에 기반하지 않기 때문에 사용자의 컨텐츠 평가 참여율을 제고하는 것을 다른 목적으로 한다.
본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자는 비문자적 표시인 비쥬얼 응답 아이템과 비쥬얼 응답 아이템에 매칭되는 심리에 대한 관념적 표현인 매칭 감정코드의 상관관계를 인지하지 못한 상태에서 동영상 컨텐츠에 대한 평가를 수행하도록 함으로써, 사용자들의 의도적인 평가왜곡을 방지하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 복수의 사용자들이 특정 동영상 컨텐츠에 대해 선택한 비쥬얼 응답 아이템의 빈도수에 따라 복수의 매칭 감정코드를 통합 컨텐츠 평가 정보에 추가하고, 통합 컨텐츠 평가 정보를 기반으로 해당 동영상 컨텐츠의 통합 컨텐츠 평가 정보 맵을 표시함으로써, 여러 사용자들의 감성에 기반한 다양한 감성적 반응을 통합적이고 일목요연하게 표시하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 동일한 추정 매칭 감정코드를 갖는 동종 동영상 컨텐츠를 사용자에게 제공함으로써, 종래의 동일 장르의 동영상 컨텐츠 추천 또는 연관 동영상 컨텐츠 추천과는 다르게 유사한 감성의 동영상 컨텐츠를 사용자에게 제공함으로써 사용자가 다양한 장르에서 유사한 감성의 동영상 컨텐츠를 추천 받음으로써 사용자의 시시각각 변화하는 감성과 기호에 적응적으로 대응하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 상반된 추정 매칭 감정코드를 갖는 상반 동영상 컨텐츠를 사용자에게 제공함으로써, 동영상 컨텐츠 감상에 따라 특정 감정의 고양상태인 사용자가 이러한 감정을 반전하고자 하는 욕구를 충족하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 동일한 종류이지만 보다 심화된 감성에 해당하는 추정 매칭 감정코드를 갖는 심화 동영상 컨텐츠를 사용자에게 제공함으로써, 동영상 컨텐츠 감상에 따라 특정 감정의 고양상태인 사용자가 감정을 심화하고자 하는 욕구를 충족하는 것을 다른 목적으로 한다.
일 실시 예에 따른 동영상 컨텐츠 제공 방법은 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자로부터 선택된 선택 동영상 컨텐츠를 식별하는 제 1 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 상기 제 1 사용자로부터 입력받는 제 2 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스를 통해 상기 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 상기 제 1 사용자의 추정 매칭 감정코드로 반환 받고, 상기 제1 사용자의 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는 제 3 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠에 대해 상기 제 1 사용자를 제외한 복수의 사용자들의 추정 매칭 감정코드들과 상기 제 1 사용자의 상기 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성하는 제 4 단계; 및 상기 동영상 컨텐츠 제공 시스템이, 상기 제 4 단계에서 생성된 상기 통합 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보를 생성하는 제 5 단계;를 포함하는 것을 특징으로 한다.
이때, 상기 매칭 감정코드 데이터베이스를 통해 상기 제 1 사용자 내지 제 n 사용자(n은 2 이상의 정수)들의 상기 선택 동영상 컨텐츠에 대한 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 반환 받는 제 1 부단계; 및 상기 제 1 부단계를 통해 반환된 상기 제 1 추정 매칭 감정코드 내지 상기 제 n 추정 매칭 감정코드를 통해 상기 추정 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정하는 제 2 부단계;를 포함하는 것을 특징으로 한다.
이때, 상기 제 2 부단계의 상기 추정 매칭 감정코드들의 빈도 순위를 통해 상기 제 1 순위 추정 매칭 감정코드를 상기 선택 동영상 컨텐츠의 통합 컨텐츠 평가정보로 생성하는 제 3 부단계;를 더 포함는 것을 특징으로 한다.
이때, 상기 제 2 부단계의 상기 추정 매칭 감정코드들의 빈도 순위를 통해 제 2 순위 추정 매칭 감정코드 내지 제 k 순위 추정 매칭 감정코드(k는 2 이상, m 이하 정수)를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가 정보로 추가하는 제 4 부단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가 정보 표시 영역에 표시하고, 상기 제 2 순위 추정 매칭 감정코드 내지 상기 제 k 순위 추정 매칭 감정코드(k는 2 이상의 m 이하의 정수)를 상기 제 2 순위 컨텐츠 평가 정보 표시 영역 내지 제 l 순위 컨텐츠 평가 정보 표시 영역에 표시한 통합 컨텐츠 평가 정보 맵을 표시하되 각 컨텐츠 평가정보 표시 영역의 넓이는 상기 추정 매칭 감정코드 순위에 기반하여 결정하는 제 5 부단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 6 단계;를 더 포함하는 특징으로 한다.
이때, 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상반 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 7 단계;를 더 포함하되, 상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 포함하는 것을 특징으로 한다.
이때, 상기 제 1 단계는 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하고, 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드의 레벨보다 높은 레벨의 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 심화 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 8 단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 제 1 단계는 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보와, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하는 제 6 부단계;를 더 포함하고, 상기 동영상 컨텐츠 제공 시스템이, 상기 제 3 단계 이후에 상기 제 1 사용자로부터 감정상태 유지옵션, 감정상태 반전옵션 또는 감정상태 심화옵션 중 어느 하나를 선택 받는 제 9 단계; 상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 유지옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가 정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 10 단계; 상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 반전옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가 정보를 갖는 상반 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 11 단계; 및 상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 심화옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드의 레벨보다 높은 레벨의 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가 정보를 갖는 심화 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 12 단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 제 9 단계는 상기 제 1 사용자의 정보 단말기의 터치스크린을 통한 제 1 방향으로의 스와이프를 감정상태 유지옵션으로 입력 받고, 상기 제 1 사용자의 상기 정보 단말기의 터치스크린을 통한 상기 제 1 방향과 다른 제 2 방향으로의 스와이프를 감정상태 반전옵션으로 입력 받고, 상기 제 1 사용자의 상기 정보 단말기의 터치스크린을 통한 상기 제 1 방향 및 상기 제 2 방향과 다른 제 3 방향으로의 스와이프를 감정상태 심화옵션으로 입력 받는 것을 특징으로 한다.
이때, 상기 제 1 단계는 상기 매칭 감정코드들의 관계를 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하고, 상기 제 3 단계 이후에 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 동종 동영상 컨텐츠 리스트와, 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 상반 동영상 컨텐츠 리스트를 표시하는 제 13 단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 제 2 단계는 상기 동영상 컨텐츠 제공 시스템이, 상기 설문 응답 인터페이스를 통해 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문들이 순차적으로 배치된 설문 시퀀스를 제공하되, 상기 설문 시퀀스는, 제 1 감정군을 판단하는 제 1 설문그룹 및 상기 제 1 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하거나, 상기 제1 감정군과 구별되는 제 2 감정군을 판단하는 상기 제 1 설문그룹 및 상기 제 2 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하고, 상기 매칭 감정코드 데이터베이스는, 복수의 매칭 감정코드들을 상기 제 1 감정군 및 상기 제 2 감정군으로 구분하여 저장하고, 상기 제 1 감정군에 속하는 매칭 감정코드들 각각의 레벨정보 및 상기 제 2 감정군에 속하는 매칭 감정코드들 각각의 레벨정보를 더 저장하는 것을 특징으로 한다.
일 실시예에 따른 동영상 컨텐츠 제공 방법은 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자로부터 선택된 동영상 컨텐츠인 선택 동영상 컨텐츠를 식별하는 제 1 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 상기 제 1 사용자로부터 입력 받는 제 2 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스를 통해 상기 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 상기 제 1 사용자의 추정 매칭 감정코드로 반환 받고, 상기 제 1 사용자의 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는 제 3 단계; 상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠에 대해 상기 제 1 사용자를 제외한 복수의 사용자들의 복수의 상기 개인별 컨텐츠 평가정보들을 반환받아 상기 제 1 사용자의 상기 개인별 컨텐츠 평가정보와 통합하여 통합 컨텐츠 평가정보를 생성하는 제 4 단계; 및 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 5 단계;를 포함하는 것을 특징으로 한다.
일 실시예에 따른 동영상 제공 시스템은 사용자로부터 선택된 동영상 컨텐츠의 재생 이후 또는 재생 중에 선택 가능한 복수의 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하는 설문 응답 인터페이스 제공모듈; 상기 사용자로부터 선택된 적어도 하나의 상기 비쥬얼 응답 아이템인 선택 비쥬얼 응답 아이템들을 식별하는 선택 비쥬얼 응답 아이템 식별모듈; 상기 복수의 비쥬얼 응답 아이템들 별로 각각 매칭되는 감정코드인 매칭 감정코드를 저장하고, 상기 선택 비쥬얼 응답 아이템에 해당하는 상기 매칭 감정코드를 상기 사용자의 추정 매칭 감정코드로 반환하는 매칭 감정코드 데이터베이스; 상기 매칭 감정코드 데이터베이스로부터 반환된 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 사용자의 개인별 컨텐츠 평가정보를 생성하는 개인별 컨텐츠 평가정보 생성모듈; 상기 선택 동영상 컨텐츠에 대해 복수의 사용자들의 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성하는 통합 추정 매칭 감정코드 생성모듈; 및 상기 통합 추정 매칭 감정코드 생성모듈로부터 생성된 상기 통합 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 복수의 사용자들의 통합 컨텐츠 평가정보를 생성하는 통합 컨텐츠 평가정보 생성모듈;을 포함하는 것을 특징으로 한다.
이때, 상기 통합 추정 매칭 감정코드 생성모듈은, 상기 선택 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여 상기 통합 추정 매칭 감정코드를 생성하고, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 제 1 추정 매칭 감정코드 내지 상기 제 n 추정 매칭 감정코드를 통해 상기 추정 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정하는 빈도 순위 결정부;를 더 포함하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 빈도 순위 결정부가 결정한 상기 제 1 순위 추정 매칭 감정코드를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가정보로 생성하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 빈도 순위 결정부가 결정한 제 2 순위 추정 매칭 감정코드 내지 제 k 순위 추정 매칭 감정코드(k는 2 이상, m 이하의 정수)를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가정보로 추가하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 빈도 순위 결정부에 의해 결정된 상기 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가정보 표시 영역에 표시하고, 상기 제 2 순위 추정 매칭 감정코드 내지 상기 제 k 순위 추정 매칭 감정코드를 상기 제 2 순위 컨텐츠 평가정보 표시영역 내지 제 l 순위 컨텐츠 평가정보 표시영역에 표시한 통합 컨텐츠 평가정보 맵을 표시하는 통합 컨텐츠 평가 맵 생성부;를 더 포함하되, 상기 통합 컨텐츠 평가 맵 생성부는, 상기 각각의 컨텐츠 평가정보 표시 영역의 넓이를 상기 추정 매칭 감정코드 순위에 기반하여 결정하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 동종 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 한다.
이때, 상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 저장하고, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 상반 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 한다.
이때, 상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 더 저장하고, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자의 상기 추정 매칭 감정코드에 비해 상기 레벨이 심화된 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 심화 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하고, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 더 저장하고, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자로부터 상태 유지요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 동종 동영상 컨텐츠를 상기 사용자에게 제공하고, 상기 사용자로부터 상태 반전요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 상반 동영상 컨텐츠를 상기 사용자에게 제공하고, 상기 사용자로부터 상태 심화요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드에 비해 상기 레벨이 심화된 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 심화 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 한다.
이때, 상기 통합 컨텐츠 추천부는, 상기 사용자의 정보 단말기의 터치스크린 상에서 제 1 방향으로의 스와이프를 상기 상태 유지요청 신호로 인식하고, 상기 제 1 방향과 다른 제 2 방향으로의 스와이프를 상기 상태 반전요청 신호로 인식하고, 상기 제 1 방향 및 상기 제 2 방향과 다른 제 3 방향으로의 스와이프를 상기 상태 심화요청 신호로 인식하는 것을 특징으로 한다.
이때, 상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 저장하고, 상기 통합 컨텐츠 평가정보 생성모듈은, 상기 사용자의 개인별 컨텐츠 평가정보 생성 이후 상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 동종 동영상 컨텐츠 리스트와, 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 상반 동영상 컨텐츠 리스트를 표시하는 동영상 컨텐츠 리스트 생성부;를 포함하는 것을 특징으로 한다.
이때, 상기 설문 응답 인터페이스 제공모듈은, 상기 설문 응답 인터페이스를 통해 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문들이 순차적으로 배치된 설문 시퀀스를 제공하되, 상기 설문 시퀀스는, 제 1 감정군을 판단하는 제 1 설문그룹 및 상기 제 1 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하거나, 상기 제1 감정군과 구별되는 제 2 감정군을 판단하는 상기 제 1 설문그룹 및 상기 제 2 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하고, 상기 매칭 감정코드 데이터베이스는, 복수의 매칭 감정코드들을 상기 제 1 감정군 및 상기 제 2 감정군으로 구분하여 저장하고, 상기 제 1 감정군에 속하는 매칭 감정코드들 각각의 레벨정보 및 상기 제 2 감정군에 속하는 매칭 감정코드들 각각의 레벨정보를 더 저장하는 것을 특징으로 한다.
상기의 구성에 따라, 본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 동영상 컨텐츠를 제공 받은 사용자가 동영상 컨텐츠에 대해 선택한 비쥬얼 응답 아이템을 통해 추정 매칭 감정코드를 반환 받아 추정 매칭 감정 코드를 개인별 컨텐츠 평가정보로 생성하고, 복수의 사용자들의 개인별 컨텐츠 평가정보를 취합하여 통합 컨텐츠 평가정보를 생성함으로써, 다양한 사용자의 감성적 반응에 기초하여 입체적이고 정성적으로 동영상 컨텐츠를 평가하는 효과를 제공한다.
본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 간단한 도형 등의 비쥬얼 응답 아이템을 선택하고 선택된 비쥬얼 응답 아이템에 매칭되는 추정 매칭 감정코드를 반환하기 때문에 사용자는 비쥬얼 응답 아이템의 의미 등을 추론하거나 문장 등을 읽고 의미를 해석할 필요가 없기 때문에 사용자의 컨텐츠 평가 편리성을 제고하고, 호불호에 기반하지 않기 때문에 사용자의 컨텐츠 평가 참여율을 제고하는 효과를 제공한다.
본 발명에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자는 비문자적 표시인 비쥬얼 응답 아이템과 비쥬얼 응답 아이템에 매칭되는 심리에 대한 관념적 표현인 매칭 감정코드의 상관관계를 인지하지 못한 상태에서 동영상 컨텐츠에 대한 평가를 수행하도록 함으로써, 사용자들의 의도적인 평가왜곡을 방지하는 효과를 제공한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 복수의 사용자들이 특정 동영상 컨텐츠에 대해 선택한 비쥬얼 응답 아이템의 빈도수에 따라 복수의 매칭 감정코드를 통합 컨텐츠 평가 정보에 추가하고, 통합 컨텐츠 평가 정보를 기반으로 해당 동영상 컨텐츠의 통합 컨텐츠 평가 정보 맵을 표시함으로써, 여러 사용자들의 감성에 기반한 다양한 감성적 반응을 통합적이고 일목요연하게 표시하는 효과를 제공한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 동일한 추정 매칭 감정코드를 갖는 동종 동영상 컨텐츠를 사용자에게 제공함으로써, 종래의 동일 장르의 동영상 컨텐츠 추천 또는 연관 동영상 컨텐츠 추천과는 다르게 유사한 감성의 동영상 컨텐츠를 사용자에게 제공함으로써 사용자가 다양한 장르에서 유사한 감성의 동영상 컨텐츠를 추천 받음으로써 사용자의 시시각각 변화하는 감성과 기호에 적응적으로 대응하는 효과를 제공한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 상반된 추정 매칭 감정코드를 갖는 상반 동영상 컨텐츠를 사용자에게 제공함으로써, 동영상 컨텐츠 감상에 따라 특정 감정의 고양상태인 사용자가 감정을 반전하고자 하는 욕구를 충족하는 효과를 제공한다.
본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템 및 제공방법은, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 추정 매칭 감정코드와 동일한 종류이지만 보다 심화된 감성에 해당하는 추정 매칭 감정코드를 갖는 심화 동영상 컨텐츠를 사용자에게 제공함으로써, 동영상 컨텐츠 감상에 따라 특정 감정의 고양상태인 사용자가 이러한 감정을 심화하고자 하는 욕구를 충족하는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 동영상 컨텐츠 제공 시스템의 웹페이지 화면 구성도.
도 3은 본 발명의 실시예에 따른 비쥬얼 응답 아이템별 매칭되는 매칭 감정코드를 도시하는 테이블.
도 4는 본 발명의 실시예에 따른 개인별 컨텐츠 평가정보를 도시하는 데이터 구조도.
도 5는 본 발명의 실시예에 따른 통합 컨텐츠 평가정보를 도시하는 데이터 구조도.
도 6은 본 발명의 실시예에 따른 사용자 정보 단말기의 터치스크린에 대한 화면 실시예.
도 7은 본 발명에 따른 동영상 컨텐츠 제공 방법을 도시하는 처리 흐름도.
도 8은 본 발명의 실시예에 따른 동영상 컨텐츠 제공 방법에 있어서 통합 컨텐츠 평가정보의 생성 방법을 도시하는 처리 흐름도.
도 9는 본 발명의 실시예에 따른 동영상 컨텐츠 제공 방법을 도시하는 처리 흐름도.
도 10은 본 발명의 실시예에 다른 동영상 컨텐츠 제공 시스템을 설명하기 위한 도면.
도 11은 본 발명의 실시예에 따른 동영상 컨텐츠를 추천하는 방법을 설명하기 위한 흐름도.
도 12는 본 발명의 실시예에 따른 디바이스 및 서버를 설명하기 위한 구성도.
100 : 동영상 컨텐츠 제공 시스템
120 : 설문 응답 인터페이스 제공모듈
125 : 설문 응답 설정모듈
130 : 선택 비쥬얼 응답 아이템 식별모듈
140 : 매칭 감정코드 데이터베이스
150 : 개인별 컨텐츠 평가정보 생성모듈
160 : 통합 추정 매칭 감정코드 생성모듈
170 : 통합 컨텐츠 평가정보 생성모듈
171 : 통합 컨텐츠 평가정보 저장부
172 : 빈도 순위 결정부
173 : 통합 컨텐츠 추천부
174 : 통합 컨텐츠 평가 맵 생성부
175 : 통합 컨텐츠 리스트 생성부
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안되며, 발명자는 자신의 발명을 최선의 방법으로 설명하기 위해 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형 예가 있을 수 있다.
명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..모듈”, “..부”, “..서버”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.
이하에서는 도면을 참조하여 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)을 설명한다. 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)은, 도 1에 도시된 바와 같이 설문 응답 인터페이스 제공모듈(120), 선택 비쥬얼 응답 아이템 식별모듈(130), 매칭 감정코드 데이터베이스(140), 개인별 컨텐츠 평가정보 생성모듈(150), 통합 추정 매칭 감정코드 생성모듈(160), 통합 컨텐츠 평가정보 생성모듈(170)을 포함한다.
각 구성요소들은 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)의 동작을 명료히 설명하기 위해 기능적으로 구분된 것이다. 따라서 각각의 모듈은 반드시 물리적으로 구분되는 단일의 구성요소로 구분되어야 하는 것은 아니고, 예컨대 프로그램의 일부를 구성하는 컴퓨터 명령어들의 집합의 형태로 구현될 수 있으며 프로그램의 실행에 따라 연산처리 장치에 의해 해당 모듈의 기능이 발현될 수 있다.
또한, 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)의 모든 구성요소들은 예컨대 사용자가 정보 단말기(또는 디바이스)를 통해 동영상 컨텐츠를 제공하는 서버에 접속하여 키워드 검색을 통해 원하는 동영상 컨텐츠를 선택하거나, 동영상 컨텐츠 목록에서 원하는 동영상 컨텐츠를 선택하는 등의 방법으로 수행될 수 있다. 동영상 선택 인터페이스는 예컨대 인터넷 브라우저를 통해 복수의 동영상 컨텐츠 중에서 원하는 동영상 컨텐츠를 선택하도록 하는 웹페이지 또는 동영상 검색 앱(어플리케이션)을 통해 구현된 선택 화면 등으로 구현될 수 있다.
동영상 컨텐츠 제공 시스템(100)은 휴대폰, 테블릿, PC, 노트북, 웨어러블, VR 기기(Virtual Reality machine) 등과 같은 정보 단말기(또는 디바이스)일 수 있으며, 서버일 수도 있고, 서버와 정보 단말기를 포함할 수도 있다. 사용자는 정보 단말기에 프로그램 또는 어플리케이션을 설치하고, 어플리케이션을 실행하고, 어플리케이션을 이용해서 서버와 데이터를 송수신할 수 있다.
설문 응답 인터페이스 제공모듈(120)은 사용자로부터 선택된 선택 동영상 컨텐츠를 재생한 이후 또는 재생하는 중에 선택 가능한 복수의 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공한다. 복수의 비쥬얼 응답 아이템들이 디스플레이 장치에 표시된다. 비쥬얼 응답 아이템들은 동영상 컨텐츠와 분리되어 표시되거나, 동영상 컨텐츠와 오버레이 되어 표시될 수 있다.
예컨대, 도 2의 웹페이지 화면(200)의 구성 예에 도시된 바와 같이, 사용자가 웹페이지 상에서 동영상 컨텐츠(210)를 시청하면, 동영상 컨텐츠 제공 시스템(100)이 선택 동영상 컨텐츠(210)의 재생 중 또는 선택 동영상 컨텐츠(210) 재생 완료 후 동영상 컨텐츠의 감상에 따른 사용자의 심리상태를 추정하기 위한 설문 응답 인터페이스(212)를 제공한다. 동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠(210)를 재생 중 사용자가 비쥬얼 응답 아이템을 선택하는 입력을 여러 번 수신할 수 있고, 동영상 컨텐츠(210)의 재생 시점에 따른 사용자의 심리상태를 추정할 수도 있다. 사용자는 동영상 컨텐츠를 시청하면서, 표시되는 비쥬얼 응답 아이템을 여러 번 선택할 수 있고, 동영상 컨텐츠 제공 시스템(100)은 사용자에 의해 선택된 비쥬얼 응답 아이템과 선택된 회수를 함께 저장할 수 있다. 예를 들어, 동영상 컨텐츠 제공 시스템(100)은 사용자가 선택하는 비쥬얼 응답 아이템들을 통해 동영상 컨텐츠(210)를 시청하는 사용자의 심리상태가 공감, 사랑 슬픔으로 변하는 것을 추정할 수도 있다.
설문 응답 인터페이스(212)는 사용자가 선택 가능한 복수의 비쥬얼 응답 아이템들(222)을 포함하는 설문으로 구성될 수 있다. 설문은 사용자가 깊은 고민 없이 신속하게 답변할 수 있는 질문과 간단하게 선택할 수 있는 선택문항이 바람직하다. 비쥬얼 응답 아이템(222)은 예컨대, 색채, 이미지, 도형, 물리적 객체 등 일 수 있다.
심리분석 분야에서 도형 선호도 검사는 구별되는 간단한 도형을 이용하여 개인별 감정상태를 측정하기 위한 것이다. 색채 선호도 검사 또한 색의 세 가지 이상의 요소를 이용하여 개인별 감정상태를 측정하기 위한 것으로, 각 검사는 표준화된 임상 결과를 토대로 도형별, 색채별 선호도에 따라 개인의 심리를 구별하여 분석한다.
사용자 감정상태에 따라 선호하는 색채, 이미지, 도형 등이 다르다는 점에 기인하여 다양한 선호 아이템별 심리분석 기법이 심리분석 분야에서 개발된 바 있다. 비쥬얼 응답 아이템들(222)은 특별히 제한되지 않고, 예컨대 심리분석 분야에서 개인별 감정상태를 측정하기 위해 임상결과를 통해 고안된 다양한 객체일 수 있다.
다만, 본 발명의 비쥬얼 응답 아이템(222)은 직관적인 선택이 어려운 문장 형식의 텍스트 집합은 배제한다. 통상의 설문은 문장 형식의 질문과 문장 형식의 선택문항들로 구성된다. 문장 형식의 질문과 선택문항들은 사용자가 전체 질문과 선택문항들을 읽어보고 의미를 해석해야 하기 때문에 직관적인 선택이 어렵다는 문제가 있다. 동영상 컨텐츠를 감상한 사용자에게 문장 형식의 질문이 주어지면 사용자는 각 문장들을 읽고 해석하는 번거로움을 회피하기 위해 설문에 응답하지 않을 가능성이 높아진다.
하지만 본 발명의 실시예와 같이 간단한 질문과 단순한 도형으로 이루어진 비쥬얼 응답 아이템들을 제시받게 되면, 부가적인 분석행위 없이 직관적으로 용이하게 설문에 응할 수 있기 때문에 설문 참여율을 높일 수 있는 효과를 제공한다.
한편, 동영상 컨텐츠 제공 시스템(100)은 사용자가 선택한 선택 동영상 컨텐츠의 속성에 따라 적합한 비쥬얼 응답 아이템들을 포함하는 설문을 구성할 수 있다. 예컨대 사용자가 희극 장르의 동영상 컨텐츠를 시청한 경우라면, 동영상 컨텐츠 제공 시스템(100)은 밝은 기분을 보다 구체적으로 확인할 수 있는 색상의 비쥬얼 응답 아이템들을 포함하는 설문 또는 밝은 기분에 대응되는 질문을 제공할 수 있다. 반대로 사용자가 비극 장르의 동영상 컨텐츠를 시청한 경우라면, 동영상 컨텐츠 제공 시스템(100)은 우울한 기분을 보다 구체적으로 확인할 수 있는 색상의 비쥬얼 응답 아이템들을 포함하는 설문 또는 우울한 기분에 대응되는 질문을 제공할 수 있다.
동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠의 장르에 부합하는 설문을 설정하는 설문 응답 설정모듈(125)을 더 포함할 수 있다. 예컨대, 동영상 컨텐츠 제공 시스템(100)의 관리자는 설문 응답 설정모듈(125)을 이용하여 동영상 컨텐츠의 장르별로 장르에 부합하는 설문을 설정할 수 있다.
선택 비쥬얼 응답 아이템 식별모듈(130)은 사용자에 의해 선택된 적어도 하나의 비쥬얼 응답 아이템인 선택 비쥬얼 응답 아이템을 식별한다.
매칭 감정코드 데이터베이스(140)는 복수의 비쥬얼 응답 아이템들 별로 각각 매칭되는 감정코드인 매칭 감정코드를 저장하고, 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 사용자의 추정 매칭 감정코드로 반환한다.
본 발명의 실시예에서는 도 3a에 도시된 바와 같이 비쥬얼 응답 아이템들 별로 매칭 감정코드를 구분하여 저장한다. 예컨대 매칭 감정코드 데이터베이스(140)는 별 형상의 비쥬얼 응답 아이템은 제 1 감정, 원 형상의 비쥬얼 응답 아이템은 제 2 감정, 하트 형상의 비쥬얼 응답 아이템은 제 3 감정으로 정의할 수 있다. 예컨대 제 1 감정은 "공감" 매칭 감정코드로, 제 2 감정은 "행복" 매칭 감정코드, 제 3 감정은 "사랑" 매칭 감정코드로 정의될 수 있다.
동영상 컨텐츠 제공 시스템(100)은 사용자가 선택한 동영상 컨텐츠를 재생하고, 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 매칭 감정코드 데이터베이스(140)로부터 반환 받음으로써 선택된 동영상 컨텐츠에 대한 사용자의 추정 매칭 감정코드를 식별할 수 있다.
한편, 단일의 비쥬얼 응답 아이템은 반드시 단일의 매칭 감정코드와 일대일로 연관되어야 하는 것은 아니고, 복수의 비쥬얼 응답 아이템들이 단일의 매칭 감정코드와 연관될 수도 있고, 단일의 비쥬얼 응답 아이템이 복수의 매칭 감정코드들과 연관될 수도 있다.
또한 하나의 설문 응답 인터페이스에는 단일의 질문만 포함되어야 하는 것은 아니고, 사용자의 감정을 보다 세분화하여 파악할 필요가 있는 경우 복수의 질문들이 포함될 수 있다. 또한 하나의 질문에 제시되는 비쥬얼 응답 아이템의 개수는 특별히 제한되지 않으며 사용자의 선택 편의성과 취득하고자 하는 감정상태의 정확성에 따라 적절한 개수의 비쥬얼 응답 아이템들이 선택될 수 있다. 또한, 질문 없이 비쥬얼 응답 아이템들만 표시될 수도 있다.
개인별 컨텐츠 평가정보 생성모듈(150)은 매칭 감정코드 데이터베이스(140)로부터 반환된 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 사용자의 개인별 컨텐츠 평가정보를 생성한다.
도 4에 도시된 바와 같이 개인별 컨텐츠 평가정보는 동영상 컨텐츠를 식별하기 위한 동영상 컨텐츠 식별자, 사용자를 식별하기 위한 사용자 식별자, 및 추정 매칭 감정코드를 포함할 수 있다. 보다 바람직하게는 개인별 컨텐츠 평가정보는 부가정보(예컨대 사용자가 복수의 질문에 응답한 경우 복수의 추정 매칭 감정코드들, 사용자가 단일의 질문에 복수의 비쥬얼 응답아이템들을 선택한 경우 선택된 비쥬얼 응답 아이템들에 해당하는 복수의 추정 매칭 감정코드들, 시청시간 정보, 시청횟수 정보 등)를 더 포함할 수 있다.
통합 추정 매칭 감정코드 생성모듈(160)은 선택 동영상 컨텐츠에 대해 복수의 사용자들의 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성한다. 즉, 통합 추정 매칭 감정코드 생성모듈(160)은 선택 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성한다.
예컨대 10명의 사용자가 있고, 제 1 감정에 해당하는 추정 매칭 감정코드인 사용자가 6명이고, 제 2 감정에 해당하는 추정 매칭 감정코드인 사용자가 4명이라고 한다면 통합 추정 매칭 감정코드는 6개의 제 1 감정 및 4개의 제 2 감정이 될 수 있다.
통합 컨텐츠 평가정보 생성모듈(170)은 통합 추정 매칭 감정코드 생성모듈(160)로부터 생성된 통합 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 복수의 사용자들의 통합 컨텐츠 평가정보를 생성한다.
위의 설명한 예에 있어서 통합 컨텐츠 평가정보 생성모듈(170)은 가장 많은 6번의 빈도수를 갖는 제 1 감정을 기반으로 통합 컨텐츠 평가정보를 생성할 수 있다.
도 5에 도시된 바와 같이 통합 컨텐츠 평가정보는 동영상 컨텐츠를 식별하기 위한 동영상 컨텐츠 식별자 및 통합 매칭 감정코드를 포함할 수 있다. 보다 바람직하게는 통합 컨텐츠 평가정보는 부가정보(예컨대 2순위 빈도수의 추정 매칭 감정코드 또는 3 순위 빈도수의 추정 매칭 감정코드, 해당 동영상 컨텐츠의 통합 평가에 합산된 사용자 수 정보 등)를 더 포함할 수 있다.
동영상 컨텐츠 제공 시스템(100)은 선택된 비쥬얼 응답 아이템을 통해 사용자의 추정 감정코드를 인식하고, 추정 감정코드를 개인별 컨텐츠 평가정보로 활용하고, 복수의 사용자들의 추정 감정코드들을 종합하여 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보로 활용할 수 있는 효과를 제공한다. 뿐만 아니라 동영상 컨텐츠 제공 시스템(100)은 사용자가 번거로운 인식 또는 절차 없이 직관적으로 비쥬얼 응답 아이템을 선택하기 때문에 컨텐츠 평가에 보다 많은 사용자들이 참여하여 컨텐츠 평가의 객관성을 제고하는 효과를 제공한다.
통합 컨텐츠 평가정보의 생성을 보다 상세히 설명하면 다음과 같다.
동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠를 시청한 복수의 사용자들에 대한 추정 매칭 감정코드를 각각 생성할 수 있다. 통합 추정 매칭 감정코드 생성모듈(160)은 선택 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성할 수 있다.
다음으로 통합 컨텐츠 평가정보 생성모듈(170)은 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통해 추정 매칭 감정코드들의 빈도 순위를 결정하는 빈도 순위 결정부(172)를 더 포함할 수 있다. 빈도 순위 결정부(172)는 추정 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정할 수 있다. 이때, 통합 컨텐츠 평가정보 생성모듈(170)은 빈도 순위 결정부(172)가 결정한 제 1 순위 추정 매칭 감정코드를 선택된 동영상 컨텐츠의 통합 컨텐츠 평가정보로 생성할 수 있다.
한편 하나의 동영상 컨텐츠가 여러 가지 속성을 포함하는 경우, 예컨대 동영상 컨텐츠가 희극적 요소와 비극적 요소를 포함할 수 있다. 동영상 컨텐츠가 여러 가지 속성을 포함하는 경우, 통합 컨텐츠 평가정보 생성모듈(170)은 복수의 매칭 감정코드들에 기반한 통합 컨텐츠 평가정보를 생성할 수 있다. 통합 컨텐츠 평가정보 생성모듈(170)은 빈도 순위 결정부(172)가 결정한 제 2 순위 추정 매칭 감정코드 내지 제 k 순위 추정 매칭 감정코드(k는 2 이상, m 이하의 정수)를 선택 동영상 컨텐츠의 통합 컨텐츠 평가정보로 추가할 수 있다.
한편, 도 2에 도시된 통합 컨텐츠 평가 정보 맵(240)에는 사용자들이 선택한 복수의 감정코드들이 도시된다. 통합 컨텐츠 평가 정보 맵(240)은 다양한 방식으로 시각화될 수 있으며, 도시된 바와 같이 사용자들이 선택한 비쥬얼 응답 아이템의 빈도수에 따라 감정코드의 크기, 색상 또는 위치 등이 구별되도록 시각화하는 것이 바람직하다.
통합 컨텐츠 평가정보 생성모듈(170)은 빈도 순위 결정부(172)에 의해 결정된 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가정보 표시 영역에 표시하고, 제 2 순위 추정 매칭 감정코드 내지 제 k 순위(k는 2 이상, m 이하의 정수) 추정 매칭 감정코드를 제 2 순위 컨텐츠 평가정보 표시영역 내지 제 l 순위 컨텐츠 평가정보 표시영역에 표시한 통합 컨텐츠 평가정보 맵(240)을 표시하는 통합 컨텐츠 평가 맵 생성부(174)를 더 포함할 수 있다.
이때 통합 컨텐츠 평가 맵 생성부(174)는 각각의 컨텐츠 평가정보 표시 영역의 넓이를 추정 매칭 감정코드 순위에 기반하여 결정할 수 있다. 예를 들어, 통합 컨텐츠 평가 맵 생성부(174)는 대표 컨텐츠 평가정보 표시 영역을 가장 넓게 할당하고, 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가정보 표시 영역에 가장 크게 표시할 수 있다. 예를 들어, 제 1 순위 추정 매칭 감정코드가 “따뜻함” 일 때, 통합 컨텐츠 평가 맵 생성부(174)는 “따뜻함”을 가장 크게 표시할 수 있다. 또한, 통합 컨텐츠 평가 맵 생성부(174)는 대표 컨텐츠 평가정보 표시 영역을 통합 컨텐츠 평가 정보 맵(240)의 중앙에 가장 크게 할당할 수 있다. 나머지 컨텐츠 평가정보 표시영역들은 대표 컨텐츠 평가정보 표시 영역을 둘러싸는 위치에 할당될 수 있다. 또한, 통합 컨텐츠 평가 맵 생성부(174)는 제 1 순위 추정 매칭 감정코드만을 통합 컨텐츠 평가 정보 맵(240)에 표시할 수도 있다.
컨텐츠 평가정보 표시영역들의 경계는 표시되거나 표시되지 않을 수 있다. 도 2에서는 경계가 표시되지 않고, 감정코드들(공감, 기쁨, 행복, 사랑 등)만 표시된 예를 도시한다. 경계는 실선, 점선 등으로 표시될 수 있고, 각 표시영역들이 서로 다른 색상으로 표시될 수도 있다.
본 발명에 따르면 동영상 컨텐츠의 시청 후 사용자의 심리상태를 추정 감정코드를 통해 추정할 수 있는 효과가 있다. 이때 동영상 컨텐츠 제공 시스템(100)이 사용자의 심리상태에 부합하는 다른 동영상 컨텐츠를 추천하는 것이 보다 바람직하다. 추천의 방법으로는 첫째, 동영상 컨텐츠 제공 시스템(100)이 사용자의 현재 심리상태를 유지할 수 있는 동종의 동영상 컨텐츠를 추천하는 것이고, 둘째, 동영상 컨텐츠 제공 시스템(100)이 사용자의 현재 심리상태를 보다 심화할 수 있는 동영상 컨텐츠를 추천하는 것이고, 셋째 동영상 컨텐츠 제공 시스템(100)이 사용자의 현재 심리상태를 반전시킬 수 있는 상반된 이종의 동영상 컨텐츠를 추천하는 것이다.
예컨대 희극적인 동영상 컨텐츠를 본 사용자가 즐거운 감정을 유지하고자 하는 경우 동영상 컨텐츠 제공 시스템(100)은 "즐거움" 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 다른 동영상 컨텐츠를 추천할 수 있다. 사용자가 즐거운 감정을 심화하고자 하는 경우 동영상 컨텐츠 제공 시스템(100)은 "매우 즐거움" 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 다른 동영상 컨텐츠를 추천할 수 있다. 사용자가 즐거운 감정을 반전시키고자 하는 경우 동영상 컨텐츠 제공 시스템(100)은 "슬픔" 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 다른 동영상 컨텐츠를 추천할 수 있다. 이하에서는 각각의 경우에 부합하는 실시예들을 설명한다.
도 2에 도시된 바와 같이, 동영상 컨텐츠 옵션 처리 인터페이스(234)를 통해 사용자로부터 상태 유지요청(231), 상태 반전요청(232) 또는 상태 심화요청(233) 중 어느 하나를 선택 받는 경우 동영상 컨텐츠 제공 시스템(100)은 사용자의 선택에 부합하는 동영상 컨텐츠를 제공한다. 동영상 컨텐츠 제공 시스템(100)는 사용자가 “유지”라고 표시된 영역을 터치하거나, 터치스크린을 왼쪽에서 오른쪽으로 스와이프 하면, 상태 유지요청(231)으로 판단한다. 동영상 컨텐츠 제공 시스템(100)는 사용자가 “상반”이라고 표시된 영역을 터치하거나, 터치스크린을 위에서 아래로 스와이프 하면, 상태 반전요청(232)으로 판단한다. 동영상 컨텐츠 제공 시스템(100)는 사용자가 “심화”라고 표시된 영역을 터치하거나, 터치스크린을 아래서 위로 스와이프 하면, 상태 심화요청(233)으로 판단한다. 또 다른 예로, 동영상 컨텐츠 제공 시스템(100)은 사용자가 터치스크린을 누르는 세기를 검출하여, 세기에 따라 사용자의 요청이 무엇인지 판단할 수 있다. 도 2에서는 3가지 옵션을 제공하고 있으나, 유지, 반전, 심화 옵션 이외에 다른 옵션들도 제공될 수 있다.
첫째, 동영상 컨텐츠 제공 시스템(100)은 동일한 감정을 유지하고자 하는 사용자로부터 상태 유지요청(231) 신호를 수신하는 경우 사용자의 요청에 따른 동영상 컨텐츠를 추천할 수 있다.
통합 컨텐츠 평가정보 생성모듈(170)은 통합 컨텐츠 평가정보 저장부(171) 및 통합 컨텐츠 추천부(173)을 포함할 수 있다. 통합 컨텐츠 평가정보 저장부(171)는 동영상 컨텐츠별 통합 컨텐츠 평가정보를 매칭 감정코드 데이터베이스(140)로부터 반환된 추정 매칭 감정코드별로 구분하여 저장한다. 통합 컨텐츠 추천부(173)는 사용자의 추정 매칭 감정코드와 일치하는 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 사용자에게 제공한다.
예컨대 도 3b의 경우 사용자가 제 1 감정군의 제 1 감정에 해당하는 "삼각형" 비쥬얼 응답 아이템을 선택하였다면 동영상 컨텐츠 제공 시스템(100)은 "삼각형"에 매칭되는 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다. 예를 들어, 제 1 감정이 “기쁨”인 경우, “삼각형”은 “기쁨” 감정코드 중 중간 레벨의 감정코드와 매칭된다. 따라서, 동영상 컨텐츠 제공 시스템(100)은 중간 레벨의 “기쁨”을 통합 컨텐츠 평가정보로 갖는 동영상 컨텐츠를 추천한다.
둘째, 동영상 컨텐츠 제공 시스템(100)이 감정을 심화하고자 하는 사용자로부터 상태 심화요청(233) 신호를 수신하는 경우 사용자의 요청에 따른 동영상 컨텐츠를 추천할 수 있도록, 매칭 감정코드 관계정보를 미리 저장할 수 있다. 매칭 감정코드 데이터베이스(140)는 도 3b에 도시된 바와 같이 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 더 저장할 수 있다. 통합 컨텐츠 추천부(173)는 사용자의 추정 매칭 감정코드에 비해 레벨이 심화된 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 심화 동영상 컨텐츠를 사용자에게 제공한다. 예컨대 도 3b의 경우 사용자가 제 1 감정군의 제 1 감정의 "중"에 해당하는 "삼각형" 비쥬얼 응답 아이템을 선택하였다면 동영상 컨텐츠 제공 시스템(100)은 심화에 해당하는 제 1 감정군의 제 1 감정의 "상"에 해당하는 "별형상"에 대응하는 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다.
셋째, 동영상 컨텐츠 제공 시스템(100)이 감정을 반전하고자 하는 사용자로부터 상태 반전요청(232) 신호를 수신하는 경우 사용자의 요청에 따른 동영상 컨텐츠를 추천할 수 있도록, 매칭 감정코드 관계정보를 미리 저장할 수 있다. 매칭 감정코드 데이터베이스(140)는 도 3b에 도시된 바와 같이 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 저장할 수 있다. 도 3b에서 제 1 감정군과 제 2 감정군은 상반된 매칭 감정코드를 정의한다. 예를 들어, 제 1 감정군이 “긍정”이고, 제 2 감정군이 “부정”일 수 있다. 또한, 제 1 감정군의 제 1 감정은 제 2 감정군의 제 1 감정과 상반될 수 있다.
통합 컨텐츠 추천부(173)는 사용자의 추정 매칭 감정코드와 상반되는 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠인 상반 동영상 컨텐츠를 사용자에게 제공한다.예컨대 도 3b의 경우 사용자가 제 1 감정군의 제 1 감정에 매칭되는 "삼각형" 비쥬얼 응답 아이템을 선택하였다면 동영상 컨텐츠 제공 시스템(100)은 반전에 해당하는 제 2 감정군의 제 1 감정에 매칭되는 "마름모 형상"에 대응하는 감정코드에 기반한 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다.
본 발명에 따르면 동영상 컨텐츠의 시청 후 사용자의 심리상태에 부합하는 다른 동영상 컨텐츠를 사용자의 제스처에 따라 제공하는 효과가 있다. 이때 동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠 시청 후 사용자의 제스처에 부합하는 다른 동영상 컨텐츠를 추천할 수 있다.
예컨대 도 6의 실시예에서 동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠 제공 중에 정보 단말기의 터치스크린(60)에 대한 사용자의 제 1 방향(62)으로의 스와이프를 위의 설명한 예의 상태 유지요청 신호로 인식하는 제 1 선택신호로 입력 받는다. 동영상 컨텐츠 제공 시스템(100)은 통합 컨텐츠 평가정보 저장부(171)와 통합 컨텐츠 추천부(173)를 통해 사용자의 추정 매칭 감정코드와 일치하는 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다.
또한, 동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠를 제공하는 중에 정보 단말기의 터치스크린(60)에 대한 사용자의 제 2 방향(63)으로의 스와이프를 위의 설명한 예의 상태 반전요청 신호로 인식하는 제 2 선택신호로 입력 받는다. 동영상 컨텐츠 제공 시스템(100)은 통합 컨텐츠 평가정보 저장부(171)와 통합 컨텐츠 추천부(173)를 통해 사용자의 추정 매칭 감정코드와 상반되는 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다.
그리고, 동영상 컨텐츠 제공 시스템(100)은 동영상 컨텐츠 제공 중에 정보 단말기의 터치스크린(60)에 대한 사용자의 제 3 방향(61)으로의 스와이프를 위의 설명한 예의 상태 심화요청 신호로 인식하는 제 3 선택신호로 입력 받는다. 동영상 컨텐츠 제공 시스템(100)은 통합 컨텐츠 평가정보 저장부(171)와 통합 컨텐츠 추천부(173)를 통해 사용자의 추정 매칭 감정코드에 비해 레벨이 심화된 추정 매칭 감정코드에 해당하는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠를 추천한다.
한편, 본 발명에 따르면 동영상 컨텐츠 제공 시스템(100)은 도 2에 도시된 바와 같이 통합 컨텐츠 리스트 인터페이스(235)를 통해 사용자의 추정 매칭 감정코드와 일치하는 다른 동영상 컨텐츠들과, 상반되는 다른 동영상 컨텐츠들의 리스트를 선택된 동영상 컨텐츠를 제공하는 중에 함께 표시할 수도 있다. 통합 컨텐츠 평가정보 생성모듈(170)은 사용자의 개인별 컨텐츠 평가정보 생성 이후 사용자의 추정 매칭 감정코드와 일치하는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠들의 리스트인 동종 동영상 컨텐츠 리스트와, 추정 매칭 감정코드와 상반되는 통합 컨텐츠 평가정보를 갖는 동영상 컨텐츠들의 리스트인 상반 동영상 컨텐츠 리스트를 표시하는 통합 컨텐츠 리스트 생성부(175)를 포함할 수 있다.
또 다른 한편, 본 발명에 따르면 동영상 컨텐츠 제공 시스템(100)은 도 2에 도시된 설문 응답 인터페이스(212)를 통해 복수의 선택 가능한 비쥬얼 응답 아이템들(222)을 포함하는 설문(220) 및 설문(220)과 다른 복수의 설문들이 순차적으로 배치된 설문 시퀀스를 제공하는 설문 응답 인터페이스 제공모듈(120)을 포함할 수 있다.
이때, 설문 시퀀스는 제 1 감정군을 판단하는 제 1 설문그룹 및 제 1 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하거나, 제 1 감정군과 구별되는 제 2 감정군을 판단하는 제 1 설문그룹 및 제 2 감정군의 레벨을 판단하는 제 2 설문그룹을 포함할 수 있다.
또한, 매칭 감정코드 데이터베이스(140)는 복수의 매칭 감정코드들을 제 1 감정군 및 제 2 감정군으로 구분하여 저장하고, 제 1 감정군에 속하는 매칭 감정코드들 각각의 레벨정보 및 제 2 감정군에 속하는 매칭 감정코드들 각각의 레벨정보를 더 저장한다.
이하에서는, 도 7을 참조하여 본 발명에 따른 동영상 컨텐츠 제공방법의 각 단계를 설명한다. 본 발명에 따른 동영상 컨텐츠 제공방법은 동영상 컨텐츠 제공 시스템(100)을 통해 구현된다.
먼저, 도 7에 도시된 바와 같이 동영상 컨텐츠 제공 시스템(100)이 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자로부터 선택된 선택 동영상 컨텐츠를 식별하는 제 1 단계(s10)를 수행한다.
제 1 단계(s10)는 예컨대 사용자가 정보 단말기를 통해 동영상 컨텐츠 제공 서버에 접속하여 키워드 검색을 통해 원하는 동영상 컨텐츠를 선택하거나, 동영상 컨텐츠 목록에서 원하는 동영상 컨텐츠를 선택하는 등의 방법으로 수행될 수 있다. 동영상 선택 인터페이스는 예컨대 인터넷 브라우저를 통해 복수의 동영상 컨텐츠들 중에서 사용자가 원하는 동영상 컨텐츠를 선택하도록 하는 웹페이지 또는 어플리케이션을 통해 구현된 선택 화면 등으로 구현될 수 있다.
다음으로, 동영상 컨텐츠 제공 시스템(100)이 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 제 1 사용자로부터 입력 받는 제 2 단계(s21 내지 s23)를 수행한다.
예컨대, 도 2의 웹페이지 화면 구성예에 도시된 바와 같이 사용자가 웹페이지 상에서 선택 동영상 컨텐츠(210)를 시청하면(s21), 동영상 컨텐츠 제공 시스템(100)이 선택 동영상 컨텐츠의 재생 중 또는 선택 동영상 컨텐츠 재생 완료 후 사용자의 동영상 컨텐츠 감상에 따른 심리상태를 추정하기 위한 설문 응답 인터페이스(212)를 제공(s22)한다.
설문 응답 인터페이스(212)는 사용자가 선택 가능한 복수의 비쥬얼 응답 아이템들(222)을 포함하는 설문일 수 있다. 설문은 사용자가 깊은 고민 없이 신속하게 선택할 수 있는 질문을 포함할 수 있다. 비쥬얼 응답 아이템은 예컨대, 색채, 이미지, 도형, 물리적 객체 등일 수 있다. 일 실시예에서 비쥬얼 응답 아이템은 직관적인 선택이 어려운 문장 형식의 텍스트 집합은 배재할 수 있다.
본 발명의 실시예와 같이 동영상 컨텐츠 제공 시스템(100)이 간단한 질문과 단순한 도형으로 이루어진 비쥬얼 응답 아이템을 사용자에게 제시하기 때문에, 사용자는 부가적인 분석행위 없이 직관적으로 용이하게 설문에 응할 수 있어 설문참여율을 높이는 효과를 제공한다.
한편, 동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠의 속성에 적합한 비쥬얼 응답 아이템들을 포함하는 설문을 제공할 수 있다. 예컨대 사용자가 희극 장르의 선택 동영상 컨텐츠를 시청한 경우라면 밝은 기분을 보다 구체적으로 확인할 수 있는 색상의 비쥬얼 응답 아이템들을 포함하는 설문이거나 설문의 질문 자체가 밝은 기분에 대응되는 질문으로 제공되고, 반대로 비극 장르의 선택 동영상 컨텐츠를 시청한 경우라면 우울한 기분을 보다 구체적으로 확인할 수 있는 색상의 비쥬얼 응답 아이템들을 포함하는 설문이거나 설문의 질문 자체가 우울한 기분에 대응되는 질문으로 제공될 수 있다. 예컨대, 동영상 컨텐츠 제공 시스템(100)의 관리자는 동영상 컨텐츠의 장르에 부합하는 설문을 설정할 수 있다.
다음으로, 동영상 컨텐츠 제공 시스템(100)이 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스(140)를 통해 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 제 1 사용자의 추정 매칭 감정코드로 반환 받고(s31), 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는(s32) 제 3 단계(s30)를 수행한다.
이때, 매칭 감정코드 데이터베이스(140)는 비쥬얼 응답 아이템들 별로 매칭 감정코드를 구분하여 저장한다. 예컨대 별 형상의 비쥬얼 응답 아이템은 제 1 감정, 원 형상의 비쥬얼 응답 아이템은 제 2 감정, 하트 형상의 비쥬얼 응답 아이템은 제 3 감정에 해당하는 것으로 정의될 수 있다. 예컨대 제 1 감정은 "기쁨" 매칭 감정코드로, 제 2 감정은 "슬픔" 매칭 감정코드, 제 3 감정은 "무서움" 매칭 감정코드로 정의될 수 있다.
이러한 매칭 감정코드의 정의에 따라 동영상 컨텐츠 제공 시스템(100)이 선택 동영상 컨텐츠 재생에 따라 사용자가 선택한 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 매칭 감정코드 데이터베이스(140)로부터 반환 받는 방법으로 사용자의 동영상 컨텐츠 시청에 따른 사용자의 추정 매칭 감정코드를 식별할 수 있다.
한편, 단일의 비쥬얼 응답 아이템은 반드시 단일의 매칭 감정코드와 일대일로 연관되어야 하는 것은 아니고, 복수의 비쥬얼 응답 아이템들이 단일의 매칭 감정코드와 연관될 수도 있고, 단일의 비쥬얼 응답 아이템이 복수의 매칭 감정코드들과 연관될 수 있다.
또한, 하나의 설문 응답 인터페이스에는 단일의 질문만 포함되어야 하는 것은 아니고, 사용자의 감정을 보다 세분화하여 파악할 필요가 있는 경우 복수의 질문들이 포함될 수 있다. 또한 하나의 질문에 제시되는 응답 비쥬얼 응답 아이템의 개수는 특별히 제한되지 않으며 사용자의 선택 편의성과 취득하고자 하는 감정상태의 정확성에 따라 적절한 개수로 결정될 수 있다.
그리고, 동영상 컨텐츠 제공 시스템(100)은 매칭 감정코드 데이터베이스(140)로부터 반환된 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 사용자의 개인별 컨텐츠 평가정보를 생성한다.
여기서, 개인별 컨텐츠 평가정보는 도 4에 도시된 바와 같이 동영상 컨텐츠를 식별하기 위한 동영상 컨텐츠 식별자, 사용자를 식별하기 위한 사용자 식별자, 및 추정 매칭 감정코드를 포함할 수 있다. 개인별 컨텐츠 평가정보는 부가정보(예컨대 사용자가 복수의 질문에 응답한 경우 복수의 추정 매칭 감정코드들, 사용자가 단일의 질문에 복수의 비쥬얼 응답 아이템들을 선택한 경우 선택한 복수의 비쥬얼 응답 아이템들 각각 해당하는 복수의 추정 매칭 감정코드들, 시청시간 정보, 시청횟수 정보 등)를 더 포함할 수 있다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠에 대해 제 1 사용자를 제외한 복수의 사용자들의 추정 매칭 감정코드들을 제 1 사용자의 추정 매칭 감정코드와 통합하여(s41) 통합 추정 매칭 감정코드를 생성하는(s42) 제 4 단계(s40)를 수행한다.
동영상 컨텐츠 제공 시스템(100)은 단일의 선택 동영상 컨텐츠에 대한 복수의 사용자들의 추정 매칭 감정코드들을 통합하여 통합 추정 매칭 감정코드를 생성한다. 즉, 동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성한다.
마지막으로, 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)은 제 4 단계에서 생성된 통합 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보를 생성하는 제 5 단계(50)를 수행한다.
통합 컨텐츠 평가정보는 동영상 컨텐츠를 식별하기 위한 동영상 컨텐츠 식별자 및 통합 매칭 감정코드를 포함할 수 있다. 통합 컨텐츠 평가정보는 부가정보(예컨대 2 순위 빈도수의 추정 매칭 감정코드 또는 3 순위 빈도수의 추정 매칭 감정코드, 동영상 컨텐츠의 통합 평가에 합산된 사용자 수 정보 등)를 더 포함할 수 있다.
이러한 실시 예에 따라 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)은 선택된 비쥬얼 응답 아이템을 통해 사용자의 추정 감정코드를 인식하여 추정 감정코드를 개인별 컨텐츠 평가정보로 활용하고, 복수의 사용자들의 추정 매칭 감정코드들을 종합하여 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보로 활용할 수 있는 효과를 제공한다. 뿐만 아니라 본 발명에 따른 동영상 컨텐츠 제공 시스템(100)은 사용자가 번거로운 인식 또는 절차 없이 직관적으로 비쥬얼 응답 아이템을 선택하기 때문에 컨텐츠 평가에 보다 많은 사용자들이 참여하여 컨텐츠 평가의 객관성을 제고하는 효과를 제공한다.
이하에서는 도 8을 참조하여 통합 컨텐츠 평가정보의 생성을 보다 상세히 살펴보도록 한다.
먼저, 동영상 컨텐츠 제공 시스템(100)은 사용자로부터 선택된 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 매칭 감정코드 데이터베이스(140)를 통해 반환 받고, 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여(s41) 통합 추정 매칭 감정코드를 생성하는(s42) 제 1 부단계를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통해 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정하는(s43) 제 2 부단계를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 제 2 부단계에서 결정한 제 1 순위 추정 매칭 감정코드를 추출하여(s44) 선택 동영상 컨텐츠의 통합 컨텐츠 평가정보로 생성하는(s45) 제 3 부단계를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 제 2 부단계에서 결정한 제 1 순위에 후행하는 제 2 순위 추정 매칭 감정코드 내지 제 l 순위 추정 매칭 감정코드들을 추출하여(s46) 선택 동영상 컨텐츠의 통합 컨텐츠 평가정보에 추가하는(s47) 제 4 부단계를 수행한다.
마지막으로, 동영상 컨텐츠 제공 시스템(100)은 통합 컨텐츠 평가정보를 이용하여 통합 컨텐츠 평가 정보 맵을 생성하는(s48) 제 5 부단계를 수행한다. 동영상 컨텐츠 제공 시스템(100)은 통합 컨텐츠 평가 정보 맵을 통해 동영상 컨텐츠에 대한 감정코드들을 표시할 수 있다. 사용자는 통합 컨텐츠 평가 정보 맵에 표시된 감정코드들 중 어느 하나를 선택할 수 있고, 동영상 컨텐츠 제공 시스템(100)은 사용자에 의해 선택된 감정코드에 해당하는 동영상 컨텐츠를 추천할 수 있다.
도 9를 참조하면, 동영상 컨텐츠 제공 시스템(100)은 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자에 의해 선택된 동영상 컨텐츠인 선택 동영상 컨텐츠를 식별하는(s90) 제 1 단계를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 제 1 사용자로부터 입력 받는 제 2 단계(s91 내지 s93)를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스를 통해 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 제 1 사용자의 추정 매칭 감정코드로 반환 받고(s94), 추정 매칭 감정코드를 기반으로 선택 동영상 컨텐츠에 대한 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는(s95) 제 3 단계를 수행한다.
다음으로, 동영상 컨텐츠 제공 시스템(100)은 선택 동영상 컨텐츠에 대해 제 1 사용자를 제외한 복수의 사용자들의 복수의 개인별 컨텐츠 평가정보들을 반환 받고(s96), 제 1 사용자를 제외한 복수의 사용자들의 복수의 개인별 컨텐츠 평가정보들을 제 1 사용자의 개인별 컨텐츠 평가정보와 통합하여 통합 컨텐츠 평가정보를 생성하여(s97) 생성된 통합 컨텐츠 평가정보를 제공하는(s98) 제 4 단계를 수행한다.
마지막으로, 동영상 컨텐츠 제공 시스템(100)은 제 1 사용자의 추정 매칭 감정코드와 일치하는 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 제 1 사용자에게 제공하는(s99) 제 5 단계를 수행한다.
도 10은 일 실시예에 다른 동영상 컨텐츠 제공 시스템을 설명하기 위한 도면이다. 도 10을 참조하면, 동영상 컨텐츠 제공 시스템(100)은 디바이스(300) 및/또는 서버(400)를 포함할 수 있다. 도 1 내지 도 9에서 동영상 컨텐츠 제공 시스템(100)에 관하여 기술된 내용은 도 10의 디바이스(300) 또는 서버(400)에 동일하게 적용된다.
디바이스(300)는 사용자의 휴대폰, 테블릿, PC, 노트북, 웨어러블, VR 기기 등 일 수 있다. 서버(400)는 메모리, 프로세서 등을 포함하는 데이터 처리 장치일 수 있다. 서버(400)는 디스플레이 장치를 더 포함할 수 있다.
서버(400)는 디바이스(300)와 유선 또는 무선 등의 통신망으로 연결되어 있다. 디바이스(300)와 서버(400)는 데이터를 송수신할 수 있다. 예를 들어, 디바이스(300)는 사용자의 입력을 수신하고, 사용자의 입력에 따른 데이터 또는 정보를 서버(400)로 전송할 수 있다. 디바이스(300)는 통신망을 통해 서버(400)로부터 동영상 컨텐츠, 프로그램, 어플리케이션 또는 다양한 데이터 등을 다운로드 받을 수 있다.
디바이스(300)는 동영상 컨텐츠를 저장할 수도 있다. 디바이스(300)는 동영상 컨텐츠를 서버(400)로부터 다운로드 받을 수도 있으며, 디바이스(300)의 내부 메모리에 동영상 컨텐츠를 저장하고 있을 수도 있다. 예를 들어, 디바이스(300)는 카메라를 포함할 수 있고, 사용자는 디바이스(300)의 카메라를 이용하여 동영상을 촬영하고, 디바이스(300)의 메모리에 동영상을 저장할 수도 있다. 또한, 디바이스(300)는 서버(400)가 아닌 다른 전자기기로부터 동영상 컨텐츠를 수신할 수도 있다. 디바이스(300)는 촬영된 동영상 또는 다른 전자기기로부터 수신된 동영상 컨텐츠를 서버(400)로 전송할 수도 있다.
디바이스(300)에 동영상 컨텐츠들이 저장되어 있고, 디바이스(300)에 저장된 동영상 컨텐츠들을 이용하여 상기에서 언급된 동영상 컨텐츠 제공방법이 수행되는 경우, 동영상 컨텐츠 제공방법의 각 단계들은 디바이스(300)에 의해 모두 수행될 수도 있다.
도 11은 일 실시예에 따른 동영상 컨텐츠를 추천하는 방법을 설명하기 위한 흐름도이다. 도 11은 디바이스(300)가 서버(400)를 통해 동영상 컨텐츠를 추천 받는 방법을 설명한다.
단계 1111에서, 서버(400)는 디바이스(300)로 동영상 선택 인터페이스를 전송한다. 예를 들어, 디바이스(300)는 인터넷을 통해 서버(400)에서 제공하는 웹사이트에 접속하고, 서버(400)는 디바이스(300)에 웹사이트의 정보를 전송할 수도 있다. 서버(400)는 디바이스(300)로 어플리케이션 파일을 전송할 수 있고, 어플리케이션 파일은 동영상 선택 인터페이스를 포함할 수 있다. 동영상 선택 인터페이스는 복수의 동영상 컨텐츠들의 리스트를 제공하고, 사용자가 동영상 컨텐츠를 검색 또는 선택할 수 있는 환경을 제공한다. 디바이스(300)는 서버(400)로부터 수신된 어플리케이션 파일을 설치 및 실행할 수 있다.
단계 1112에서, 디바이스(300)는 동영상 선택 인터페이스를 표시한다. 디바이스(300)는 디스플레이 장치를 통해 사용자에게 동영상 선택 인터페이스를 제공할 수 있다.
단계 1113에서, 디바이스(300)는 사용자의 선택을 수신한다. 사용자는 디바이스(300)에 표시된 복수의 동영상 컨텐츠들 중 어느 하나를 선택하거나, 동영상을 검색하여 동영상 컨텐츠를 선택할 수 있다.
단계 1114에서, 디바이스(300)는 사용자가 선택한 동영상 컨텐츠에 대한 정보를 서버(400)로 전송한다. 예를 들어, 디바이스(300)는 동영상 컨텐츠의 타이틀, 식별번호 또는 식별문자 등을 서버(400)로 전송할 수 있다.
단계 1115에서, 서버(400)는 사용자에 의해 선택된 동영상 컨텐츠 및 설문 응답 인터페이스를 디바이스(300)로 전송한다. 서버(400)는 동영상 컨텐츠의 전체 파일을 디바이스(300)로 전송하거나, 동영상 컨텐츠가 재생되는 시점에 따라 동영상 컨텐츠의 일부를 디바이스(300)로 전송할 수 있다. 설문 응답 인터페이스는 동영상 컨텐츠와 함께 또는 따로 디바이스(300)로 전송될 수 있다. 예를 들어, 설문 응답 인터페이스는 동영상 컨텐츠가 디바이스(300)에서 재생되는 중에 디바이스(300)로 전송될 수 있고, 동영상 컨텐츠의 재생이 완료된 후에 디바이스(300)로 전송될 수 있다. 또 다른 예로, 서버(400)는 도 2에 도시된 동영상 컨텐츠 옵션 처리 인터페이스(234)를 디바이스(300)로 전송할 수 있다.
단계 1116에서, 디바이스(300)는 서버(400)로부터 수신된 동영상 컨텐츠를 재생한다. 디바이스(300)는 전체 화면에 동영상 컨텐츠를 재생하거나, 일부 화면에 동영상 컨텐츠를 재생할 수 있다.
단계 1117에서, 디바이스(300)는 설문 응답 인터페이스를 표시한다. 디바이스(300)는 동영상 컨텐츠를 재생하는 중에 설문 응답 인터페이스를 표시하거나, 동영상 컨텐츠의 재생이 완료된 후에 설문 응답 인터페이스를 표시할 수 있다. 디바이스(300)는 동영상 컨텐츠를 전체 화면에 재생하는 경우, 설문 응답 인터페이스를 동영상 컨텐츠에 오버레이 하여 표시할 수 있다. 또한, 디바이스(300)는 동영상 컨텐츠를 일부 화면에 재생하는 경우, 설문 응답 인터페이스를 동영상 컨텐츠와 분리하여 표시할 수 있다.
단계 1118에서, 디바이스(300)는 사용자의 선택을 수신한다. 예를 들어, 디바이스(300)는 설문 응답 인터페이스를 통해 사용자의 선택을 수신한다. 사용자는 설문 응답 인터페이스에 표시된 비쥬얼 응답 아이템들 중 적어도 하나를 선택할 수 있고, 디바이스(300)는 사용자에 의해 선택된 비쥬얼 응답 아이템을 식별한다. 사용자는 표시된 비쥬얼 응답 아이템들 중 어느 하나를 선택하거나, 직접 도형, 문자 또는 숫자 등을 입력할 수도 있다. 디바이스(300)는 사용자가 직접 입력한 도형, 문자 또는 숫자 등과 가장 유사한 도형, 문자 또는 숫자를 검색하여 사용자의 입력을 식별할 수 있다. 또한, 디바이스(300)는 도 2에 도시된 동영상 컨텐츠 옵션 처리 인터페이스(234)를 통해 사용자의 선택을 수신한다. 사용자는 복수의 옵션들 중에서 어느 하나를 선택할 수 있고, 디바이스(300)는 사용자에 의해 선택된 옵션을 식별한다.
단계 1119에서, 디바이스(300)는 사용자의 선택에 대한 정보를 서버(400)로 전송한다. 예를 들어, 디바이스(300)는 사용자가 선택한 비쥬얼 응답 아이템에 대한 정보를 서버(400)로 전송한다. 디바이스(300)는 비쥬얼 응답 아이템의 명칭, 식별번호 또는 식별문자 등을 서버(400)로 전송할 수 있다. 또는 디바이스(300)는 사용자가 선택한 옵션에 대한 정보를 서버(400)로 전송한다. 디바이스(300)는 상태 유지, 상태 반전 또는 상태 유지 중 어느 하나를 나타내는 정보를 서버(400)로 전송한다.
단계 1120에서, 서버(400)는 사용자의 선택에 따라 동영상 컨텐츠를 결정한다. 서버(400)는 디바이스(300)로부터 수신된 사용자의 선택에 대한 정보에 기초하여, 디바이스(300)로 전송할 동영상 컨텐츠를 결정한다. 예를 들어, 서버(400)는 사용자가 선택한 비쥬얼 응답 아이템에 따라 동영상 컨텐츠를 결정하거나, 사용자가 선택한 옵션에 따라 동영상 컨텐츠를 결정할 수 있다. 서버(400)는 사용자의 선택 및 다른 사용자들에 의해 평가된 감정코드에 기초하여 동영상 컨텐츠를 결정한다. 서버(400)가 동영상 컨텐츠를 결정하는 방법은 위에서 설명된 방법들이 동일하게 적용될 수 있다.
단계 1121에서, 서버(400)는 결정된 동영상 컨텐츠를 디바이스(300)로 전송한다. 서버(400)는 결정된 동영상 컨텐츠의 전체 파일을 디바이스(300)로 전송한다. 또는, 디바이스(300)가 결정된 동영상 컨텐츠의 전체 파일을 저장하고 있는 경우, 서버(400)는 디바이스(300)로 결정된 동영상 컨텐츠의 타이틀, 식별번호 등만을 전송할 수 있다.
단계 1122에서, 디바이스(300)는 서버(400)로부터 수신된 동영상 컨텐츠를 추천한다. 또는, 디바이스(300)는 서버(400)로부터 동영상 컨텐츠의 타이틀, 식별번호 등을 수신한 경우, 디바이스(300)는 메모리에 저장된 동영상 컨텐츠를 검색하여, 검색된 동영상 컨텐츠를 추천할 수 있다. 디바이스(300)는 추천할 동영상 컨텐츠의 타이틀 또는 대표 이미지를 표시하여 동영상 컨텐츠를 추천할 수 있다.
도 12는 일 실시예에 따른 디바이스 및 서버를 설명하기 위한 구성도이다. 디바이스(300)는 프로세서(310), 디스플레이 장치(320) 및 메모리(330)를 포함한다. 서버(400)는 프로세서(410) 및 메모리(420)를 포함한다. 상기에서 동영상 컨텐츠 제공 시스템(100)에 관하여 기재된 내용은 디바이스(300) 및 서버(400)에도 적용된다. 동영상 컨텐츠 제공 시스템(100)이 수행하는 모든 단계는 디바이스(300) 또는 서버(400)에 의해 실행될 수 있다.
디바이스(300)와 서버(400)는 서로 데이터 또는 정보를 송수신하며, 사용자에게 추천할 동영상 컨텐츠를 결정할 수 있다. 디바이스(300) 및 서버(400)는 하나 이상의 프로세서 또는 메모리를 포함할 수 있다.
디바이스(300)의 프로세서(310)는 디스플레이 장치(320) 및 메모리(330)를 제어한다. 예를 들어, 프로세서(310)는 디스플레이 장치(320)가 표시할 동영상 컨텐츠 또는 인터페이스 등을 결정한다. 프로세서(310)는 메모리(330)에 데이터를 저장하거나 메모리(330)로부터 데이터를 독출한다.
디바이스(300)는 사용자로부터 입력을 수신하기 위한 터치 스크린을 더 포함할 수 있다. 터치 스크린은 사용자의 터치 입력을 수신하여, 프로세서(310)로 터치 입력에 대한 정보를 전송한다.
디바이스(300)는 디바이스(300)의 움직임을 감지하기 위한 움직임 센서를 더 포함할 수 있다. 움직임 센서는 디바이스(300)가 움직이는 방향, 세기, 시간 등을 감지할 수 있다.
디바이스(300)의 디스플레이 장치(320)는 동영상 컨텐츠, 설문, 사용자 입력 필드, 추천 동영상 컨텐츠, 동영상 컨텐츠들의 리스트 및 동영상 컨텐츠 평가 맵 등을 각각 또는 2 이상을 동시에 표시할 수 있다. 예를 들어, 디스플레이 장치(320)는 동영상 컨텐츠 및 설문을 함께 표시할 수 있다. 또는 디스플레이 장치(320)는 동영상 컨텐츠 및 추천 동영상 컨텐츠들의 리스트를 함께 표시할 수 있다.
디바이스(300)는 복수의 동영상 컨텐츠들을 디스플레이 장치(320)에 표시하고, 사용자로부터 어느 하나의 동영상 컨텐츠를 선택하는 입력을 수신할 수 있다. 디바이스(300)는 복수의 동영상 컨텐츠들 중에서 사용자에 의해 선택된 동영상 컨텐츠를 전체 화면으로 디스플레이 장치(320)에 표시할 수 있다. 디바이스(300)는 선택된 동영상 컨텐츠를 나타내는 정보를 서버(400)로 전송하고, 서버(400)로부터 선택된 동영상 컨텐츠를 다운로드 또는 스트리밍 받을 수 있다. 디바이스(300)는 서버(400)로부터 수신된 동영상 컨텐츠에 대한 설문을 함께 다운로드 또는 스트리밍 받을 수 있다.
디바이스(300)는 선택된 동영상 컨텐츠를 재생하는 중 설문을 디스플레이 장치(320)에 표시할 수 있다. 또는, 디바이스(300)는 선택된 동영상 컨텐츠의 재생을 완료한 후에 설문을 디스플레이 장치(320)에 표시할 수도 있다. 설문은 동영상 컨텐츠와 오버랩 되어 표시되거나, 동영상 컨텐츠와 별도의 영역에 표시될 수 있다.
메모리(330)는 동영상 컨텐츠를 저장하거나, 동영상 컨텐츠에 관한 정보를 저장한다. 또한, 메모리(330)는 비쥬얼 응답 아이템, 감정코드 및 비쥬얼 응답 아이템과 감정코드의 관계 정보를 저장할 수 있다.
디바이스(300)는 사용자가 선택한 비쥬얼 응답 아이템에 대한 정보를 서버(400)로 전송할 수 있다. 또한, 디바이스(300)는 사용자가 선택한 비쥬얼 응답 아이템에 대응하는 감정코드를 메모리(330)로부터 독출하고, 서버(400)로 감정코드에 대한 정보를 전송할 수 있다. 또한, 디바이스(300)는 사용자가 선택한 비쥬얼 응답 아이템에 대응하는 감정코드에 따라 동영상 컨텐츠를 결정하고, 서버(400)로 결정된 동영상 컨텐츠에 대한 정보를 전송할 수 있다. 디바이스(300)는 결정된 동영상 컨텐츠를 서버(400)로부터 수신하거나, 결정된 동영상 컨텐츠를 메모리(330)로부터 독출하여 디스플레이 장치(320)를 통해 재생할 수도 있다.
디바이스(300)의 프로세서(310)는 사용자의 입력에 따라 추천할 동영상 컨텐츠를 결정할 수 있다. 프로세서(310)는 사용자가 선택한 비쥬얼 응답 아이템 또는 사용자가 선택한 옵션에 따라 추천할 동영상 컨텐츠를 결정할 수 있다.
프로세서(310)는 사용자가 비쥬얼 응답 아이템을 선택하면, 선택된 비쥬얼 응답 아이템에 따라 추천할 동영상 컨텐츠를 결정할 수 있다. 프로세서(310)는 비쥬얼 응답 아이템에 매칭되는 감정코드를 이용하여 사용자의 심리상태를 추정하고, 추정된 심리상태에 따라 추천할 동영상 컨텐츠를 결정한다. 프로세서(310)는 사용자의 감정코드와 동일한 감정코드를 갖는 동영상 컨텐츠를 추천하거나, 사용자의 감정코드와 상반된 감정코드를 갖는 동영상 컨텐츠를 추천하거나, 사용자의 감정코드보다 심화된 감정코드를 갖는 동영상 컨텐츠를 추천할 수 있다.
프로세서(310)는 동영상 컨텐츠에 대한 통합 컨텐츠 평가 정보 맵을 생성하고, 통합 컨텐츠 평가 정보 맵을 표시할 수 있다. 사용자는 통합 컨텐츠 평가 정보 맵에 표시된 감정코드들 중 어느 하나를 선택할 수 있고, 프로세서(310)는 사용자에 의해 선택된 감정코드에 해당하는 동영상 컨텐츠를 추천할 수 있다.
서버(400)는 디바이스(300)에 데이터를 전송한다. 서버(400)는 디바이스(300)로 동영상 선택 인터페이스, 설문 응답 인터페이스, 동영상 컨텐츠, 동영상 컨텐츠의 감정코드 등을 전송할 수 있다. 서버(400)의 프로세서(410)는 디바이스(300)로부터 수신된 정보에 기초하여 디바이스(300)로 전송할 데이터를 결정할 수 있다.
서버(400)의 프로세서(410)는 디바이스(300)로부터 수신된 사용자의 입력 및 메모리(420)에 저장된 데이터를 이용하여 추천할 동영상 컨텐츠를 결정할 수 있다. 프로세서(410)는 사용자가 선택한 비쥬얼 응답 아이템 또는 사용자가 선택한 옵션에 따라 동영상 컨텐츠의 속성을 결정하고, 결정된 속성을 갖는 동영상 컨텐츠를 추천한다.
서버(400)의 프로세서(410)는 사용자가 비쥬얼 응답 아이템을 선택하면, 선택된 비쥬얼 응답 아이템에 따라 추천할 동영상 컨텐츠를 결정할 수 있다. 프로세서(410)는 비쥬얼 응답 아이템에 매칭되는 감정코드를 이용하여 사용자의 심리상태를 추정하고, 추정된 심리상태에 따라 추천할 동영상 컨텐츠를 결정한다. 프로세서(410)는 사용자의 감정코드와 동일한 감정코드를 갖는 동영상 컨텐츠를 추천하거나, 사용자의 감정코드와 상반된 감정코드를 갖는 동영상 컨텐츠를 추천하거나, 사용자의 감정코드보다 심화된 감정코드를 갖는 동영상 컨텐츠를 추천할 수 있다.
서버(400)의 메모리(420)는 설문 응답 인터페이스, 동영상 컨텐츠, 동영상 컨텐츠의 감정코드 등을 저장한다. 또한, 메모리(420)는 동영상 컨텐츠를 제공하기 위한 프로그램, 어플리케이션 등을 저장할 수 있다.
본 명세서에서의 발명의 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에 서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.

Claims (25)

  1. 동영상 컨텐츠 제공 시스템이, 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자로부터 선택된 선택 동영상 컨텐츠를 식별하는 제 1 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 상기 제 1 사용자로부터 입력받는 제 2 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스를 통해 상기 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 상기 제 1 사용자의 추정 매칭 감정코드로 반환 받고, 상기 제1 사용자의 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는 제 3 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠에 대해 상기 제 1 사용자를 제외한 복수의 사용자들의 추정 매칭 감정코드들과 상기 제 1 사용자의 상기 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성하는 제 4 단계; 및
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 4 단계에서 생성된 상기 통합 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 통합 컨텐츠 평가정보를 생성하는 제 5 단계;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  2. 제 1 항에 있어서, 상기 제 4 단계 또는 상기 제 5 단계는,
    상기 매칭 감정코드 데이터베이스를 통해 상기 제 1 사용자 내지 제 n 사용자(n은 2 이상의 정수)들의 상기 선택 동영상 컨텐츠에 대한 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 반환 받는 제 1 부단계; 및
    상기 제 1 부단계를 통해 반환된 상기 제 1 추정 매칭 감정코드 내지 상기 제 n 추정 매칭 감정코드를 통해 상기 추정 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정하는 제 2 부단계;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  3. 제 2 항에 있어서, 상기 제 5 단계는,
    상기 제 2 부단계의 상기 추정 매칭 감정코드들의 빈도 순위를 통해 상기 제 1 순위 추정 매칭 감정코드를 상기 선택 동영상 컨텐츠의 통합 컨텐츠 평가정보로 생성하는 제 3 부단계;를 더 포함는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  4. 제 3 항에 있어서, 상기 제 5 단계는,
    상기 제 2 부단계의 상기 추정 매칭 감정코드들의 빈도 순위를 통해 제 2 순위 추정 매칭 감정코드 내지 제 k 순위 추정 매칭 감정코드(k는 2 이상, m 이하 정수)를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가 정보로 추가하는 제 4 부단계;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  5. 제 4 항에 있어서, 상기 제 5 단계는,
    상기 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가 정보 표시 영역에 표시하고, 상기 제 2 순위 추정 매칭 감정코드 내지 상기 제 k 순위 추정 매칭 감정코드(k는 2 이상의 m 이하의 정수)를 상기 제 2 순위 컨텐츠 평가 정보 표시 영역 내지 제 l 순위 컨텐츠 평가 정보 표시 영역에 표시한 통합 컨텐츠 평가 정보 맵을 표시하되 각 컨텐츠 평가정보 표시 영역의 넓이는 상기 추정 매칭 감정코드 순위에 기반하여 결정하는 제 5 부단계;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  6. 제 1 항에 있어서,
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 6 단계;를 더 포함하는 특징으로 하는 동영상 컨텐츠 제공방법.
  7. 제 1 항에 있어서,
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상반 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 7 단계;를 더 포함하되,
    상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  8. 제 1 항에 있어서,
    상기 제 1 단계는 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하고,
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드의 레벨보다 높은 레벨의 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 심화 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 8 단계;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  9. 제 1 항에 있어서,
    상기 제 1 단계는 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보와, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하는 제 6 부단계;를 더 포함하고,
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 3 단계 이후에 상기 제 1 사용자로부터 감정상태 유지옵션, 감정상태 반전옵션 또는 감정상태 심화옵션 중 어느 하나를 선택 받는 제 9 단계;
    상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 유지옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가 정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 10 단계;
    상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 반전옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가 정보를 갖는 상반 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 11 단계; 및
    상기 제 9 단계에서 상기 제 1 사용자로부터 상기 감정상태 심화옵션을 선택 받은 경우 상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드의 레벨보다 높은 레벨의 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가 정보를 갖는 심화 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 12 단계;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  10. 제 9 항에 있어서,
    상기 제 9 단계는 상기 제 1 사용자의 정보 단말기의 터치스크린을 통한 제 1 방향으로의 스와이프를 감정상태 유지옵션으로 입력 받고, 상기 제 1 사용자의 상기 정보 단말기의 터치스크린을 통한 상기 제 1 방향과 다른 제 2 방향으로의 스와이프를 감정상태 반전옵션으로 입력 받고, 상기 제 1 사용자의 상기 정보 단말기의 터치스크린을 통한 상기 제 1 방향 및 상기 제 2 방향과 다른 제 3 방향으로의 스와이프를 감정상태 심화옵션으로 입력 받는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  11. 제 1 항에 있어서,
    상기 제 1 단계는 상기 매칭 감정코드들의 관계를 정의하는 매칭 감정코드 관계정보를 상기 매칭 감정코드 데이터베이스에 저장하고,
    상기 제 3 단계 이후에 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 동종 동영상 컨텐츠 리스트와, 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 상반 동영상 컨텐츠 리스트를 표시하는 제 13 단계;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  12. 제 1 항에 있어서,
    상기 제 2 단계는 상기 동영상 컨텐츠 제공 시스템이, 상기 설문 응답 인터페이스를 통해 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문들이 순차적으로 배치된 설문 시퀀스를 제공하되,
    상기 설문 시퀀스는, 제 1 감정군을 판단하는 제 1 설문그룹 및 상기 제 1 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하거나, 상기 제1 감정군과 구별되는 제 2 감정군을 판단하는 상기 제 1 설문그룹 및 상기 제 2 감정군의 레벨을 판단하는 상기 제 2 설문그룹을 포함하고,
    상기 매칭 감정코드 데이터베이스는, 복수의 매칭 감정코드들을 상기 제 1 감정군 및 상기 제 2 감정군으로 구분하여 저장하고, 상기 제 1 감정군에 속하는 매칭 감정코드들 각각의 레벨정보 및 상기 제 2 감정군에 속하는 매칭 감정코드들 각각의 레벨정보를 더 저장하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  13. 동영상 컨텐츠 제공 시스템이, 동영상 공유 환경에서 동영상 컨텐츠를 선택할 수 있는 동영상 선택 인터페이스를 제공하여 제 1 사용자로부터 선택된 동영상 컨텐츠인 선택 동영상 컨텐츠를 식별하는 제 1 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠의 재생 이후 또는 재생 중에 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하여 적어도 하나의 선택 비쥬얼 응답 아이템을 상기 제 1 사용자로부터 입력 받는 제 2 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 비쥬얼 응답 아이템들 별로 매칭되는 매칭 감정코드들이 저장된 매칭 감정코드 데이터베이스를 통해 상기 선택 비쥬얼 응답 아이템에 해당하는 매칭 감정코드를 상기 제 1 사용자의 추정 매칭 감정코드로 반환 받고, 상기 제 1 사용자의 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 제 1 사용자의 개인별 컨텐츠 평가정보를 생성하는 제 3 단계;
    상기 동영상 컨텐츠 제공 시스템이, 상기 선택 동영상 컨텐츠에 대해 상기 제 1 사용자를 제외한 복수의 사용자들의 복수의 상기 개인별 컨텐츠 평가정보들을 반환받아 상기 제 1 사용자의 상기 개인별 컨텐츠 평가정보와 통합하여 통합 컨텐츠 평가정보를 생성하는 제 4 단계; 및
    상기 동영상 컨텐츠 제공 시스템이, 상기 제 1 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 동종 동영상 컨텐츠를 상기 제 1 사용자에게 제공하는 제 5 단계;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공방법.
  14. 사용자로부터 선택된 동영상 컨텐츠의 재생 이후 또는 재생 중에 선택 가능한 복수의 비쥬얼 응답 아이템들을 포함하는 설문 응답 인터페이스를 제공하는 설문 응답 인터페이스 제공모듈;
    상기 사용자로부터 선택된 적어도 하나의 상기 비쥬얼 응답 아이템인 선택 비쥬얼 응답 아이템을 식별하는 선택 비쥬얼 응답 아이템 식별모듈;
    상기 복수의 비쥬얼 응답 아이템들 별로 각각 매칭되는 감정코드인 매칭 감정코드를 저장하고, 상기 선택 비쥬얼 응답 아이템에 해당하는 상기 매칭 감정코드를 상기 사용자의 추정 매칭 감정코드로 반환하는 매칭 감정코드 데이터베이스;
    상기 매칭 감정코드 데이터베이스로부터 반환된 상기 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 상기 사용자의 개인별 컨텐츠 평가정보를 생성하는 개인별 컨텐츠 평가정보 생성모듈;
    상기 선택 동영상 컨텐츠에 대해 복수의 사용자들의 추정 매칭 감정코드를 통합하여 통합 추정 매칭 감정코드를 생성하는 통합 추정 매칭 감정코드 생성모듈; 및
    상기 통합 추정 매칭 감정코드 생성모듈로부터 생성된 상기 통합 추정 매칭 감정코드를 기반으로 상기 선택 동영상 컨텐츠에 대한 복수의 사용자들의 통합 컨텐츠 평가정보를 생성하는 통합 컨텐츠 평가정보 생성모듈;을 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  15. 제 14 항에 있어서,
    상기 통합 추정 매칭 감정코드 생성모듈은, 상기 선택 동영상 컨텐츠에 대한 제 1 사용자 내지 제 n 사용자들(n은 2 이상의 정수)의 제 1 추정 매칭 감정코드 내지 제 n 추정 매칭 감정코드를 통합하여 상기 통합 추정 매칭 감정코드를 생성하고,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 제 1 추정 매칭 감정코드 내지 상기 제 n 추정 매칭 감정코드를 통해 상기 추정 매칭 감정코드들의 빈도 순위에 따라 제 1 순위 추정 매칭 감정코드 내지 제 m 순위 추정 매칭 감정코드(m은 1 이상의 정수)를 결정하는 빈도 순위 결정부;를 더 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  16. 제 15 항에 있어서, 상기 통합 컨텐츠 평가정보 생성모듈은,
    상기 빈도 순위 결정부가 결정한 상기 제 1 순위 추정 매칭 감정코드를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가정보로 생성하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  17. 제 16 항에 있어서, 상기 통합 컨텐츠 평가정보 생성모듈은,
    상기 빈도 순위 결정부가 결정한 제 2 순위 추정 매칭 감정코드 내지 제 k 순위 추정 매칭 감정코드(k는 2 이상, m 이하의 정수)를 상기 선택 동영상 컨텐츠의 상기 통합 컨텐츠 평가정보로 추가하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  18. 제 17 항에 있어서,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 빈도 순위 결정부에 의해 결정된 상기 제 1 순위 추정 매칭 감정코드를 대표 컨텐츠 평가정보 표시 영역에 표시하고, 상기 제 2 순위 추정 매칭 감정코드 내지 상기 제 k 순위 추정 매칭 감정코드를 상기 제 2 순위 컨텐츠 평가정보 표시 영역 내지 제 l 순위 컨텐츠 평가정보 표시 영역에 표시한 통합 컨텐츠 평가정보 맵을 표시하는 통합 컨텐츠 평가 맵 생성부;를 더 포함하되,
    상기 통합 컨텐츠 평가 맵 생성부는, 상기 각각의 컨텐츠 평가정보 표시 영역의 넓이를 상기 추정 매칭 감정코드 순위에 기반하여 결정하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  19. 제 14 항에 있어서, 상기 통합 컨텐츠 평가정보 생성모듈은,
    상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및
    상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 동종 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  20. 제 14 항에 있어서,
    상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 저장하고,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 상반 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  21. 제 20 항에 있어서,
    상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 더 저장하고,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자의 상기 추정 매칭 감정코드에 비해 상기 레벨이 심화된 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 심화 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  22. 제 14 항에 있어서, 상기 통합 컨텐츠 평가정보 생성모듈은,
    상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하고, 상기 매칭 감정코드 별 심화 정도를 나타내는 레벨을 정의하는 매칭 감정코드 관계정보를 더 저장하고,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 선택 동영상 컨텐츠 별 상기 통합 컨텐츠 평가정보를 상기 매칭 감정코드 데이터베이스로부터 반환된 추정 매칭 감정코드 별로 구분하여 저장하는 통합 컨텐츠 평가정보 저장부; 및 상기 사용자로부터 상태 유지요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 동종 동영상 컨텐츠를 상기 사용자에게 제공하고, 상기 사용자로부터 상태 반전요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드와 상반되는 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 상반 동영상 컨텐츠를 상기 사용자에게 제공하고, 상기 사용자로부터 상태 심화요청 신호를 수신하는 경우 상기 사용자의 상기 추정 매칭 감정코드에 비해 상기 레벨이 심화된 상기 추정 매칭 감정코드에 해당하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠인 심화 동영상 컨텐츠를 상기 사용자에게 제공하는 통합 컨텐츠 추천부;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  23. 제 22 항에 있어서, 상기 통합 컨텐츠 추천부는,
    상기 사용자의 정보 단말기의 터치스크린 상에서 제 1 방향으로의 스와이프를 상기 상태 유지요청 신호로 인식하고, 상기 제 1 방향과 다른 제 2 방향으로의 스와이프를 상기 상태 반전요청 신호로 인식하고, 상기 제 1 방향 및 상기 제 2 방향과 다른 제 3 방향으로의 스와이프를 상기 상태 심화요청 신호로 인식하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  24. 제 14 항에 있어서,
    상기 매칭 감정코드 데이터베이스는, 상기 매칭 감정코드 별로 상반되는 매칭 감정코드를 정의하는 매칭 감정코드 관계정보를 더 저장하고,
    상기 통합 컨텐츠 평가정보 생성모듈은, 상기 사용자의 개인별 컨텐츠 평가정보 생성 이후 상기 사용자의 상기 추정 매칭 감정코드와 일치하는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 동종 동영상 컨텐츠 리스트와, 상기 추정 매칭 감정코드와 상반되는 상기 통합 컨텐츠 평가정보를 갖는 상기 동영상 컨텐츠들의 리스트인 상반 동영상 컨텐츠 리스트를 표시하는 동영상 컨텐츠 리스트 생성부;를 포함하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
  25. 제 14 항에 있어서,
    상기 설문 응답 인터페이스 제공모듈은, 상기 설문 응답 인터페이스를 통해 복수의 선택 가능한 비쥬얼 응답 아이템들을 포함하는 설문들이 순차적으로 배치된 설문 시퀀스를 제공하되,
    상기 설문 시퀀스는, 제 1 감정군을 판단하는 제 1 설문그룹 및 상기 제 1 감정군의 레벨을 판단하는 제 2 설문그룹을 포함하거나, 상기 제1 감정군과 구별되는 제 2 감정군을 판단하는 상기 제 1 설문그룹 및 상기 제 2 감정군의 레벨을 판단하는 상기 제 2 설문그룹을 포함하고,
    상기 매칭 감정코드 데이터베이스는, 복수의 매칭 감정코드들을 상기 제 1 감정군 및 상기 제 2 감정군으로 구분하여 저장하고, 상기 제 1 감정군에 속하는 매칭 감정코드들 각각의 레벨정보 및 상기 제 2 감정군에 속하는 매칭 감정코드들 각각의 레벨정보를 더 저장하는 것을 특징으로 하는 동영상 컨텐츠 제공 시스템.
PCT/KR2017/005617 2016-05-31 2017-05-30 동영상 컨텐츠를 제공하는 시스템 및 방법 WO2017209482A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020160067374A KR101843021B1 (ko) 2016-05-31 2016-05-31 동영상 컨텐츠 서비스 제공 시스템 및 제공방법
KR10-2016-0067374 2016-05-31
KR10-2017-0066540 2017-05-30
KR1020170066540A KR20170135745A (ko) 2017-05-30 2017-05-30 동영상 컨텐츠를 제공하는 시스템 및 방법

Publications (1)

Publication Number Publication Date
WO2017209482A1 true WO2017209482A1 (ko) 2017-12-07

Family

ID=60478759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/005617 WO2017209482A1 (ko) 2016-05-31 2017-05-30 동영상 컨텐츠를 제공하는 시스템 및 방법

Country Status (1)

Country Link
WO (1) WO2017209482A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108924648A (zh) * 2018-07-17 2018-11-30 北京新唐思创教育科技有限公司 用于向用户播放视频数据的方法、装置、设备和介质
US20190139575A1 (en) * 2017-11-06 2019-05-09 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
CN113010784A (zh) * 2021-03-17 2021-06-22 北京十一贝科技有限公司 用于生成预测信息的方法、装置、电子设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110091206A (ko) * 2010-02-05 2011-08-11 엘지전자 주식회사 전자 장치 및 전자 장치의 데이터 관리 방법
KR20140139549A (ko) * 2012-03-14 2014-12-05 제너럴 인스트루먼트 코포레이션 매체 콘텐츠 아이템에서의 감정 맵핑
JP2014235533A (ja) * 2013-05-31 2014-12-15 株式会社Nttぷらら コンテンツ評価装置、コンテンツ提示装置、コンテンツ評価方法、コンテンツ評価プログラム、およびコンテンツ供給システム
KR20150066132A (ko) * 2013-12-06 2015-06-16 삼성전자주식회사 디스플레이 장치, 리모컨, 디스플레이 시스템, 및 디스플레이 방법
JP2015228142A (ja) * 2014-05-31 2015-12-17 Kddi株式会社 ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110091206A (ko) * 2010-02-05 2011-08-11 엘지전자 주식회사 전자 장치 및 전자 장치의 데이터 관리 방법
KR20140139549A (ko) * 2012-03-14 2014-12-05 제너럴 인스트루먼트 코포레이션 매체 콘텐츠 아이템에서의 감정 맵핑
JP2014235533A (ja) * 2013-05-31 2014-12-15 株式会社Nttぷらら コンテンツ評価装置、コンテンツ提示装置、コンテンツ評価方法、コンテンツ評価プログラム、およびコンテンツ供給システム
KR20150066132A (ko) * 2013-12-06 2015-06-16 삼성전자주식회사 디스플레이 장치, 리모컨, 디스플레이 시스템, 및 디스플레이 방법
JP2015228142A (ja) * 2014-05-31 2015-12-17 Kddi株式会社 ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190139575A1 (en) * 2017-11-06 2019-05-09 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
US11315600B2 (en) 2017-11-06 2022-04-26 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
CN108924648A (zh) * 2018-07-17 2018-11-30 北京新唐思创教育科技有限公司 用于向用户播放视频数据的方法、装置、设备和介质
CN108924648B (zh) * 2018-07-17 2021-07-23 北京新唐思创教育科技有限公司 用于向用户播放视频数据的方法、装置、设备和介质
CN113010784A (zh) * 2021-03-17 2021-06-22 北京十一贝科技有限公司 用于生成预测信息的方法、装置、电子设备和介质
CN113010784B (zh) * 2021-03-17 2024-02-06 北京十一贝科技有限公司 用于生成预测信息的方法、装置、电子设备和介质

Similar Documents

Publication Publication Date Title
WO2019245316A1 (en) System and method for generating aspect-enhanced explainable description-based recommendations
US20080201287A1 (en) Dissimilar item recommendation method, device, and program thereof
WO2017043857A1 (ko) 어플리케이션 제공 방법 및 이를 위한 전자 기기
WO2020138928A1 (en) Information processing method, apparatus, electrical device and readable storage medium
WO2021054588A1 (en) Method and apparatus for providing content based on knowledge graph
WO2017209482A1 (ko) 동영상 컨텐츠를 제공하는 시스템 및 방법
WO2012091360A2 (ko) 유저 맞춤형 컨텐츠 제공 방법 및 시스템
WO2017010720A1 (ko) 데이터 구조화를 통한 직관적인 동영상콘텐츠 재생산 방법 및 이를 위한 사용자 인터페이스 장치
WO2016126007A1 (en) Method and device for searching for image
WO2016003219A1 (en) Electronic device and method for providing content on electronic device
WO2017026852A1 (ko) 상대 비교를 통한 상품 추천 서비스 방법 및 이를 위한 추천 서비스 장치와 프로그램
WO2013180407A1 (ko) 투명디스플레이,또는 에어제스쳐와 빔스크린 기능이 구비된 단말기를 활용하여 페이퍼문서를 전자화하는 방법 및 그에 따른 시스템
WO2018128298A1 (en) Electronic apparatus and controlling method thereof
WO2019240562A1 (en) Electronic device and operating method thereof for outputting response to user input, by using application
CN111708943B (zh) 一种搜索结果展示方法、装置和用于搜索结果展示的装置
WO2021132922A1 (en) Computing device and operation method thereof
WO2020135059A1 (zh) 搜索引擎评测方法、装置、设备以及可读存储介质
WO2019054792A1 (ko) 컨텐트를 제공하는 방법 및 단말기
WO2021246642A1 (ko) 폰트를 추천하는 방법 및 이를 구현하는 장치
WO2021071240A1 (ko) 패션 상품 추천 방법, 장치 및 컴퓨터 프로그램
WO2020149655A1 (ko) 장치 속성에 기반한 공유 데이터의 제공 방법 및 그 전자 장치
WO2023132657A1 (ko) 상품 트렌드 예측 서비스 제공 장치, 방법 및 프로그램
EP3857497A1 (en) Method and system for predicting content based recommendations
WO2022065604A1 (ko) 모바일 디바이스, 사용자에 의해 발생된 드로잉 데이터를 이용하여 사용자와 관련된 정보를 판별하는 방법 및 컴퓨터 프로그램
WO2017057793A1 (en) Method and apparatus for managing content

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17806975

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17806975

Country of ref document: EP

Kind code of ref document: A1