WO2023090868A1 - 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 - Google Patents

인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 Download PDF

Info

Publication number
WO2023090868A1
WO2023090868A1 PCT/KR2022/018134 KR2022018134W WO2023090868A1 WO 2023090868 A1 WO2023090868 A1 WO 2023090868A1 KR 2022018134 W KR2022018134 W KR 2022018134W WO 2023090868 A1 WO2023090868 A1 WO 2023090868A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
user
information
interactive
unit
Prior art date
Application number
PCT/KR2022/018134
Other languages
English (en)
French (fr)
Inventor
이영복
유대훈
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Publication of WO2023090868A1 publication Critical patent/WO2023090868A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to a method, system and non-transitory computer readable recording medium for providing interactive content.
  • the progress direction of the content in the above interactive content is determined by the user's direct selection (eg, an option for the direction of progress is exposed as text and the user selects it). Therefore, it is difficult to acquire various information (eg, facial expressions, emotions) about users participating in interactive content.
  • various information eg, facial expressions, emotions
  • content progresses according to options directly selected by the user it is difficult to detect various change information about the user. Due to these points, there is a limit to providing a user-friendly content flow in interactive content.
  • the present inventor(s) determined that the user's change based on interactive data (eg, the size or shape of a user's body part, emotion, facial expression, movement, etc.) from a plurality of viewpoints of a user participating in interactive content. is detected, and based on this, a new and advanced technology capable of providing a user-friendly content flow in interactive content is proposed.
  • interactive data eg, the size or shape of a user's body part, emotion, facial expression, movement, etc.
  • Patent Document 1 Korea Patent Registration No. 10-2192540 (2020.12.11)
  • the object of the present invention is to solve all the problems of the prior art described above.
  • an object of the present invention is to provide a user-friendly and immersive content flow in interactive content based on detecting user change by referring to interactive data from a plurality of viewpoints of users participating in interactive content.
  • the present invention provides interactive data in which a user participates based on information about changes in a user derived based on interactive data of a user at a plurality of viewpoints (eg, such interactive data can be continuously accumulated and managed). Since unit content to be provided in at least one branch of content is determined, it is aimed at increasing user's fun and interest by making it difficult to predict the flow of interactive content.
  • an object of the present invention is to improve the interaction experience of users participating in interactive content.
  • a method for providing interactive content interactive data of different viewpoints of users participating in at least one interactive content provided with at least one unit content according to a condition in at least one branch is provided.
  • a method comprising deriving information on change of the user with reference to the change, and determining unit content to be provided in at least one branch of interactive content in which the user participates based on the information on the change. do.
  • a system for providing interactive content includes interactive data of different viewpoints of users participating in at least one interactive content in which at least one unit content is provided according to a condition in at least one branch.
  • An information derivation unit for deriving information on change of the user with reference to, and a unit content determination unit for determining unit content to be provided in at least one branch of interactive content in which the user participates based on the information on the change.
  • a system is provided that includes
  • the present invention it is possible to detect a user's change by referring to interactive data from a plurality of viewpoints of users participating in interactive content, and to provide a user-friendly and immersive content flow in interactive content based on this.
  • FIG. 1 is a diagram showing a schematic configuration of an entire system for providing interactive content according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing the internal configuration of a system for providing interactive content according to an embodiment of the present invention by way of example.
  • FIG. 3 is a diagram illustratively illustrating determining unit content by deriving information about a change of a user from one interactive content according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustratively illustrating determining unit content by deriving information about a change of a user from different interactive content according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustratively illustrating determining unit content by deriving information about a user's change that is accumulated and acquired based on each of a plurality of branches according to an embodiment of the present invention.
  • control unit 340 control unit
  • first and second may be used to describe various elements, but the elements are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • content is a concept that collectively refers to digital information or individual information elements composed of text, code, voice, sound, image, video, etc. accessible through a communication network.
  • Such content may include, for example, data such as text, image, video, audio, link (eg, web link), or a combination of at least two of these data.
  • interactive data is obtained from a user participating in interactive content, and is information that can be recognized for a user (eg, a user's video) such as shape, voice, facial expression, emotion, movement, etc. If it is a target, it may be included in the interactive data according to the present invention.
  • such interactive data may be obtained from a video of a user participating in interactive content (the video may include audio).
  • FIG. 1 is a diagram showing a schematic configuration of an entire system for providing interactive content according to an embodiment of the present invention.
  • the entire system may include a communication network 100 , a device 200 and an interactive content providing system 300 .
  • the communication network 100 may be configured regardless of communication aspects such as wired communication or wireless communication, and may include a local area network (LAN) and a metropolitan area network (MAN). Network), a wide area network (WAN), and the like.
  • LAN local area network
  • MAN metropolitan area network
  • WAN wide area network
  • the communication network 100 referred to in this specification may be the well-known Internet or the World Wide Web (WWW).
  • WWW World Wide Web
  • the communication network 100 may include, at least in part, a known wired/wireless data communication network, a known telephone network, or a known wire/wireless television communication network without being limited thereto.
  • the communication network 100 is a wireless data communication network, WiFi communication, WiFi-Direct communication, Long Term Evolution (LTE) communication, Bluetooth communication (Bluetooth Low Energy (BLE; Bluetooth Low Energy) Energy), infrared communication, ultrasonic communication, etc. may be implemented at least in part.
  • LTE Long Term Evolution
  • BLE Bluetooth Low Energy
  • infrared communication ultrasonic communication, etc.
  • the device 200 is a digital device including a function to communicate after connecting to an interactive content providing system 300 to be described later through a communication network 100, such as a computer or a laptop computer. , Smart phones, tablet PCs, etc., any digital device equipped with a memory means and equipped with a microprocessor and equipped with an arithmetic capability can be adopted as the device 200 according to the present invention.
  • the device 200 may include an application supporting the provision of interactive content according to the present invention.
  • Such an application may be downloaded from an external application distribution server (not shown).
  • the characteristics of these program modules may be generally similar to the information derivation unit 310, the unit content determination unit 320, the communication unit 330, and the control unit 340 of the interactive contents providing system 300, which will be described later. there is.
  • at least a part of the application may be replaced with a hardware device or a firmware device capable of performing substantially the same or equivalent functions as necessary.
  • interactive content may have a multi-ending structure.
  • the above interactive content includes at least one branch (conditions may be set for these branches, and these conditions may be conditions associated with user interactive data or information about changes in users) and their It may include a plurality of unit content to be provided in at least one branch, and the unit content may include a storytelling element.
  • interactive content with a multi-ending structure is composed using a plurality of content by genre (eg, romance, horror, psychological, action genre, etc.) of the web drama producer (eg, configured similarly to a content franchise). )
  • genre eg, romance, horror, psychological, action genre, etc.
  • the web drama producer eg, configured similarly to a content franchise.
  • the user since the user understands the narrative as an extension of the original narrative, the user can have information about the space, character, situation, etc. in advance, and there is an effect of improving immersion.
  • interactive content according to the present invention is not necessarily limited to storytelling content (or multi-ending structured content), and game content, loop content (eg, dance repetition) within the scope of achieving the object of the present invention. education), counseling or therapy content (for example, healthcare counseling and treatment content), etc.
  • interactive content according to an embodiment of the present invention may be game content that induces user participation through competition. More specifically, when the interactive content according to an embodiment of the present invention is the content related to the initial sound game, the unit content related to the problem is provided and based on a branch temporally adjacent to the unit content (eg, the corresponding branch At the time of reaching or while unit content adjacent to that quarter (eg, the previous unit content) is being provided), the user's interactive data (eg, data that says he does not know the correct answer or makes a facial expression that does not know the correct answer)
  • unit content e.g., unit content regarding hints to the problem
  • the condition set in the branch ie, when a situation occurs where the user does not know the correct answer
  • the configuration and functions of the interactive content providing system 300 will be described in detail through the following detailed description. Meanwhile, although the interactive content providing system 300 has been described as above, this description is exemplary, and at least some of the functions or components required for the interactive content providing system 300 are provided by the device 200 or the server as needed. It is obvious to those skilled in the art that it may be realized within (not shown) or included in an external system (not shown). Also, in some cases, all functions and all elements of the interactive content providing system 300 may be entirely realized within the device 200 or included in the device 200 .
  • FIG. 2 is a diagram showing the internal configuration of an interactive content providing system 300 according to an embodiment of the present invention by way of example.
  • the interactive content providing system 300 includes an information derivation unit 310, a unit content determination unit 320, a communication unit 330, and a control unit 340.
  • These program modules may be included in the interactive content providing system 300 in the form of an operating system, application program modules, and other program modules, and may be physically stored on various known storage devices.
  • these program modules may be stored in a remote storage device capable of communicating with the interactive content providing system 300 .
  • these program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention.
  • the information derivation unit 310 may derive information about a user's change by referring to interactive data from different viewpoints of users participating in interactive content.
  • Information on changes in the user according to an embodiment of the present invention includes all recognizable changes (e.g., size, shape, etc.) For example, information on all recognizable changes from a user's interaction image obtained in correspondence with unit content) may be included.
  • the information deriving unit 310 compares and analyzes first interactive data of users participating in first interactive content and second interactions of users participating in second interactive content. By doing so, it is possible to derive information about changes in the user.
  • the information deriving unit 310 may perform an image of a user participating in the first interactive content (eg, a user obtained based on at least one branch in the first interactive content). interactive video) to obtain first interactive data on the size and facial expression of the user's face, and to obtain an image of the user who participates in the second interactive content after participating in the first interactive content (for example, in the second interactive content). Second interactive data about the size and expression of the user's face may be obtained by analyzing the user's interaction image obtained on the basis of at least one branch. Next, the information deriving unit 310 may derive information about the change in the user's face size and expression by comparing and analyzing the first interactive data and the second interactive data.
  • the information deriving unit 310 participates in the first interactive content after the first interactive data of the user participating in the first interactive content and the first interactive data are obtained. By comparing and analyzing the second interactions of the users, information about the change of the user may be derived.
  • the information deriving unit 310 may perform an image of a user participating in the first interactive content (eg, a user obtained based on at least one branch in the first interactive content). interaction video) to obtain first interactive data about the user's emotion, and to participate in the first interactive content after the first interactive data is acquired (for example, to select another branch, the first interactive data Acquiring second interactive data about the user's emotion by analyzing a user's image (eg, a user's interaction image acquired based on at least one branch in the first interactive content) who re-participates in a specific branch of the content can do.
  • the information deriving unit 310 may compare the first interactive data and the second interactive data to derive information about a change in the user's emotion.
  • the information derivation unit 310 is learned (eg, machine learning based on a plurality of images and feature information extracted from the plurality of images) at least one feature extraction model
  • Characteristic information about voice, video, or text may be extracted from an image of a user participating in interactive content by using, and interactive data of the corresponding user may be obtained based on the characteristic information.
  • the feature extraction model may be implemented based on various artificial intelligence models such as a convolutional neural network (CNN), a recurrent neural network (RNN), and a long-short term model (LSTM).
  • CNN convolutional neural network
  • RNN recurrent neural network
  • LSTM long-short term model
  • the feature extraction model according to an embodiment of the present invention is not necessarily limited to the artificial intelligence model used for image analysis, and may be modified in various ways within the scope of achieving the object of the present invention.
  • the information derivation unit 310 divides a user's image (eg, a user's interaction image) at predetermined time intervals, inputs the specified image information to a convolutional neural network (CNN), and the convolutional neural network Image feature information derived from (CNN) is time-sequentially input into a recurrent neural network (RNN) (or long-short period model (LSTM)) to derive detailed image feature information, and the audio included in the user's image is played at predetermined time intervals.
  • CNN recurrent neural network
  • LSTM long-short period model
  • the voice information (eg, the voice itself or the pitch, intensity, MFCC, etc.) divided into , is input to a convolutional neural network (CNN), and the voice feature information derived from the convolutional neural network (CNN) is converted into a recurrent neural network (RNN) (or long-short period model (LSTM)) to derive detailed speech feature information, and the vector embedding the text included in the user's video in token units is converted into a recurrent neural network (RNN) (or long-short period model (LSTM)) to derive detailed text feature information, and refer to at least one of the derived image detailed feature information, audio detailed feature information, and text detailed feature information to determine the user's Interactive data can be acquired.
  • RNN recurrent neural network
  • LSTM long-short period model
  • the feature information extracted from the user's image according to an embodiment of the present invention is not necessarily limited to those listed above, and the type and number can be varied within the scope of achieving the object of the present invention (e.g. For example, only detailed feature information about one of voice and video may be derived, or detailed feature information about other objects other than voice, video, and text may be further derived).
  • the unit content determination unit 320 provides at least one branch of interactive content in which the user participates based on the information about the change of the user derived from the information derivation unit 310. It can perform a function of determining unit content to be.
  • the unit content determination unit 320 may determine, as the unit content to be provided, unit content corresponding to a branch condition satisfied by a corresponding user's change among a plurality of unit contents that can be provided in at least one branch.
  • the unit content determination unit 320 determines that the user is ill in a specific quarter when a condition is set such that the first unit content is provided when it is determined that the user is ill, and the second unit content is provided otherwise.
  • the size of the user's face is reduced based on the information about the change, it is determined that the user is sick from the change of the user, and the first unit content corresponding to the branching condition satisfied by the change of the user is determined as the unit content to be provided.
  • the unit content determination unit 320 selects unit content associated with a user change from among a plurality of unit contents that can be provided in at least one branch of interactive content in which a user participates, based on information about a user change. It can be determined as the above unit content to be provided.
  • the unit content determination unit 320 determines at least one branch of the interactive content (here, the branch condition is context information similar to context information (or context information) specified based on user change information and a predetermined level or more).
  • Context information (or context information) that is specified based on information about a user's change among context information (or context information) specified from each of a plurality of unit contents that can be provided in (or may be to provide unit content having context information) context information
  • the unit content determination unit 320 is configured to determine unit contents such as characters, backgrounds, and scenarios in order to specify situation information (or context information) specified from unit contents or user change information.
  • unit contents such as characters, backgrounds, and scenarios
  • these databases and lookup tables may be preset or dynamically set.
  • a plurality of unit content that can be provided in at least one branch is not necessarily limited to being preset, and within the scope of achieving the object of the present invention, at least one of the previous branch contents It should be noted that it may be modified in various ways, such as generated in real time by referring to unit content (or components of unit content), user's interactive data, and user change information.
  • the unit content determination unit 320 may determine unit content to be provided to the user by referring to information about changes in users accumulated and obtained based on each of a plurality of branches of interactive content. there is.
  • the unit content determination unit 320 may include information about a first change of a user derived based on a first branch and a second branch of interactive content, and a second branch of interactive content. and information on a second change of a user derived based on the third quarter and information about a third change of a user derived based on the third and fourth quarters of the interactive content are accumulated and obtained, and at least one Unit content to be provided to the user in at least one branch may be determined by referring to information about the first change of the user, information about the second change of the user, and information about the third change of the user in the branch.
  • the unit content determination unit 320 may determine communication information to be provided to the user from the unit content by referring to the information on the change of the user.
  • the communication information may refer to interactive information provided to the user based on visual means (eg, text, image, etc.) or auditory means (eg, sound, etc.) in unit content.
  • the unit content determination unit 320 may determine conversation information associated with a corresponding user change as communication information to be provided to the user from the unit content by referring to the user change information. More specifically, the unit content determination unit 320, based on the information about the change of the user when the user's facial expression is happy and then depressed, conversation information "Are you depressed?" is communication information to be provided to the user in the unit content. can decide
  • the communication unit 330 may perform a function of enabling data transmission/reception from/to the information derivation unit 310 and the unit content determination unit 320 .
  • control unit 340 may perform a function of controlling the flow of data between the information derivation unit 310 , the unit content determination unit 320 and the communication unit 330 . That is, the control unit 340 according to the present invention controls the flow of data from/to the outside of the interactive contents providing system 300 or the flow of data between each component of the interactive contents providing system 300, so that the information deriving unit 310 ), the unit content determination unit 320 and the communication unit 330 may be controlled to perform unique functions.
  • FIG. 3 is a diagram illustratively illustrating determining unit content by deriving information about a change of a user from one interactive content according to an embodiment of the present invention.
  • interactive content 400 related to dating is provided to a user, and based on a first branch 401 of a plurality of branches of the interactive content 400
  • First interactive data eg, data about a face full of laughter
  • a corresponding user's interaction video eg, the user's voice may also be included
  • the first branch 401 reference is made to information about changes in the user derived by comparing and analyzing the interactive data of the corresponding user at a different time point with the first interactive data above, according to an embodiment of the present invention.
  • the branch related to the corresponding change (or the first branch 401 to which information about the above change satisfies)
  • the unit content (corresponding to the condition) may be determined as the unit content to be provided.
  • second unit content 420 (for example, a unit related to content that a girlfriend tells to go on a trip) among a plurality of unit contents that can be provided in the first branch 401 content) may be provided to the corresponding user.
  • Second interactive data (eg, data about a face whose smile has disappeared) may be obtained by analyzing the image.
  • information on a change of the corresponding user may be derived by comparing and analyzing the first interactive data and the second interactive data.
  • Content can be determined.
  • a plurality of unit content that can be provided in the second branch 402 of the above interactive content 400 eg, fourth unit content 440 about a girlfriend going home alone and a girlfriend
  • the fifth unit contents 450 about going on a trip to an amusement park and related to the above change eg, laughter disappears
  • the fourth unit content 440 that is, the unit content about the girlfriend going home alone
  • the satisfying branch condition may be determined as the unit content to be provided in the second branch 402 .
  • the determined fourth unit content 440 may be provided to the corresponding user in the second branch 402 above.
  • FIG. 4 is a diagram exemplarily illustrating determining unit content by deriving information about a change of a user from different interactive content (400, 500) according to an embodiment of the present invention.
  • first interactive content 400 related to love is provided to a user, and based on a specific branch 401 of the first interactive content 400, a first interactive content 400 is provided.
  • First interactive data eg, the size of the user's face is the first size
  • the user's interaction video eg, the user's voice may also be included
  • data can be obtained.
  • in the first branch 401 reference is made to information about changes in the user derived by comparing and analyzing the interactive data of the corresponding user at a different time point with the first interactive data above, according to an embodiment of the present invention.
  • the branch related to the corresponding change (or the first branch 401 to which information about the above change satisfies)
  • the unit content (corresponding to the condition) may be determined as the unit content to be provided.
  • second interactive content 500 related to health care is provided to the corresponding user, and fourth unit content is provided based on a specific branch 501 of the second interactive content 500.
  • the user's interaction image obtained in response to step 510 is analyzed to obtain second interactive data (eg, the size of the user's face is a second size (the second size may be a value smaller than the first size above) data) can be obtained.
  • the second interactive content 500 may be provided in the upper specific branch 501 based on the information about the change of the corresponding user (ie, the size of the face decreases).
  • Unit content may be determined. For example, a plurality of unit content that can be provided in the above specific branch 501 of the second interactive content 500 (eg, a fifth unit content 520 related to a doctor performing a health checkup and a home page).
  • Unit content related to may be determined as unit content to be provided in a specific branch 501 above the second interactive content 500 .
  • the determined fifth unit content 520 may be provided to a corresponding user in a specific branch 501 above the second interactive content 500 .
  • FIG. 5 is a diagram illustratively illustrating determining unit content by deriving information about a user's change that is accumulated and acquired based on each of a plurality of branches according to an embodiment of the present invention.
  • first unit content 610 related to content recommending an amusement park as a date place by a girlfriend is provided to the user, and the first unit content 610 Based on the branch 601, the first interactive data (eg, Data in which the user smiles and nods) may be obtained.
  • the first interactive data eg, Data in which the user smiles and nods
  • the second unit content 620 is provided in the branch 602.
  • Unit content may be determined. For example, a plurality of unit content that can be provided in the branch 602 of the second unit content 620 (eg, fourth unit content 640 about taking a break on a bench in an amusement park and other rides) Fourth unit content 640 related to the above change (eg, the user's physical strength is depleted) among the fifth unit contents 650 about going for a ride (ie, taking a short break on a bench in an amusement park) unit content related to content) may be determined as unit content to be provided in the branch 602 of the second unit content 620 .
  • a corresponding user's interaction image obtained in correspondence to the fourth unit content 640 is analyzed, and the third unit content 640 is analyzed.
  • Interactive data eg, cold sweat flowing from the user's face
  • a unit to be provided in the branch 603 of the fourth unit content 640 based on the above information about the change of the user ie, the user is unwell.
  • Content can be determined.
  • unit content may be determined based on information on changes in the user accumulated in the branches 601 , 602 , and 603 of the unit contents (ie, the user is unwell).
  • a plurality of unit content that can be provided in the branch 603 of the fourth unit content 640 for example, the sixth unit content 660 about the content that the girlfriend cares for and the girlfriend who is angry at home).
  • the 6th unit contents 660 related to the above change is the branch 603 of the 4th unit contents 640 It may be determined as unit content to be provided in .
  • the determined sixth unit content 660 may be provided to the corresponding user in the branch 603 of the fourth unit content 640 .
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium.
  • the computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler.
  • a hardware device may be modified with one or more software modules to perform processing according to the present invention and vice vers

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Operations Research (AREA)

Abstract

본 발명은 인터랙티브 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다. 본 발명의 일 태양에 따르면, 인터랙티브 콘텐츠를 제공하기 위한 방법으로서, 적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 상기 사용자의 변화에 관한 정보를 도출하는 단계, 및 상기 변화에 관한 정보에 기초하여 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 단계를 포함하는 방법이 제공된다.

Description

인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
본 발명은 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.
21세기 디지털 기술의 발전으로 가상 세계의 확대는 온라인 교류를 확장시켰으며, 내러티브(narrative) 작품의 온라인 체험을 가능하게 하였고, 하이퍼 텍스트(hypertext) 내러티브 작품 등이 성행하면서 온라인 소설, 온라인 게임, 온라인 희극, 디지털 장치 예술 등 엔터테인먼트의 발전을 가져왔다.
이러한 발전과 함께 현대의 디지털 미디어 환경에서 커뮤니케이션의 방식은 과거의 단방향적인 콘텐츠 주입 방식에서 뉴 미디어(new media) 시대의 새로운 쌍방향 커뮤니케이션이 가능한 방식으로 다양해졌으며, 특히 인터랙티브(interactive) 영화, 인터랙티브 웹툰 등과 같은 인터랙티브 콘텐츠는 사용자의 참여에 따라 콘텐츠의 진행 방향이 달라진다는 점에서 많은 사용자의 흥미를 끌고 있어 발전이 기대되고 있다.
하지만, 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 위와 같은 인터랙티브 콘텐츠에서의 콘텐츠의 진행 방향이 사용자의 직접 선택(예를 들어, 진행 방향에 관한 선택지가 텍스트로 노출되고 사용자가 선택)에 의해 결정되었기 때문에 인터랙티브 콘텐츠에 참여하는 사용자에 관한 다양한 정보(예를 들어, 표정, 감정)를 획득하기가 어려웠다. 또한, 사용자에 의해 직접 선택되는 선택지에 따라 콘텐츠가 진행되었기 때문에 사용자에 관한 다양한 변화 정보를 감지하기가 어려웠다. 이러한 점들로 인해, 인터랙티브 콘텐츠에서 사용자 친화적인 콘텐츠 흐름을 제공하는데 한계가 있었다.
이에 본 발명자(들)는, 인터랙티브 콘텐츠에 참여하는 사용자의 복수의 시점에서의 인터랙티브 데이터(예를 들어, 사용자의 신체 부위의 크기 또는 형상, 감정, 표정, 움직임 등)를 기초로 해당 사용자의 변화를 감지하고, 이를 기반으로 인터랙티브 콘텐츠에서 해당 사용자 친화적인 콘텐츠 흐름을 제공할 수 있는 신규하고도 진보된 기술을 제안하는 바이다.
<선행기술문헌>
<특허문헌>
(특허문헌 1) 한국등록특허공보 제10-2192540호 (2020.12.11)
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은 인터랙티브 콘텐츠에 참여하는 사용자의 복수의 시점에서의 인터랙티브 데이터를 참조하여 사용자의 변화를 감지하고 이를 기반으로 인터랙티브 콘텐츠에서 사용자 친화적이고 몰입감 있는 콘텐츠 흐름을 제공하는 것을 목적으로 한다.
또한, 본 발명은 복수의 시점에서의 사용자의 인터랙티브 데이터(예를 들어, 이러한 인터랙티브 데이터는 지속적으로 누적 관리될 수 있음)를 기초로 도출되는 사용자의 변화에 관한 정보에 기초하여 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠가 결정되므로, 인터랙티브 콘텐츠의 진행 흐름에 대한 예측 가능성을 어렵게 만들어 사용자의 재미와 흥미를 증대시키는 것을 목적으로 한다.
또한, 본 발명은 인터랙티브 콘텐츠에 참여하는 사용자의 상호작용 경험을 개선하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 인터랙티브 콘텐츠를 제공하기 위한 방법으로서, 적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 상기 사용자의 변화에 관한 정보를 도출하는 단계, 및 상기 변화에 관한 정보에 기초하여 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 일 태양에 따르면, 인터랙티브 콘텐츠를 제공하기 위한 시스템으로서, 적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 상기 사용자의 변화에 관한 정보를 도출하는 정보 도출부, 및 상기 변화에 관한 정보에 기초하여 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 단위 콘텐츠 결정부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 인터랙티브 콘텐츠에 참여하는 사용자의 복수의 시점에서의 인터랙티브 데이터를 참조하여 사용자의 변화를 감지하고 이를 기반으로 인터랙티브 콘텐츠에서 사용자 친화적이고 몰입감 있는 콘텐츠 흐름을 제공할 수 있게 된다.
또한, 본 발명에 의하면, 복수의 시점에서의 사용자의 인터랙티브 데이터(예를 들어, 이러한 인터랙티브 데이터는 지속적으로 누적 관리될 수 있음)를 기초로 도출되는 사용자의 변화에 관한 정보에 기초하여 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠가 결정되므로, 인터랙티브 콘텐츠의 진행 흐름에 대한 예측 가능성을 어렵게 만들어 사용자의 재미와 흥미를 증대시킬 수 있게 된다.
또한, 본 발명에 의하면, 인터랙티브 콘텐츠에 참여하는 사용자의 상호작용 경험을 개선할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따라 인터랙티브 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따라 인터랙티브 콘텐츠를 제공하기 위한 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 하나의 인터랙티브 콘텐츠에서 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 서로 다른 인터랙티브 콘텐츠에서 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따라 복수의 분기 각각을 기준으로 누적하여 획득되는 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
<부호의 설명>
100: 통신망
200: 디바이스
300: 인터랙티브 콘텐츠 제공 시스템
310: 정보 도출부
320: 단위 콘텐츠 결정부
330: 통신부
340: 제어부
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 콘텐츠(contents)란, 통신망을 통하여 접근 가능한, 문자, 부호, 음성, 음향, 이미지, 동영상 등으로 이루어지는 디지털 정보 또는 개별 정보 요소를 총칭하는 개념이다. 이러한 콘텐츠는, 예를 들면, 텍스트, 이미지, 동영상, 오디오, 링크(예를 들면, 웹 링크) 등의 데이터 또는 이러한 데이터 중 적어도 두 가지의 조합을 포함하여 구성될 수 있다.
또한, 본 명세서에서 인터랙티브 콘텐츠(interactive contents)란, 사용자의 인터랙티브 데이터를 기반으로 콘텐츠의 전개, 방향 또는 흐름(예를 들어, 배경, 장소, 등장인물(예를 들어, 옷, 소품, 성향 등), 결말 등)이 결정될 수 있는 콘텐츠를 의미할 수 있다. 예를 들어, 이러한 인터랙티브 콘텐츠는 적어도 하나의 분기(branch) 및 그 적어도 하나의 분기에서 제공되는 적어도 하나의 단위 콘텐츠를 포함하여 구성될 수 있으며, 그 적어도 하나의 분기에서 특정 조건(예를 들어, 이러한 특정 조건은 기설정되거나 동적으로 설정될 수 있고, 사용자의 인터랙티브 데이터 또는 사용자의 변화에 관한 정보와 연관되는 조건일 수 있음)을 만족하는 경우에 해당 조건과 연관되는 적어도 하나의 단위 콘텐츠를 제공하는 콘텐츠일 수 있다. 여기서, 단위 콘텐츠는 콘텐츠의 전개, 방향 또는 흐름에 관한 분기가 이루어지지 않는 최소 단위의 콘텐츠를 의미할 수 있다. 또한, 각 단위 콘텐츠는 적어도 하나의 분기를 중심으로(또는 통해) 서로 연결될 수 있다.
또한, 본 명세서에서 인터랙티브 데이터(interactive data)란, 인터랙티브 콘텐츠에 참여하는 사용자로부터 획득되는 것으로서, 형상, 음성, 표정, 감정, 움직임 등 사용자(예를 들어, 사용자의 영상)에 대하여 인식될 수 있는 대상이라면 본 발명에 따른 인터랙티브 데이터에 포함될 수 있다. 예를 들어, 이러한 인터랙티브 데이터는 인터랙티브 콘텐츠에 참여하는 사용자에 대한 영상(이러한 영상에는 음성이 포함될 수 있음)으로부터 획득되는 것일 수 있다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따라 인터랙티브 콘텐츠 제공을 위한 전체 시스템의 개략적인 구성을 도시하는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 디바이스(200) 및 인터랙티브 콘텐츠 제공 시스템(300)을 포함하여 구성될 수 있다.
먼저, 본 발명의 일 실시예에 따르면, 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로 본 발명의 일 실시예에 따라 디바이스(200)는 통신망(100)을 통해 후술할 인터랙티브 콘텐츠 제공 시스템(300)에 접속한 후 통신할 수 있도록 하는 기능을 포함하는 디지털 기기로서, 컴퓨터, 노트북, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(200)로서 채택될 수 있다.
한편, 본 발명의 일 실시예에 따른 디바이스(200)에는, 본 발명에 따른 인터랙티브 콘텐츠의 제공을 지원하는 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다. 한편, 이러한 프로그램 모듈의 성격은 후술할 바와 같은 인터랙티브 콘텐츠 제공 시스템(300)의 정보 도출부(310), 단위 콘텐츠 결정부(320), 통신부(330) 및 제어부(340)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 인터랙티브 콘텐츠 제공 시스템(300)은, 통신망(100)을 통해 디바이스(200)와 통신을 수행할 수 있고, 적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 사용자의 변화에 관한 정보를 도출하고, 그 변화에 관한 정보에 기초하여 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 기능을 수행할 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 인터랙티브 콘텐츠는 멀티 엔딩(multi-ending) 구조를 지닐 수 있다. 위의 인터랙티브 콘텐츠는 멀티 엔딩이 구현될 수 있도록 적어도 하나의 분기(이러한 분기에는 조건이 설정될 수 있으며, 이러한 조건은 사용자 인터랙티브 데이터 또는 사용자의 변화에 관한 정보와 연관되는 조건일 수 있음) 및 그 적어도 하나의 분기에서 제공될 복수의 단위 콘텐츠를 포함할 수 있으며, 이러한 단위 콘텐츠에는 스토리텔링 요소가 포함될 수 있다.
보다 구체적으로, 멀티 엔딩 구조를 지닌 인터랙티브 콘텐츠는 웹드라마 제작사의 장르별(예를 들어, 연애, 공포, 심리, 액션 장르 등) 복수의 콘텐츠를 이용하여 구성(예를 들어, 콘텐츠 프랜차이즈와 유사하게 구성)될 수 있다. 이 경우에, 사용자는 원본 서사의 연장선에서 서사를 이해하게 되므로, 공간, 캐릭터, 상황 등에 대해 미리 정보를 가질 수 있으며, 몰입성이 향상되는 효과가 있다.
한편, 본 발명에 따른 인터랙티브 콘텐츠가 반드시 스토리텔링 콘텐츠(또는 멀티 엔딩 구조 콘텐츠)에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 게임 콘텐츠, 루프 콘텐츠(예를 들어, 댄스 반복 교육), 상담이나 테라피 콘텐츠(예를 들어, 헬스케어 상담 및 치료 콘텐츠) 등으로 다양한 구조의 콘텐츠로 변경될 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 인터랙티브 콘텐츠는 경쟁을 통해 사용자의 참여를 유도하는 게임 콘텐츠일 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 인터랙티브 콘텐츠가 초성 게임에 관한 콘텐츠인 경우에, 문제에 관한 단위 콘텐츠가 제공되고 그 단위 콘텐츠와 시간적으로 인접한 분기를 기준으로(예를 들어, 해당 분기에 도달한 시점 또는 그 분기와 인접한 단위 콘텐츠(예를 들어, 직전 단위 콘텐츠)가 제공되는 동안) 사용자의 인터랙티브 데이터(예를 들어, 정답을 모른다고 말을 하거나, 정답을 모르는 표정을 짓는 데이터)가 획득되면, 해당 분기에서 설정되는 조건(즉, 사용자가 정답을 모르는 상황이 발생하는 경우)에 따라 사용자가 문제를 해결할 수 있도록 지원하는 단위 콘텐츠(예를 들어, 문제에 대한 힌트에 관한 단위 콘텐츠)가 제공될 수 있다.
본 발명에 따른 인터랙티브 콘텐츠 제공 시스템(300)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다. 한편, 인터랙티브 콘텐츠 제공 시스템(300)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 인터랙티브 콘텐츠 제공 시스템(300)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 디바이스(200) 또는 서버(미도시됨) 내에서 실현되거나 외부 시스템(미도시됨) 내에 포함될 수도 있음은 당업자에게 자명하다. 또한, 경우에 따라서는, 인터랙티브 콘텐츠 제공 시스템(300)의 모든 기능과 모든 구성요소가 디바이스(200) 내에서 전부 실현되거나 디바이스(200) 내에 전부 포함될 수도 있다.
인터랙티브 콘텐츠 제공 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 인터랙티브 콘텐츠 제공 시스템(300)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따라 인터랙티브 콘텐츠 제공 시스템(300)의 내부 구성을 예시적으로 나타내는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따라 인터랙티브 콘텐츠 제공 시스템(300)은, 정보 도출부(310), 단위 콘텐츠 결정부(320), 통신부(330) 및 제어부(340)를 포함할 수 있다. 또한, 본 발명의 일 실시예에 따라 정보 도출부(310), 단위 콘텐츠 결정부(320), 통신부(330) 및 제어부(340)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 인터랙티브 콘텐츠 제공 시스템(300)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 인터랙티브 콘텐츠 제공 시스템(300)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따른 정보 도출부(310)는 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 사용자의 변화에 관한 정보를 도출할 수 있다. 본 발명의 일 실시예에 따른 사용자의 변화에 관한 정보는 사용자의 신체(예를 들어, 크기, 형태 등), 표정, 감정, 의상, 액세서리, 성향, 어투 등 사용자에 대하여 인식 가능한 모든 변화(예를 들어, 단위 콘텐츠에 대응하여 획득되는 사용자의 인터랙션 영상으로부터 인식 가능한 모든 변화)에 관한 정보를 포함할 수 있다.
예를 들어, 본 발명의 일 실시예에 따라 정보 도출부(310)는 제1 인터랙티브 콘텐츠에 참여하는 사용자의 제1 인터랙티브 데이터 및 제2 인터랙티브 콘텐츠에 참여하는 사용자의 제2 인터랙티브를 서로 비교하여 분석함으로써, 사용자의 변화에 관한 정보를 도출할 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 정보 도출부(310)는 제1 인터랙티브 콘텐츠에 참여하는 사용자의 영상(예를 들어, 제1 인터랙티브 콘텐츠에서 적어도 하나의 분기를 기준으로 획득되는 사용자의 인터랙션 영상)을 분석하여 사용자의 얼굴 크기 및 표정에 관한 제1 인터랙티브 데이터를 획득하고, 제1 인터랙티브 콘텐츠에 참여한 이후에 제2 인터랙티브 콘텐츠에 참여하는 사용자의 영상(예를 들어, 제2 인터랙티브 콘텐츠에서 적어도 하나의 분기를 기준으로 획득되는 사용자의 인터랙션 영상)을 분석하여 사용자의 얼굴 크기 및 표정에 관한 제2 인터랙티브 데이터를 획득할 수 있다. 그 다음에, 정보 도출부(310)는 제1 인터랙티브 데이터 및 제2 인터랙티브 데이터를 서로 비교하여 분석함으로써 사용자의 얼굴 크기 및 표정의 변화에 관한 정보를 도출할 수 있다.
다른 예를 들어, 본 발명의 일 실시예에 따른 정보 도출부(310)는 제1 인터랙티브 콘텐츠에 참여하는 사용자의 제1 인터랙티브 데이터 및 제1 인터랙티브 데이터가 획득된 시점 이후에 제1 인터랙티브 콘텐츠에 참여하는 사용자의 제2 인터랙티브를 서로 비교하여 분석함으로써, 사용자의 변화에 관한 정보를 도출할 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 정보 도출부(310)는 제1 인터랙티브 콘텐츠에 참여하는 사용자의 영상(예를 들어, 제1 인터랙티브 콘텐츠에서 적어도 하나의 분기를 기준으로 획득되는 사용자의 인터랙션 영상)을 분석하여 사용자의 감정에 관한 제1 인터랙티브 데이터를 획득하고, 그 제1 인터랙티브 데이터가 획득된 시점 이후에 제1 인터랙티브 콘텐츠에 참여(예를 들어, 다른 분기를 선택하기 위해 제1 인터랙티브 콘텐츠의 특정 분기에서 재참여)하는 사용자의 영상(예를 들어, 제1 인터랙티브 콘텐츠에서 적어도 하나의 분기를 기준으로 획득되는 사용자의 인터랙션 영상)을 분석하여 사용자의 감정에 관한 제2 인터랙티브 데이터를 획득할 수 있다. 그 다음에, 정보 도출부(310)는 제1 인터랙티브 데이터 및 제2 인터랙티브 데이터를 서로 비교하여 사용자의 감정의 변화에 관한 정보를 도출할 수 있다.
한편, 본 발명의 일 실시예에 따른 정보 도출부(310)는 학습된(예를 들어, 복수의 영상 및 그 복수의 영상으로부터 추출되는 특징 정보를 기초로 기계 학습된) 적어도 하나의 특징 추출 모델을 이용하여 인터랙티브 콘텐츠에 참여하는 사용자의 영상으로부터 음성, 영상 또는 텍스트에 관한 특징 정보를 추출하고, 그 특징 정보에 기초하여 해당 사용자의 인터랙티브 데이터를 획득할 수 있다. 여기서 특징 추출 모델은, 컨볼루션 신경망(CNN), 순환 신경망(RNN), 롱숏 기간 모델(LSTM) 등 다양한 인공지능 모델에 기초하여 구현될 수 있다. 한편, 본 발명의 일 실시예에 따른 특징 추출 모델이 반드시 영상 분석에 이용되는 인공지능 모델에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변형될 수 있다.
예를 들어, 정보 도출부(310)는 사용자의 영상(예를 들어, 사용자의 인터랙션 영상)을 소정 시간 간격으로 분할하여 특정되는 이미지 정보를 컨볼루션 신경망(CNN)에 입력하고, 그 컨볼루션 신경망(CNN)으로부터 도출되는 영상 특징 정보를 순환 신경망(RNN)(또는, 롱숏 기간 모델(LSTM))에 시계열적으로 입력하여 영상 세부 특징 정보를 도출하고, 사용자의 영상에 포함되는 음성을 소정 시간 간격으로 분할한 음성 정보(예를 들어, 음성 자체 또는 해당 음성의 피치, 세기, MFCC 등)를 컨볼루션 신경망(CNN)에 입력하고, 그 컨볼루션 신경망(CNN)으로부터 도출되는 음성 특징 정보를 순환 신경망(RNN)(또는, 롱숏 기간 모델(LSTM))에 시계열적으로 입력하여 음성 세부 특징 정보를 도출하고, 사용자의 영상에 포함되는 텍스트를 토큰 단위로 임베딩(embedding)한 벡터를 순환 신경망(RNN)(또는, 롱숏 기간 모델(LSTM))에 시계열적으로 입력하여 텍스트 세부 특징 정보를 도출하고, 위의 도출된 영상 세부 특징 정보, 음성 세부 특징 정보 및 텍스트 세부 특징 정보 중 적어도 하나를 참조하여 사용자의 인터랙티브 데이터를 획득할 수 있다. 한편, 본 발명의 일 실시예에 따른 사용자의 영상으로부터 추출되는 특징 정보가 반드시 위의 열거된 것에 한정되는 것은 아니며 본 발명의 목적을 달성할 수 있는 범위 내에서 종류 및 수는 다양하게 변경(예를 들어, 음성 및 영상 중 어느 하나에 관한 세부 특징 정보만 도출하거나 음성, 영상 및 텍스트 외에 다른 대상에 관한 세부 특징 정보를 더 도출할 수도 있음)될 수 있다.
다음으로, 본 발명의 일 실시예에 따라 단위 콘텐츠 결정부(320)는 정보 도출부(310)에서 도출되는 사용자의 변화에 관한 정보에 기초하여 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 기능을 수행할 수 있다.
예를 들어, 단위 콘텐츠 결정부(320)는 적어도 하나의 분기에서 제공 가능한 복수의 단위 콘텐츠 중 해당 사용자의 변화가 만족시키는 분기 조건에 대응되는 단위 콘텐츠를 위의 제공될 단위 콘텐츠로서 결정할 수 있다.
보다 구체적으로, 단위 콘텐츠 결정부(320)는 특정 분기에서 사용자가 아픈 것으로 판단되는 경우에 제1 단위 콘텐츠가 제공되고, 그렇지 않은 경우에 제2 단위 콘텐츠가 제공되도록 조건이 설정된 경우에, 사용자의 변화에 관한 정보에 기초하여 사용자의 얼굴 크기가 줄어든 경우에 해당 사용자의 변화로부터 사용자가 아픈 것으로 판단하고, 해당 사용자의 변화가 만족시키는 분기 조건에 대응되는 제1 단위 콘텐츠를 제공될 단위 콘텐츠로서 결정할 수 있다.
다른 예를 들어, 단위 콘텐츠 결정부(320)는 사용자의 변화에 관한 정보에 기초하여 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공 가능한 복수의 단위 콘텐츠 중 사용자의 변화와 연관되는 단위 콘텐츠를 위의 제공될 단위 콘텐츠로서 결정할 수 있다.
보다 구체적으로, 단위 콘텐츠 결정부(320)는 인터랙티브 콘텐츠의 적어도 하나의 분기(여기에서 분기 조건은 사용자의 변화에 관한 정보에 기초하여 특정되는 상황 정보(또는 문맥 정보)와 소정 수준 이상 유사한 상황 정보(또는 문맥 정보)를 갖는 단위 콘텐츠를 제공하는 것일 수 있음)에서 제공 가능한 복수의 단위 콘텐츠 각각으로부터 특정되는 상황 정보(또는 문맥 정보) 중 사용자의 변화에 관한 정보에 기초하여 특정되는 상황 정보(또는 문맥 정보)와 소정 수준 이상 유사한 단위 콘텐츠를 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠로 결정할 수 있다. 한편, 본 발명의 일 실시예에 따른 단위 콘텐츠 결정부(320)는 단위 콘텐츠 또는 사용자 변화에 관한 정보로부터 특정되는 상황 정보(또는 문맥 정보)를 특정하기 위하여 등장인물, 배경, 시나리오 등 단위 콘텐츠의 구성요소에 대응되는 상황 정보(또는 문맥 정보)에 관한 데이터베이스 또는 룩업 테이블(미도시됨)이나 사용자의 변화에 대응되는 상황 정보(또는 문맥 정보)에 관한 데이터베이스 또는 룩업 테이블을 참조할 수 있다. 또한, 이러한 데이터베이스 및 룩업 테이블은 기설정되거나 동적으로 설정되는 것일 수 있다.
한편, 본 발명의 일 실시예에 따라 적어도 하나의 분기에서 제공 가능한 복수의 단위 콘텐츠가 반드시 기설정되는 것으로 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 해당 분기 이전의 적어도 하나의 단위 콘텐츠(또는 단위 콘텐츠의 구성요소), 사용자의 인터랙티브 데이터, 사용자의 변화에 관한 정보 등을 참조하여 실시간 생성되는 등 다양하게 변형될 수도 있음을 밝혀 둔다.
또한, 본 발명의 일 실시예에 따른 단위 콘텐츠 결정부(320)는 인터랙티브 콘텐츠의 복수의 분기 각각을 기준으로 누적하여 획득되는 사용자의 변화에 관한 정보를 참조하여 사용자에게 제공될 단위 콘텐츠를 결정할 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 단위 콘텐츠 결정부(320)는 인터랙티브 콘텐츠의 제1 분기 및 제2 분기를 기준으로 도출되는 사용자의 제1 변화에 관한 정보, 인터랙티브 콘텐츠의 제2 분기 및 제3 분기를 기준으로 도출되는 사용자의 제2 변화에 관한 정보 및 인터랙티브 콘텐츠의 제3 분기 및 제4 분기를 기준으로 도출되는 사용자의 제3 변화에 관한 정보를 누적하여 획득하고, 적어도 하나의 분기에서 사용자의 제1 변화에 관한 정보, 사용자의 제2 변화에 관한 정보 및 사용자의 제3 변화에 관한 정보를 참조하여 적어도 하나의 분기에서 사용자에게 제공될 단위 콘텐츠를 결정할 수 있다.
보다 구체적으로, 단위 콘텐츠 결정부(320)는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공 가능한 복수의 단위 콘텐츠 각각으로부터 특정되는 상황 정보(또는 문맥 정보) 중 사용자의 제1 변화에 관한 정보, 사용자의 제2 변화에 관한 정보 및 사용자의 제3 변화에 관한 정보 각각에 기초하여 특정되는 상황 정보(또는 문맥 정보)와 소정 수준 이상 유사한 단위 콘텐츠를 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠로서 결정할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 단위 콘텐츠 결정부(320)는, 사용자의 변화에 관한 정보를 참조하여 단위 콘텐츠에서 사용자에게 제공할 커뮤니케이션 정보를 결정할 수 있다. 여기서, 커뮤니케이션 정보는 단위 콘텐츠에서 시각적 수단(예를 들어, 텍스트, 이미지 등), 청각적 수단(예를 들어, 소리 등) 등에 기초하여 사용자에게 제공되는 상호작용 정보를 의미할 수 있다.
예를 들어, 단위 콘텐츠 결정부(320)는 사용자의 변화에 관한 정보를 참조하여 해당 사용자의 변화와 연관되는 대화 정보를 단위 콘텐츠에서 사용자에게 제공할 커뮤니케이션 정보로서 결정할 수 있다. 보다 구체적으로, 단위 콘텐츠 결정부(320)는 사용자의 표정이 즐거웠다가 우울해지는 경우 사용자의 변화에 관한 정보에 기초하여 "우울한 일 있어?"라는 대화 정보가 단위 콘텐츠에서 사용자에게 제공할 커뮤니케이션 정보로서 결정할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(330)는 정보 도출부(310) 및 단위 콘텐츠 결정부(320)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(340)는 정보 도출부(310), 단위 콘텐츠 결정부(320) 및 통신부(330) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(340)는 인터랙티브 콘텐츠 제공 시스템(300)의 외부로부터의/로의 데이터 흐름 또는 인터랙티브 콘텐츠 제공 시스템(300)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 정보 도출부(310), 단위 콘텐츠 결정부(320) 및 통신부(330)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
도 3은 본 발명의 일 실시예에 따라 하나의 인터랙티브 콘텐츠에서 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
도 3을 참조하면, 먼저, 본 발명의 일 실시예에 따라 연애에 관한 인터랙티브 콘텐츠(400)가 사용자에게 제공되고, 그 인터랙티브 콘텐츠(400)의 복수의 분기 중 제1 분기(401)를 기준으로 제1 단위 콘텐츠(410)에 대응하여 획득되는 해당 사용자의 인터랙션 영상(예를 들어, 해당 사용자의 음성도 포함될 수 있음)을 분석하여 제1 인터랙티브 데이터(예를 들어, 웃음이 가득한 얼굴에 관한 데이터)가 획득될 수 있다. 한편, 여기서 본 발명의 일 실시예에 따라 위의 제1 인터랙티브 데이터와 다른 시점에서의 해당 사용자의 인터랙티브 데이터를 비교하여 분석함으로써 도출되는 사용자의 변화에 관한 정보를 참조하여 제1 분기(401)에서 제공 가능한 복수의 단위 콘텐츠(즉, 제2 단위 콘텐츠(420) 및 제3 단위 콘텐츠(430)) 중 해당 변화와 연관되는(또는 제1 분기(401)에서 위의 변화에 관한 정보가 만족시키는 분기 조건에 대응하는) 단위 콘텐츠가 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 본 발명의 일 실시예에 따라 제1 분기(401)에서 제공 가능한 복수의 단위 콘텐츠 중 제2 단위 콘텐츠(420)(예를 들어, 여자친구가 여행을 가자고 이야기하는 내용에 관한 단위 콘텐츠)가 해당 사용자에게 제공될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 위의 인터랙티브 콘텐츠(400)의 복수의 분기 중 제2 분기(402)를 기준으로 제2 단위 콘텐츠(420)에 대응하여 획득되는 해당 사용자의 인터랙션 영상을 분석하여 제2 인터랙티브 데이터(예를 들어, 웃음이 사라진 얼굴에 관한 데이터)가 획득될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 제1 인터랙티브 데이터 및 제2 인터랙티브 데이터를 서로 비교하여 분석함으로써, 해당 사용자의 변화에 관한 정보(예를 들어, 웃음이 사라짐)가 도출될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 해당 사용자의 변화에 관한 정보(예를 들어, 웃음이 사라짐)에 기초하여 위의 인터랙티브 콘텐츠(400)의 제2 분기(402)에서 제공될 단위 콘텐츠가 결정될 수 있다. 예를 들어, 위의 인터랙티브 콘텐츠(400)의 제2 분기(402)에서 제공 가능한 복수의 단위 콘텐츠(예를 들어, 여자친구가 홀로 집에 가는 내용에 관한 제4 단위 콘텐츠(440) 및 여자친구와 놀이공원에 여행을 가는 내용에 관한 제5 단위 콘텐츠(450)) 중 위의 변화(예를 들어, 웃음이 사라짐)와 연관되는(또는 제2 분기(402)에서 위의 변화에 관한 정보가 만족시키는 분기 조건에 대응하는) 제4 단위 콘텐츠(440)(즉, 여자친구가 홀로 집에 가는 내용에 관한 단위 콘텐츠)가 제2 분기(402)에서 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 위의 결정되는 제4 단위 콘텐츠(440)가 위의 제2 분기(402)에서 해당 사용자에게 제공될 수 있다.
도 4는 본 발명의 일 실시예에 따라 서로 다른 인터랙티브 콘텐츠(400, 500)에서 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
도 4를 참조하면, 먼저, 본 발명의 일 실시예에 따라 연애에 관한 제1 인터랙티브 콘텐츠(400)가 사용자에게 제공되고 그 제1 인터랙티브 콘텐츠(400)의 특정 분기(401)를 기준으로 제1 단위 콘텐츠(410)에 대응하여 획득되는 해당 사용자의 인터랙션 영상(예를 들어, 해당 사용자의 음성도 포함될 수 있음)을 분석하여 제1 인터랙티브 데이터(예를 들어, 사용자의 얼굴의 크기가 제1 크기인 데이터)가 획득될 수 있다. 한편, 여기서 본 발명의 일 실시예에 따라 위의 제1 인터랙티브 데이터와 다른 시점에서의 해당 사용자의 인터랙티브 데이터를 비교하여 분석함으로써 도출되는 사용자의 변화에 관한 정보를 참조하여 제1 분기(401)에서 제공 가능한 복수의 단위 콘텐츠(즉, 제2 단위 콘텐츠(420) 및 제3 단위 콘텐츠(430)) 중 해당 변화와 연관되는(또는 제1 분기(401)에서 위의 변화에 관한 정보가 만족시키는 분기 조건에 대응하는) 단위 콘텐츠가 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 헬스 케어에 관한 제2 인터랙티브 콘텐츠(500)가 해당 사용자에게 제공되고 제2 인터랙티브 콘텐츠(500)의 특정 분기(501)를 기준으로 제4 단위 콘텐츠(510)에 대응하여 획득되는 해당 사용자의 인터랙션 영상을 분석하여 제2 인터랙티브 데이터(예를 들어, 사용자의 얼굴의 크기가 제2 크기(이러한, 제2 크기는 위의 제1 크기보다 작은 값일 수 있음)인 데이터)가 획득될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 제1 인터랙티브 데이터 및 제2 인터랙티브 데이터를 서로 비교하여 분석함으로써, 해당 사용자의 변화에 관한 정보(예를 들어, 얼굴의 크기가 작아짐)가 도출될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 해당 사용자의 변화에 관한 정보(즉, 얼굴의 크기가 작아짐)에 기초하여 제2 인터랙티브 콘텐츠(500)의 위의 특정 분기(501)에서 제공될 단위 콘텐츠가 결정될 수 있다. 예를 들어, 제2 인터랙티브 콘텐츠(500)의 위의 특정 분기(501)에서 제공 가능한 복수의 단위 콘텐츠(예를 들어, 의사가 건강 검진을 수행하는 내용에 관한 제5 단위 콘텐츠(520) 및 집으로 귀가하는 내용에 관한 제6 단위 콘텐츠(530)) 중 위의 변화(즉, 얼굴의 크기가 작아짐)와 연관되는 제5 단위 콘텐츠(520)(예를 들어, 의사가 건강 검진을 수행하는 내용에 관한 단위 콘텐츠)가 제2 인터랙티브 콘텐츠(500)의 위의 특정 분기(501)에서 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 위의 결정되는 제5 단위 콘텐츠(520)가 제2 인터랙티브 콘텐츠(500)의 위의 특정 분기(501)에서 해당 사용자에게 제공될 수 있다.
도 5는 본 발명의 일 실시예에 따라 복수의 분기 각각을 기준으로 누적하여 획득되는 사용자의 변화에 관한 정보를 도출하여 단위 콘텐츠를 결정하는 것을 예시적으로 나타내는 도면이다.
도 5를 참조하면, 본 발명의 일 실시예에 따라 연애에 관한 인터랙티브 콘텐츠(600)가 사용자에게 제공되는 상황을 가정해 볼 수 있다.
먼저, 본 발명의 일 실시예에 따른 인터랙티브 콘텐츠(600)에서 여자친구가 데이트 장소로 놀이 공원을 추천하는 내용에 관한 제1 단위 콘텐츠(610)가 사용자에게 제공되고 제1 단위 콘텐츠(610)의 분기(601)를 기준으로 제1 단위 콘텐츠(610)에 대응하여 획득되는 해당 사용자의 인터랙션 영상(예를 들어, 해당 사용자의 음성도 포함될 수 있음)을 분석하여 제1 인터랙티브 데이터(예를 들어, 사용자가 웃으며 고개를 끄덕이는 데이터)가 획득될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 제1 단위 콘텐츠(610)에서 획득한 제1 인터랙티브 데이터(또는 제1 인터랙티브 데이터와 다른 시점에서의 해당 사용자의 인터랙티브 데이터를 비교하여 분석함으로써 도출되는 사용자의 변화에 관한 정보)를 기초로 놀이 기구를 타는 내용에 관한 제2 단위 콘텐츠(620)가 해당 사용자에게 제공될 수 있다. 또한 제2 단위 콘텐츠(620)의 분기(602)를 기준으로 제2 단위 콘텐츠(620)에 대응하여 획득되는 해당 사용자의 인터랙션 영상을 분석하여 제2 인터랙티브 데이터(예를 들어, 사용자의 웃음이 사라지고, 표정이 어두워진 데이터)가 획득될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 제1 인터랙티브 데이터 및 제2 인터랙티브 데이터를 서로 비교하여 분석함으로써, 해당 사용자의 변화에 관한 정보(예를 들어, 사용자의 체력이 고갈됨)가 도출될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 해당 사용자의 변화에 관한 정보(예를 들어, 사용자의 체력이 고갈됨)에 기초하여 제2 단위 콘텐츠(620)의 분기(602)에서 제공될 단위 콘텐츠가 결정될 수 있다. 예를 들어, 제2 단위 콘텐츠(620)의 분기(602)에서 제공 가능한 복수의 단위 콘텐츠(예를 들어, 놀이공원 내 벤치에서 잠시 휴식하는 내용에 관한 제4 단위 콘텐츠(640) 및 다른 놀이기구를 타러 가는 내용에 관한 제5 단위 콘텐츠(650)) 중 위의 변화(예를 들어, 사용자의 체력이 고갈됨)와 연관되는 제4 단위 콘텐츠(640)(즉, 놀이공원 내 벤치에서 잠시 휴식하는 내용에 관한 단위 콘텐츠)가 제2 단위 콘텐츠(620)의 분기(602)에서 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 위의 결정되는 제4 단위 콘텐츠(640)가 제2 단위 콘텐츠(620)의 분기(602)에서 해당 사용자에게 제공될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 제4 단위 콘텐츠(640)의 분기(603)를 기준으로 제4 단위 콘텐츠(640)에 대응하여 획득되는 해당 사용자의 인터랙션 영상을 분석하여 제3 인터랙티브 데이터(예를 들어, 사용자의 얼굴에서 식은 땀이 흐름)가 획득될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 위의 제1 인터랙티브 데이터, 제2 인터랙티브 데이터 및 제3 인터랙티브 데이터를 서로 비교하여 분석함으로써, 해당 사용자의 변화에 관한 정보(예를 들어, 사용자의 몸이 안 좋음)가 도출될 수 있다.
그 다음에, 본 발명의 일 실시예에 따르면, 위의 사용자의 변화에 관한 정보(즉, 사용자의 몸이 안 좋음)에 기초하여 제4 단위 콘텐츠(640)의 분기(603)에서 제공될 단위 콘텐츠가 결정될 수 있다. 구체적으로, 단위 콘텐츠들의 분기(601, 602, 603)에서 누적되는 사용자의 변화에 관한 정보(즉, 사용자의 몸이 안 좋음)에 기초하여 단위 콘텐츠가 결정될 수 있다. 예를 들어, 제4 단위 콘텐츠(640)의 분기(603)에서 제공 가능한 복수의 단위 콘텐츠(예를 들어, 여자친구가 간호해주는 내용에 관한 제6 단위 콘텐츠(660) 및 여자친구가 화가 나서 집에 가는 내용에 관한 제7 단위 콘텐츠(670)) 중 위의 변화(즉, 사용자의 몸이 안 좋음)와 연관되는 제6 단위 콘텐츠(660)가 제4 단위 콘텐츠(640)의 분기(603)에서 제공될 단위 콘텐츠로서 결정될 수 있다.
그 다음에, 위의 결정되는 제6 단위 콘텐츠(660)가 제4 단위 콘텐츠(640)의 분기(603)에서 해당 사용자에게 제공될 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (9)

  1. 인터랙티브 콘텐츠를 제공하기 위한 방법으로서,
    적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 상기 사용자의 변화에 관한 정보를 도출하는 단계, 및
    상기 변화에 관한 정보에 기초하여 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 단계를 포함하는
    방법.
  2. 제1항에 있어서,
    상기 도출 단계에서, 제1 인터랙티브 콘텐츠에 참여하는 상기 사용자의 제1 인터랙티브 데이터 및 제2 인터랙티브 콘텐츠에 참여하는 상기 사용자의 제2 인터랙티브 데이터를 서로 비교하여 분석함으로써, 상기 사용자의 변화에 관한 정보를 도출하는
    방법.
  3. 제1항에 있어서,
    상기 인터랙티브 데이터는, 상기 적어도 하나의 분기를 기준으로 획득되는
    방법.
  4. 제1항에 있어서,
    상기 결정 단계에서, 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공 가능한 복수의 단위 콘텐츠 중 상기 변화와 연관되는 단위 콘텐츠를 상기 제공될 단위 콘텐츠로서 결정하는
    방법.
  5. 제1항에 있어서,
    상기 결정 단계에서, 상기 분기는 복수이고, 상기 복수의 분기 각각을 기준으로 누적하여 획득되는 상기 사용자의 변화에 관한 정보를 참조하여 상기 제공될 단위 콘텐츠를 결정하는
    방법.
  6. 제1항에 있어서,
    상기 결정 단계에서, 상기 변화에 관한 정보를 참조하여 상기 제공될 단위 콘텐츠에서 상기 사용자에게 제공할 커뮤니케이션 정보를 결정하는
    방법.
  7. 제6항에 있어서,
    상기 커뮤니케이션 정보는, 상기 사용자의 변화와 연관되는 대화 정보를 포함하는
    방법.
  8. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  9. 인터랙티브 콘텐츠를 제공하기 위한 시스템으로서,
    적어도 하나의 분기에서 조건에 따라 적어도 하나의 단위 콘텐츠가 제공되는 적어도 하나의 인터랙티브 콘텐츠에 참여하는 사용자의 서로 다른 시점의 인터랙티브 데이터를 참조하여 상기 사용자의 변화에 관한 정보를 도출하는 정보 도출부, 및
    상기 변화에 관한 정보에 기초하여 상기 사용자가 참여하는 인터랙티브 콘텐츠의 적어도 하나의 분기에서 제공될 단위 콘텐츠를 결정하는 단위 콘텐츠 결정부를 포함하는
    시스템.
PCT/KR2022/018134 2021-11-17 2022-11-16 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 WO2023090868A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0158108 2021-11-17
KR1020210158108A KR102625171B1 (ko) 2021-11-17 2021-11-17 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Publications (1)

Publication Number Publication Date
WO2023090868A1 true WO2023090868A1 (ko) 2023-05-25

Family

ID=86397369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018134 WO2023090868A1 (ko) 2021-11-17 2022-11-16 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Country Status (2)

Country Link
KR (1) KR102625171B1 (ko)
WO (1) WO2023090868A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012096027A (ja) * 2010-10-12 2012-05-24 Sony Computer Entertainment Inc 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
KR101319769B1 (ko) * 2013-02-27 2013-10-17 주식회사 위두커뮤니케이션즈 전자서적과 게임의 연동을 지원하는 에듀테인먼트 시스템
US9268774B2 (en) * 2008-06-27 2016-02-23 Samsung Electronics Co., Ltd. Storage medium, apparatus, and method to author and play interactive content
JP2018511450A (ja) * 2015-02-02 2018-04-26 ジーエヌ アイピー ピーティーワイ リミテッド パフォーマンスセンサデータの分析に基づく適合トレーニングプログラムの配信を含む、インタラクティブスキルトレーニングコンテンツを提供するように構成された、フレームワーク、デバイス及び方法
US10216474B2 (en) * 2016-07-06 2019-02-26 Bragi GmbH Variable computing engine for interactive media based upon user biometrics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186075A (ja) * 2007-01-26 2008-08-14 Advanced Telecommunication Research Institute International インタラクティブ画像表示装置
KR20190059558A (ko) * 2017-11-23 2019-05-31 박준서 비선형 인터렉티브 브이알 컨텐츠 개발방법
KR102192540B1 (ko) 2019-08-02 2020-12-17 주식회사 토포로그 인터랙티브 콘텐츠 제공 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268774B2 (en) * 2008-06-27 2016-02-23 Samsung Electronics Co., Ltd. Storage medium, apparatus, and method to author and play interactive content
JP2012096027A (ja) * 2010-10-12 2012-05-24 Sony Computer Entertainment Inc 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
KR101319769B1 (ko) * 2013-02-27 2013-10-17 주식회사 위두커뮤니케이션즈 전자서적과 게임의 연동을 지원하는 에듀테인먼트 시스템
JP2018511450A (ja) * 2015-02-02 2018-04-26 ジーエヌ アイピー ピーティーワイ リミテッド パフォーマンスセンサデータの分析に基づく適合トレーニングプログラムの配信を含む、インタラクティブスキルトレーニングコンテンツを提供するように構成された、フレームワーク、デバイス及び方法
US10216474B2 (en) * 2016-07-06 2019-02-26 Bragi GmbH Variable computing engine for interactive media based upon user biometrics

Also Published As

Publication number Publication date
KR102625171B1 (ko) 2024-01-23
KR20230071941A (ko) 2023-05-24

Similar Documents

Publication Publication Date Title
WO2016006727A1 (ko) 인지기능 검사 장치 및 방법
CN103562906A (zh) 用于在线体验的基于情绪的用户标识
WO2013165144A1 (ko) 네트워크 대전을 제공하는 가상 골프 시뮬레이션 방법 및 장치
US20220266146A1 (en) Video game guidance system
WO2023090868A1 (ko) 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2023090869A1 (ko) 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2020122463A1 (ko) 가상 현실을 이용한 치매 환자 훈련 시스템
WO2023090870A1 (ko) 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN115068941A (zh) 游戏画质的推荐方法、装置、计算机设备及存储介质
WO2019093633A1 (ko) 영상 채팅에 기반하여 광고 콘텐츠에 대한 감정을 추정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
Henriques et al. Emotionally-aware multimodal interfaces: Preliminary work on a generic affective modality
WO2015041399A1 (ko) 교체 훈련 방식의 외국어 학습을 위한 게임 방법
WO2013085195A1 (ko) 온라인 게임에서의 이벤트 참여에 따른 아이템 지급 방법 및 서버
De Santana et al. Measuring quantitative situated user experience with a mobile galvanic skin response sensor
WO2023038440A1 (ko) 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2013085173A1 (ko) 온라인 게임 서비스의 자동 플레이 방지 방법 및 서버
WO2021221218A1 (ko) 블록체인 기반 신체 동작 정확도 인증 방법 및 그를 위한 시스템
Delatorre et al. Optimizing player and viewer amusement in suspense video games
WO2020004693A1 (ko) 시간별 코멘트에 기초한 동일 콘텐트 판단 방법 및 시스템
WO2022270861A1 (ko) 스트리밍 내기 게임 방법 및 시스템
WO2023128169A1 (ko) 사용자 특성 기반의 현존감 효과 분석 방법 및 장치
WO2023043012A1 (ko) 영상 컨텐츠를 이용한 바이오피드백 방법, 컴퓨터 프로그램 및 시스템
WO2021096146A1 (ko) Html5 기반 웹 게임 제작과 배포를 위한 게임 제작 배포 시스템 및 그 방법
WO2019066110A1 (ko) 자율 행동 로봇을 이용하여 대화 서비스를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2024101663A1 (ko) 게임 제공 장치 및 게임 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22896073

Country of ref document: EP

Kind code of ref document: A1