JP2021182369A - Method and device for providing interactive content re-programmed on the basis of playing of user - Google Patents

Method and device for providing interactive content re-programmed on the basis of playing of user Download PDF

Info

Publication number
JP2021182369A
JP2021182369A JP2020204006A JP2020204006A JP2021182369A JP 2021182369 A JP2021182369 A JP 2021182369A JP 2020204006 A JP2020204006 A JP 2020204006A JP 2020204006 A JP2020204006 A JP 2020204006A JP 2021182369 A JP2021182369 A JP 2021182369A
Authority
JP
Japan
Prior art keywords
information
user
interactive content
input
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020204006A
Other languages
Japanese (ja)
Inventor
ビョンファ バク
Byunghwa Park
ギボン ギム
Kibong Kim
ガビ ジョ
Gabee Jo
ヨンジュン グォン
Youngjun Kwon
ジョンボム イ
Jong Bum Lee
グンサン ジョン
Kun Sang Jung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Illuni Inc
Original Assignee
Illuni Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Illuni Inc filed Critical Illuni Inc
Publication of JP2021182369A publication Critical patent/JP2021182369A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2543Billing, e.g. for subscription services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a user with a new content which reflects a progress step itself of an interactive content that the user has determined and completed.SOLUTION: An interactive content provision device of the present invention includes: an input interface for sensing input of a user; a display unit for outputting a picture; a memory for storing a command word to make a predetermined operation done; and a processor connected to the memory in an operable manner, the processor executing the command word. The processor executes the operations of: providing a user with an interactive content which is played while an object is moving according to drive information as a plurality of animation units is regenerated, the animation units including object information specifying an object output to a picture and drive information defining an operation of the object; receiving input of the user information reflected on the interactive content; and inserting the user information into a part of the object information and playing back one of the animation units to play the interactive content.SELECTED DRAWING: Figure 2

Description

本発明は使用者のプレイングに基づいて再プログラミングされるインタラクティブコンテンツ提供方法および装置に関し、より詳しくは、使用者がインタラクティブコンテンツをプレイする過程に対する情報と使用者自身の個性を反映できる情報をインタラクティブコンテンツに反映して、使用者ならではの個性的なコンテンツを新しく生成する技術に関する。 The present invention relates to an interactive content providing method and device that are reprogrammed based on the user's playing, and more specifically, the interactive content provides information on the process in which the user plays the interactive content and information that can reflect the user's own personality. Reflecting on the technology to generate new unique content unique to users.

既存の映画、ドラマ、本のようなコンテンツは、創作者が定めたストーリーのプロットに沿ってあらすじが流れていき、結末に至る。ところが、定められているプロットとは異なって、自身が所望する流れや異なる結末を所望する人々の欲求が存在するため、人々はストーリーに介入して外伝を作ったり、インターネットコミュニティに自身が想像した異なる結末に対するストーリーを叙述したりもする。 Content such as existing movies, dramas, and books have a synopsis that follows the plot of the story set by the creator, leading to the end. However, unlike the defined plots, there are people's desires for the flow and different endings they want, so people intervene in the story to create a Gaiden or imagine themselves in the Internet community. It also describes stories about different endings.

このような人々の欲求を反映して、最近コンテンツの流れと結末を使用者の決定により選択できるインタラクティブ(interactive)コンテンツが脚光を浴びている。インタラクティブコンテンツは、ストーリーが進行されながら使用者の選択によってあらすじが異なって進行され得、あらすじだけでなく結論まで使用者の選択によって変わり得る。 Reflecting the desires of these people, interactive content, in which the flow and outcome of the content can be selected by the user's decision, has recently been in the limelight. In interactive content, the synopsis may be different depending on the user's choice as the story progresses, and not only the synopsis but also the conclusion may change depending on the user's choice.

ただし、現存するインタラクティブコンテンツの殆どは使用者の選択によってストーリーのみを異ならせることに集中しており、最近ではコンテンツのストーリーを越えて、より多様な要素に使用者の自律的介入が可能な機能が要求されている。例えば、使用者情報(顔、声、名前など)がコンテンツに移入されて使用者がコンテンツをさらに実感できる個人型コンテンツ(Personalized Content)、実感コンテンツ(Realistic Content)等が要求されている。 However, most of the existing interactive content focuses on differentiating only the story at the user's choice, and these days, it is a function that allows the user to autonomously intervene in more diverse elements beyond the story of the content. Is required. For example, there is a demand for personalized content (Personalized Content), realistic content, and the like, in which user information (face, voice, name, etc.) is incorporated into the content so that the user can further experience the content.

前述したインタラクティブコンテンツは使用者の選択によってあらすじだけでなく結論まで変わり得るため、同じ種類のコンテンツを楽しんでも使用者個人の選択によって個々人が全く異なるストーリーを誕生させることができるという結果につながる。 Since the above-mentioned interactive content can change not only the synopsis but also the conclusion depending on the user's choice, it leads to the result that even if the same kind of content is enjoyed, each individual can create a completely different story by the user's individual choice.

これに伴い、本発明の実施例で解決しようとする課題は、使用者自らが決定して完成させたインタラクティブコンテンツの進行過程自体を反映した新しいコンテンツを使用者に提供する技術を提供することである。 Along with this, the problem to be solved by the embodiment of the present invention is to provide a technique for providing the user with new content that reflects the progress process itself of the interactive content determined and completed by the user himself / herself. be.

これに加え、本発明の実施例で解決しようとする課題は、ストーリーに影響を及ぼす自律性を越えて、インタラクティブコンテンツに登場するキャラクタ、音声などの多様な要素に使用者自身の個性を反映できる技術を提供しようとする。 In addition to this, the problem to be solved by the embodiment of the present invention can reflect the user's own individuality in various elements such as characters and voices appearing in the interactive content beyond the autonomy that affects the story. Try to provide technology.

このために、本文書の実施例はフレーム単位で出力される映像が定められるインタラクティブコンテンツの形式とは異なり、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で映像が再生されるようにインタラクティブコンテンツを構成して、インタラクティブコンテンツの流れに対する変更が容易であり、コンテンツをプレイする使用者情報を効果的にコンテンツに反映する技術を提供しようとする。 For this reason, the examples of this document include object information that identifies the object output to the image and driving information that defines the operation of the object, unlike the format of interactive content in which the image output in frame units is defined. We try to provide a technology that configures interactive content so that the video is played in units of animation, makes it easy to change the flow of the interactive content, and effectively reflects the information of the user who plays the content in the content.

ただし、本発明の実施例が達成しようとする技術的課題は以上で言及した課題に制限されず、以下で説明する内容から通常の技術者に自明な範囲内で多様な技術的課題が導き出され得る。 However, the technical problems to be achieved by the embodiments of the present invention are not limited to the problems mentioned above, and various technical problems are derived from the contents described below within a range that is obvious to ordinary engineers. obtain.

本発明の一実施形態に係るインタラクティブコンテンツの提供方法は、映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する段階;前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける段階;および、前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる段階を含むことができる。 In the method for providing interactive content according to an embodiment of the present invention, the object is reproduced as a plurality of animation units including the object information specifying the object output to the video and the driving information defining the operation of the object are reproduced. Provides the user with interactive content that is played while moving by the driving information; the stage of receiving the input of the user information reflected in the interactive content; and the user as part of the object information. It may include a step of inserting information and playing at least one of the plurality of animation units to play the interactive content.

本発明の一実施形態に係るインタラクティブコンテンツ提供装置は、使用者入力を感知する入力インターフェース;映像を出力するディスプレイ部;所定の動作を遂行するようにする命令語を保存する一つ以上のメモリ;および前記一つ以上のメモリと動作可能なように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、前記一つ以上のプロセッサは、前記映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する動作;前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける動作;および、前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて動作を含むことができる。 An interactive content providing device according to an embodiment of the present invention is an input interface that senses user input; a display unit that outputs video; one or more memories that store command words that perform a predetermined operation; And one or more processors operably linked to the one or more memories and configured to execute the command word, the one or more processors being an object output to the video. As a plurality of animation units including the object information specifying the object and the driving information defining the operation of the object are played, the operation of providing the user with interactive content in which the object is played while being moved by the driving information; The operation of receiving the input of the user information reflected in the interactive content; and the operation of inserting the user information into a part of the object information and playing back at least one of the plurality of animation units. Can include.

本発明の実施例に係るインタラクティブコンテンツは、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で構成されて、インタラクティブコンテンツが進行されながら使用者がインタラクティブコンテンツをプレイする過程に対する情報だけでなく、使用者の顔、音声、プレイ特性などの使用者の個性をコンテンツの多様な要素に反映させることができる。 The interactive content according to the embodiment of the present invention is composed of animation units including object information that identifies the object output to the video and driving information that defines the movement of the object, and the user interacts while the interactive content is in progress. Not only information about the process of playing the content, but also the individuality of the user such as the user's face, voice, and play characteristics can be reflected in various elements of the content.

これに伴い、使用者はストーリーの流れを選択できるだけでなく、使用者自身や家族がコンテンツの登場人物となってコンテンツをプレイするように、使用者の個性を入れた独自のコンテンツを生成することができる。 Along with this, the user can not only select the flow of the story, but also generate unique content with the user's personality so that the user and his / her family can play the content as characters of the content. Can be done.

これに加え、使用者はインタラクティブコンテンツのキャラクタの顔、キャラクタの音声などに自身、友達、家族の顔や声が反映されて再生される新しいコンテンツを生成して所蔵したり共有したりすることができる。
この他に、本文書を通じて直接的または間接的に把握される多様な効果が提供され得る。
In addition to this, users can generate, store and share new content that is played by reflecting the faces and voices of themselves, friends and family on the character's face, character's voice, etc. of interactive content. can.
In addition to this, various effects that are directly or indirectly grasped through this document may be provided.

図1は、本発明の一実施例に係るインタラクティブコンテンツ提供装置の機能ブロック図である。FIG. 1 is a functional block diagram of an interactive content providing device according to an embodiment of the present invention. 図2は、本文書の実施例に係るアニメーション単位が含む客体情報および駆動情報を説明するための例示図である。FIG. 2 is an exemplary diagram for explaining object information and driving information included in the animation unit according to the embodiment of this document. 図3は、本文書の実施例に係るアニメーション単位が含む音声情報および字幕情報を説明するための例示図である。FIG. 3 is an exemplary diagram for explaining audio information and subtitle information included in the animation unit according to the embodiment of this document. 図4は、第2コンテンツの生成に使われるプレイ情報を説明するための例示図である。FIG. 4 is an exemplary diagram for explaining play information used to generate the second content. 図5Aは、インタラクティブコンテンツをプレイする過程で出力される字幕と第2コンテンツで出力される字幕の差を説明するための例示図である。FIG. 5A is an exemplary diagram for explaining the difference between the subtitles output in the process of playing the interactive content and the subtitles output in the second content. 図5Bは、インタラクティブコンテンツをプレイする過程で出力される字幕と第2コンテンツで出力される字幕の差を説明するための例示図である。FIG. 5B is an exemplary diagram for explaining the difference between the subtitles output in the process of playing the interactive content and the subtitles output in the second content. 図6は、インタラクティブコンテンツに使用者音声を入力する動作を説明するための例示図である。FIG. 6 is an exemplary diagram for explaining an operation of inputting a user voice into interactive content. 図7は、インタラクティブコンテンツに使用者の顔イメージを代入する動作を説明するための第1例示図である。FIG. 7 is a first exemplary diagram for explaining an operation of substituting a user's face image into interactive content. 図8は、インタラクティブコンテンツに使用者の顔イメージを代入する動作を発生させる動作を説明するための第2例示図である。FIG. 8 is a second exemplary diagram for explaining an operation of generating an operation of substituting a user's face image into the interactive content. 図9は、インタラクティブコンテンツは使用者の顔イメージを代入し、代入した顔イメージに表情または動きを具現する動作を説明するための例示図である。FIG. 9 is an exemplary diagram for demonstrating an operation in which an interactive content substitutes a user's face image and embodies a facial expression or movement in the substituted face image. 図10は、インタラクティブコンテンツ提供装置の使用環境により客体情報の位置を変更する動作を説明するための例示図である。FIG. 10 is an exemplary diagram for explaining an operation of changing the position of object information depending on the usage environment of the interactive content providing device. 図11は、一実施例に係る客体情報のクラスを人工知能モデルを通じて特定し、クラスに対応する駆動情報をマッピングさせる動作を説明するための例示図である。FIG. 11 is an exemplary diagram for explaining an operation of specifying a class of object information according to an embodiment through an artificial intelligence model and mapping drive information corresponding to the class. 図12は、本発明の一実施例に係るインタラクティブコンテンツ提供方法のフローチャートである。FIG. 12 is a flowchart of an interactive content providing method according to an embodiment of the present invention.

図1は、本発明の一実施例に係るインタラクティブコンテンツ提供装置100の機能ブロック図である。図1を参照すると、一実施例に係るインタラクティブコンテンツ提供装置100はメモリ110、プロセッサ120、入力インターフェース130、ディスプレイ部140、通信インターフェース150およびカメラ部160を含むことができる。 FIG. 1 is a functional block diagram of an interactive content providing device 100 according to an embodiment of the present invention. Referring to FIG. 1, the interactive content providing apparatus 100 according to an embodiment can include a memory 110, a processor 120, an input interface 130, a display unit 140, a communication interface 150, and a camera unit 160.

メモリ110はアニメーションDB111、インタラクティブDB113および命令語DB115を含んで、本文書の実施例を遂行させるための情報および命令語を保存することができる。 The memory 110 includes an animation DB 111, an interactive DB 113, and a command word DB 115, and can store information and command words for carrying out the embodiments of this document.

アニメーションDB111は、インタラクティブコンテンツを構成するアニメーション単位に対する情報を保存することができる。アニメーション単位は、映像に含まれた客体がどのように動かなければならないかが定義されたアニメーションを区分する単位であって、アニメーション単位は連続的な映像に出力される客体を特定する客体情報およびこのような客体の動作を定義した駆動情報を含むことができる。 The animation DB 111 can store information for the animation unit constituting the interactive content. The animation unit is a unit that divides the animation that defines how the object contained in the video must move, and the animation unit is the object information that identifies the object output to the continuous video and the object information. It can include driving information that defines the movement of such an object.

すなわち、客体情報は映像がプレイされる時に使用者に見られたり提供されるそれぞれの客体(object)に対する情報であって、キャラクタ、物、背景、音声、字幕などの客体を特定する情報である。例えば、客体情報はキャラクタの顔または使用者の顔を反映する3次元使用者モデルと、使用者モデルに対する相対的距離に基づいて使用者モデルと共に表現され得る第2客体に対する情報をさらに含むことができる。 That is, the object information is information for each object that is seen or provided to the user when the video is played, and is information that identifies the object such as a character, an object, a background, a voice, and subtitles. .. For example, the object information may further include a three-dimensional user model that reflects the face of the character or the face of the user, and information about the second object that can be represented with the user model based on the relative distance to the user model. can.

駆動情報は、それぞれの客体がどの時点でどのように動作するようにするかに対する情報、または使用者入力に対してどのように反応すべきであるかに対する情報を含むことができる。 The drive information can include information about when and how each object should behave, or information about how it should react to user input.

本文書の実施例に係るインタラクティブコンテンツはこのようなアニメーション単位で構成され、アニメーション単位が動作することによってインタラクティブコンテンツが進行され、使用者がインタラクティブコンテンツをプレイする過程がアニメーション単位に含まれた情報に反映されることによって、使用者の個性を反映できる情報が客体情報または駆動情報に反映され得る。 The interactive content according to the embodiment of this document is composed of such animation units, the interactive content is advanced by the operation of the animation unit, and the process of the user playing the interactive content is included in the information included in the animation unit. By being reflected, information that can reflect the individuality of the user can be reflected in the object information or the driving information.

インタラクティブDB113はインタラクティブコンテンツに反映される使用者情報の入力を受けて保存することができる。また、インタラクティブDB113は所定のアルゴリズムによって改善したり、修正された使用者情報を保存することができる。例えば、使用者情報は使用者の顔イメージ、使用者音声、使用者がインタラクティブコンテンツをプレイして入力される各種情報を含むことができる。 The interactive DB 113 can receive and save the input of the user information reflected in the interactive content. In addition, the interactive DB 113 can store user information that has been improved or modified by a predetermined algorithm. For example, the user information can include a user's face image, a user's voice, and various information input by the user by playing interactive content.

命令語DB115は後述するプロセッサ120の動作を遂行させる命令語、または後述するプロセッサ120の動作と対応する動作を遂行するようにするコンピュータコードを保存することができる。 The instruction word DB 115 can store an instruction word for performing the operation of the processor 120 described later, or a computer code for performing an operation corresponding to the operation of the processor 120 described later.

プロセッサ120はインタラクティブコンテンツ提供装置100が含む構成、メモリ110、入力インターフェース130、ディスプレイ部140および通信インターフェース150の全般的な動作を制御することができる。プロセッサ120はインタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125を含むことができる。プロセッサ120はメモリ110に保存された命令語を実行して、インタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125を駆動させることができる。インタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125により遂行される動作は、プロセッサ120によって遂行される動作と理解され得る。 The processor 120 can control the overall operation of the configuration, memory 110, input interface 130, display unit 140, and communication interface 150 included in the interactive content providing device 100. The processor 120 can include an interactive module 121, an audio subtitle module 123 and an image module 125. The processor 120 can execute the instruction words stored in the memory 110 to drive the interactive module 121, the audio subtitle module 123, and the image module 125. The operations performed by the interactive module 121, the audio subtitle module 123 and the image module 125 can be understood as the operations performed by the processor 120.

インタラクティブモジュール121は使用者がインタラクティブコンテンツをプレイする場合、全般的なインタラクティブコンテンツの進行を制御し、使用者と関連した情報を保存して第2コンテンツを生成することができる。例えば、インタラクティブモジュール121は使用者入力に基づいてインタラクティブコンテンツの進行を決定することができ、使用者が入力した情報をインタラクティブコンテンツに反映することができ、使用者がインタラクティブコンテンツをプレイした記録を保存する第2コンテンツを生成することができる。 When the user plays the interactive content, the interactive module 121 can control the progress of the interactive content in general, store the information related to the user, and generate the second content. For example, the interactive module 121 can determine the progress of the interactive content based on the user input, can reflect the information input by the user in the interactive content, and save a record of the user playing the interactive content. Second content can be generated.

音声字幕モジュール123は字幕および音声に関連した全般的な動作を制御する。例えば、使用者がディスプレイ部140に出力される字幕に対する使用者入力を感知すると、使用者音声の入力を受けることができ、これを字幕に対応する音声情報として字幕情報にマッピングさせて保存することができる。 The audio subtitle module 123 controls subtitles and general audio-related operations. For example, when the user senses the user input for the subtitle output to the display unit 140, the user's voice input can be received, and this is mapped to the subtitle information as the voice information corresponding to the subtitle and saved. Can be done.

イメージモジュール125はイメージと関連した全般的な動作を制御する。例えば、使用者から顔イメージの入力を受ける場合、所定の目的に沿って顔イメージを変更または修正することができ、入力を受けたイメージが入力のための目的に符合するイメージなのかを判別し、入力を受けたイメージをインタラクティブコンテンツに反映することができる。 The image module 125 controls the overall behavior associated with the image. For example, when receiving input of a face image from a user, the face image can be changed or modified according to a predetermined purpose, and it is determined whether the input image matches the purpose for input. , The input image can be reflected in the interactive content.

入力インターフェース130は使用者が加える物理的刺激,音声,映像などの入力を受けることができる。例えば、入力インターフェース130は減圧センサ、静電センサ、マイク、カメラなどのようなハードウェアモジュールを含むことができる。 The input interface 130 can receive inputs such as physical stimuli, audio, and video applied by the user. For example, the input interface 130 can include hardware modules such as decompression sensors, electrostatic sensors, microphones, cameras and the like.

ディスプレイ部140は使用者がインタラクティブコンテンツをプレイできるように映像を出力することができる。このために、ディスプレイ部140はディスプレイパネルを含んで映像を出力するハードウェア構成を具備することができるが、ディスプレイ部140を構成するハードウェアの種類はこのような例示に限定されるものではない。 The display unit 140 can output an image so that the user can play the interactive content. For this purpose, the display unit 140 can include a hardware configuration that includes a display panel to output video, but the type of hardware that constitutes the display unit 140 is not limited to such an example. ..

通信インターフェース150は外部装置と通信して情報を送受信できるようにする。このために、通信インターフェース150は無線通信モジュールまたは有線通信モジュールを含むことができる。 The communication interface 150 communicates with an external device so that information can be transmitted and received. For this purpose, the communication interface 150 can include a wireless communication module or a wired communication module.

カメラ部160はインタラクティブコンテンツ提供装置の周辺環境を撮影して撮影した周辺映像を生成することができる。このために、カメラ部160はハードウェア構成であるカメラモジュールを含むことができる。 The camera unit 160 can generate a peripheral image taken by photographing the surrounding environment of the interactive content providing device. For this purpose, the camera unit 160 can include a camera module which is a hardware configuration.

以下、図2および図3を参照して、本文書の実施例に係るインタラクティブコンテンツ提供装置100が提供するインタラクティブコンテンツの特性について先に説明し、本文書が提示する課題を達成するためにプロセッサ120が遂行する動作の全体的な流れを説明した後、図4〜図7と共に使用者情報をインタラクティブコンテンツに反映する具体的な実施例を説明することにする。 Hereinafter, with reference to FIGS. 2 and 3, the characteristics of the interactive content provided by the interactive content providing device 100 according to the embodiment of this document will be described first, and the processor 120 will be used to achieve the task presented by this document. After explaining the overall flow of the operation performed by the user, a specific example of reflecting the user information in the interactive content will be described together with FIGS. 4 to 7.

まず、本文書の実施例に係るインタラクティブコンテンツを構成するアニメーション単位をより詳細に説明する。 First, the animation unit constituting the interactive content according to the embodiment of this document will be described in more detail.

図2は本文書の実施例に係るアニメーション単位が含む客体情報および駆動情報を説明するための例示図であり、図3は本文書の実施例に係るアニメーション単位が含む音声情報および字幕情報を説明するための例示図である。 FIG. 2 is an exemplary diagram for explaining object information and driving information included in the animation unit according to the embodiment of this document, and FIG. 3 illustrates audio information and subtitle information included in the animation unit according to the embodiment of this document. It is an example figure for this.

一実施例に係るインタラクティブコンテンツは複数のアニメーション単位で構成されている。アニメーション単位は客体情報、駆動情報、字幕情報および音声情報を含むことができる。客体情報は映像に出力される客体を特定する情報である。駆動情報は客体の動作を定義した情報である。字幕情報は映像が出力される間、該当映像のストーリーについての説明またはキャラクタの台詞として映像に共に出力されるテキストに対する情報である。音声情報は字幕に対応するテキストを声で読む音声に対する情報である。これに伴い、使用者がインタラクティブコンテンツのプレイを開始すれば、インタラクティブモジュール121はインタラクティブコンテンツに含まれたアニメーション単位を再生して、アニメーション単位に含まれた客体情報が駆動情報によって動くようにしてインタラクティブコンテンツを進行させることができ、進行と共に字幕情報による字幕と、音声情報による音声が出力され得る。 The interactive content according to one embodiment is composed of a plurality of animation units. The animation unit can include object information, driving information, subtitle information, and audio information. The object information is information that identifies the object that is output to the video. Drive information is information that defines the movement of the object. The subtitle information is information for the text that is output together with the video as a description of the story of the video or a dialogue of the character while the video is output. The voice information is information for the voice that reads the text corresponding to the subtitles by voice. Along with this, when the user starts playing the interactive content, the interactive module 121 plays the animation unit included in the interactive content so that the object information contained in the animation unit is moved by the driving information and is interactive. Content can be advanced, and subtitles based on subtitle information and audio based on audio information can be output as the content progresses.

インタラクティブモジュール121は各駆動情報が駆動されるべき順序または時点を、既定義された順序および時点に沿って駆動されるように制御することができる。 The interactive module 121 can control the order or time point in which each drive information should be driven so that it is driven in accordance with the defined order and time point.

また、本文書の実施例に係るインタラクティブコンテンツは、複数のアニメーション単位とは別個にインタラクティブコンテンツがプレイされる途中で特定客体に対する入力が感知される場合、該当客体に発生する動作自体を既定義した客体反応アニメーション情報をさらに含むことができる。インタラクティブモジュール121はディスプレイ部140に出力される客体情報に対する使用者入力に基づいて、特定客体が客体反応アニメーション情報によって動くように制御することができる。例えば、インタラクティブコンテンツは客体情報のうち「時計」という客体が存在する場合、いかなるアニメーション単位が再生される途中でも、ディスプレイ部140に「時計」が出力される途中で「時計」に対する使用者の対する入力(ex.客体である時計部分をタッチ)が感知されると、時計が動くように動作させたり、現在何時であるかの音声を出力するなどの動作を定義しておいた客体反応アニメーション情報を保存することができる。 Further, in the interactive content according to the embodiment of this document, when the input to a specific object is sensed while the interactive content is being played separately from a plurality of animation units, the motion itself that occurs in the object is already defined. Further object reaction animation information can be included. The interactive module 121 can control the specific object to move by the object reaction animation information based on the user input to the object information output to the display unit 140. For example, in the interactive content, when an object called "clock" exists in the object information, the user faces the "clock" while the "clock" is being output to the display unit 140, even while any animation unit is being played. When an input (ex. Touching the clock part of the object) is detected, the object reaction animation information that defines the operation such as operating the clock to move or outputting the sound of what time it is now. Can be saved.

図3は一つのアニメーション単位に含まれた音声情報および字幕情報が図示された例示であって、音声情報および字幕情報は一つの駆動情報とマッピングされて保存され得る。音声字幕モジュール123は特定駆動情報が実行されると、字幕情報と音声情報が該当駆動情報の実行と共に出力され得る。 FIG. 3 is an example in which the audio information and the subtitle information included in one animation unit are illustrated, and the audio information and the subtitle information can be mapped and stored with one drive information. When the specific drive information is executed, the audio subtitle module 123 can output the subtitle information and the audio information together with the execution of the corresponding drive information.

次に、それぞれのアニメーション単位が進行される方式の実施例を説明する。 Next, an example of a method in which each animation unit is advanced will be described.

インタラクティブモジュール121は、インタラクティブコンテンツが含む複数のアニメーション単位が再生される順序を多様な実施例によって決定することができる。例えば、一実施例に係るアニメーション再生方式はアニメーション単位が再生される方式は複数のアニメーション単位が既設定された順序で再生されるアニメーション方式を含むことができる。 The interactive module 121 can determine the order in which the plurality of animation units included in the interactive content are played by various embodiments. For example, the animation reproduction method according to the embodiment can include an animation method in which a plurality of animation units are reproduced in a preset order in the method in which the animation unit is reproduced.

また、一実施例に係るアニメーション再生方式は、複数のアニメーション単位のうちいずれか一つを再生する選択を受ける複数の選択項目に対する使用者の第1入力、または所定のアニメーション単位の再生中に出力される客体情報に対する使用者の第2入力により、それぞれの第1入力または第2入力に基づいて定められる次のアニメーション単位を再生するようにする分岐アニメーション方式を含むことができる。分岐アニメーション方式に該当するアニメーション単位が再生される場合、インタラクティブモジュール121はディスプレイに複数の選択項目(ex.ストーリーの流れに沿った主人公の選択事項)を出力して使用者から特定の選択項目に対する第1入力を感知したり、特定の客体情報に対する使用者の第2入力を感知して、使用者入力に対応して再生されるように定められたアニメーション単位を再生させることができる。 Further, the animation reproduction method according to the embodiment outputs the user's first input for a plurality of selection items that are selected to reproduce any one of the plurality of animation units, or during reproduction of a predetermined animation unit. It is possible to include a branch animation method for reproducing the next animation unit determined based on each first input or the second input by the user's second input for the object information to be performed. When the animation unit corresponding to the branch animation method is played back, the interactive module 121 outputs a plurality of selection items (ex. The main character's selection items along the flow of the story) to the display for a specific selection item from the user. The first input can be sensed, or the user's second input for specific object information can be sensed to reproduce an animation unit defined to be reproduced in response to the user input.

インタラクティブコンテンツ提供装置100は、アニメーション単位を構成する客体情報および駆動情報自体を使用者(ex.プレイヤー、管理者、開発者など)が直接編集できるように提供することができる。このために、使用者が編集を要請する場合、インタラクティブモジュール121は各アニメーション単位を構成する客体情報および駆動情報を使用者に提供して、客体情報、駆動情報またはアニメーション単位の再生順序に対する使用者の編集情報の入力を受けることができる。これに伴い、インタラクティブモジュール121は入力された編集情報が反映されたアニメーション単位に対する情報を含むインタラクティブコンテンツをプレイさせることによって、使用者の好みに応じて客体情報または駆動情報が修正されて他の客体が現れたり、使用者の所望する動きが反映されたコンテンツをプレイさせることができる。また、アニメーション単位の再生順序も使用者の編集に基づいて再生されるように制御され得る。 The interactive content providing device 100 can provide the object information and the driving information itself constituting the animation unit so that the user (ex. Player, administrator, developer, etc.) can directly edit them. Therefore, when the user requests editing, the interactive module 121 provides the user with the object information and the driving information constituting each animation unit, and the user for the reproduction order of the object information, the driving information, or the animation unit. You can receive the input of the editing information of. Along with this, the interactive module 121 modifies the object information or the driving information according to the user's preference by playing the interactive content including the information for the animation unit reflecting the input editing information, and the other object. Appears, or content that reflects the user's desired movement can be played. In addition, the playback order of each animation unit can be controlled so as to be played back based on the user's editing.

次に、一実施例に係るインタラクティブコンテンツ提供装置100が動作する全体的な過程を説明する。 Next, the overall process in which the interactive content providing device 100 according to the embodiment operates will be described.

まず、プロセッサ120は前述した本文書の実施例に係るインタラクティブコンテンツを使用者に提供し、使用者からインタラクティブコンテンツをプレイする前またはプレイの途中でインタラクティブコンテンツに反映される使用者情報の入力を受けて保存することができる。これに伴い、プロセッサ120はインタラクティブコンテンツに含まれた客体情報のうち一部に入力を受けた使用者情報を挿入し、複数のアニメーション単位のうち少なくとも一つを再生させてインタラクティブコンテンツをプレイさせることができる。その後、使用者のプレイが終了すると、プロセッサ120は使用者がインタラクティブコンテンツをプレイしながら使用者が入力した情報によってアニメーション単位が再生される第2コンテンツを生成することができる。 First, the processor 120 provides the user with the interactive content according to the embodiment of the above-mentioned document, and receives input of user information reflected in the interactive content from the user before or during the play of the interactive content. Can be saved. Along with this, the processor 120 inserts the input user information into a part of the object information included in the interactive content, and reproduces at least one of the plurality of animation units to play the interactive content. Can be done. After that, when the user's play is finished, the processor 120 can generate the second content in which the animation unit is reproduced by the information input by the user while the user is playing the interactive content.

一実施例に係る第2コンテンツは、使用者がインタラクティブコンテンツをプレイしながらストーリーを進行した入力に対応する順序に沿ってアニメーション単位が進行される映像であって、使用者がプレイしたストーリーを再現した映像であり、これに加えて使用者が入力したすべての情報(プレイ中に特定客体を押した情報、プレイ時間、顔イメージ、音声など)が反映された映像である。このために、本発明の一実施例は図4のようにプレイ情報を生成する。 The second content according to one embodiment is a video in which the animation unit progresses in the order corresponding to the input in which the user progresses the story while playing the interactive content, and reproduces the story played by the user. In addition to this, it is a video that reflects all the information input by the user (information that the specific object was pressed during play, play time, face image, sound, etc.). For this purpose, one embodiment of the present invention generates play information as shown in FIG.

図4は、第2コンテンツの生成に使われるプレイ情報を説明するための例示図である。図4を参照すると、インタラクティブモジュール121は、インタラクティブコンテンツをプレイする使用者が入力した入力情報に対するイベントの種類、入力時間および入力値に対する情報を特定して、特定された情報をマッピングしたプレイ情報を生成することができる。イベントの種類は、使用者が発生させたイベントの種類を特定するものであって、例えば「次のページ」、「客体タッチ」、「前ページ」、「三つの選択事項のうち1番を選択」等、使用者が入力して発生させたイベントの種類を意味する。入力時間とは、使用者が該当イベントを発生させた時点または時間を意味する。入力値とは、使用者がイベントを発生させるために入力した地点の座標、入力した音声情報、または入力したイメージなど、使用者入力によって発生または受信した情報を意味し得る。 FIG. 4 is an exemplary diagram for explaining play information used to generate the second content. Referring to FIG. 4, the interactive module 121 identifies the event type, input time, and input value information for the input information input by the user playing the interactive content, and maps the identified information to the play information. Can be generated. The event type specifies the type of event generated by the user, for example, "next page", "object touch", "previous page", and "select one of the three selection items". ", Etc., which means the type of event generated by the user. The input time means the time or time when the user generates the corresponding event. The input value can mean information generated or received by user input, such as coordinates of a point entered by the user to generate an event, input audio information, or input image.

これに伴い、インタラクティブモジュール121はインタラクティブコンテンツのプレイが終了した後、プレイ情報が含むイベントの種類、入力時間および入力値の情報によってインタラクティブコンテンツが再生される映像である第2コンテンツを生成することができる。例えば、プレイ情報が含む入力値が入力した地点の座標である場合、インタラクティブモジュール121はプレイ情報が含む入力時間に該当地点が入力されるように制御してコンテンツを再生させることができる。また、プレイ情報が含む入力値が音声情報である場合、インタラクティブモジュール121はプレイ情報が含むイベントの種類(ex.字幕に対する音声録音)に入力値に含まれた音声情報が再生されるようにすることができる。これに加え、プレイ情報が含む入力値が顔イメージである場合、インタラクティブモジュール121はプレイ情報が含むイベントの種類(ex.キャラクタの顔にイメージ代入)に入力値に含まれた顔イメージが代入されて再生されるようにすることができる。 Along with this, after the play of the interactive content is completed, the interactive module 121 can generate the second content which is a video in which the interactive content is played according to the information of the event type, the input time and the input value included in the play information. can. For example, when the input value included in the play information is the coordinates of the input point, the interactive module 121 can control so that the corresponding point is input at the input time included in the play information and reproduce the content. Further, when the input value included in the play information is audio information, the interactive module 121 causes the audio information included in the input value to be reproduced in the event type (ex. Audio recording for subtitles) included in the play information. be able to. In addition to this, when the input value included in the play information is a face image, the interactive module 121 assigns the face image included in the input value to the event type (ex. Image assignment to the character's face) included in the play information. Can be played back.

次に、インタラクティブコンテンツおよび第2コンテンツの差を説明する。 Next, the difference between the interactive content and the second content will be described.

一実施例に係る第2コンテンツは、使用者がインタラクティブコンテンツをプレイしながらストーリーを進行した入力に対応する順序に沿ってアニメーション単位が進行される映像であって、使用者がプレイしたストーリーを記録した映像であり、これに加えて使用者が入力したすべての情報(ex.プレイ中に特定客体を押した情報、プレイ時間、顔イメージ、音声など)が反映された映像である。 The second content according to one embodiment is a video in which the animation unit progresses in the order corresponding to the input in which the user progresses the story while playing the interactive content, and records the story played by the user. In addition to this, it is a video that reflects all the information input by the user (ex. Information that a specific object is pressed during play, play time, face image, voice, etc.).

図5Aおよび図5Bはインタラクティブコンテンツをプレイする過程で出力される字幕Aと第2コンテンツで出力される字幕Bの差を説明するための例示図である。 5A and 5B are illustrations for explaining the difference between the subtitle A output in the process of playing the interactive content and the subtitle B output in the second content.

図5Aおよび図5Bを参照すると、Aのようにインタラクティブコンテンツをプレイする途中には絵本のような感じを演出するために、音声字幕モジュール123は複数個の字幕情報を一度に駆動して一つの画面で複数行の字幕を出力させ、出力された複数の字幕情報に対応する音声情報が出力されるようにして、あたかも字幕を読んであげる絵本の感じを使用者に与えることができる。これとは異なり、Bのように第2コンテンツは漫画または映画のような感じを演出するために、再生する音声情報と対応する字幕情報のみを出力させることができる。 Referring to FIGS. 5A and 5B, the audio subtitle module 123 drives a plurality of subtitle information at once in order to produce a picture book-like feeling while playing interactive content as in A. By outputting multiple lines of subtitles on the screen and outputting audio information corresponding to the output multiple subtitle information, it is possible to give the user the feeling of a picture book reading the subtitles. On the other hand, like B, the second content can output only the audio information to be reproduced and the corresponding subtitle information in order to produce a cartoon-like or movie-like feeling.

ただし、このように再生される音声情報と対応する字幕情報のみを出力して音声情報と字幕情報のシンクが合うようにする方法に対して、映像がフレーム単位で再生されるように構成されている場合であれば、既存の技術のように特定の音声が再生されるフレーム時間に合わせて字幕を再生させればよいが、本文書の実施例はフレーム単位の再生ではなく、使用者の選択によるアニメーション単位の再生であるため、字幕が出力される時間自体を特定し難いという問題がある。 However, in contrast to the method of outputting only the audio information to be reproduced and the corresponding subtitle information so that the sync of the audio information and the subtitle information is matched, the video is configured to be reproduced in frame units. If so, the subtitles may be played according to the frame time when a specific sound is played as in the existing technology, but the embodiment of this document is not played in frame units, but is selected by the user. There is a problem that it is difficult to specify the time when the subtitles are output because the playback is performed in units of animation.

このために、音声情報は既設定された時間以下の再生時間を有する音声ファイルを含むことができ、音声字幕モジュール123は第2コンテンツで音声情報が再生される場合、再生される音声情報に対応する字幕情報のみを前記再生時間の間のみ第2コンテンツに出力することができる。すなわち、それぞれの音声情報が有する再生時間を基準として対応する字幕情報を該当再生時間の間出力させることによって、アニメーション単位の構成でも再生される音声情報と対応する字幕情報のシンクを合わせて、漫画または映画のような感じを具現することができる。 For this purpose, the audio information can include an audio file having a reproduction time of a preset time or less, and the audio subtitle module 123 corresponds to the audio information to be reproduced when the audio information is reproduced in the second content. Only the subtitle information to be output can be output to the second content only during the reproduction time. That is, by outputting the corresponding subtitle information based on the playback time of each voice information for the corresponding playback time, the audio information played even in the animation unit configuration and the sync of the corresponding subtitle information are combined to form a cartoon. Or you can embody a movie-like feeling.

次に、多様な使用者情報の入力を受けてインタラクティブコンテンツと第2コンテンツに反映する実施例を説明する。 Next, an embodiment in which various user information is input and reflected in the interactive content and the second content will be described.

図6は、インタラクティブコンテンツに使用者音声を入力する動作を説明するための例示図である。 FIG. 6 is an exemplary diagram for explaining an operation of inputting a user voice into interactive content.

インタラクティブコンテンツのプレイ途中、映像で出力される字幕に対する使用者入力が感知されると、音声字幕モジュール123は字幕情報に対応する使用者音声の入力を受けることができる。例えば、図6のような入力インターフェースウィンドウがディスプレイ部140に出力されて使用者音声入力をガイドすることができる。これに伴い、使用者が発話する音声が入力インターフェース130を通じて入力されると、音声字幕モジュール123は字幕情報に対応する音声情報に使用者音声を挿入し、インタラクティブコンテンツのプレイが終了すると使用者音声が挿入された音声情報が字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成することができる。 When the user input for the subtitle output in the video is detected during the play of the interactive content, the audio subtitle module 123 can receive the input of the user audio corresponding to the subtitle information. For example, an input interface window as shown in FIG. 6 can be output to the display unit 140 to guide the user's voice input. Along with this, when the voice spoken by the user is input through the input interface 130, the voice subtitle module 123 inserts the user voice into the voice information corresponding to the subtitle information, and when the play of the interactive content is completed, the user voice is completed. It is possible to generate a second content in which the animation unit in which the audio information in which is inserted is output corresponding to the subtitle information is reproduced.

この時、入力インターフェース130ウィンドウには、使用者が録音しようとする字幕情報の前に出力される字幕を探索する第1ボタン、および使用者が録音しようとする字幕情報の後に出力される字幕を探索する第2ボタンが出力され得、音声字幕モジュール123は第1ボタンまたは第2ボタンに対する使用者入力に基づいて、前の字幕または次の字幕を出力することができる。また、音声字幕モジュール123は第1ボタンまたは第2ボタンに対する使用者入力に基づいて出力される字幕情報に対応する使用者音声の入力を受けて、インタラクティブコンテンツのプレイが終了すると使用者音声が挿入された音声情報が字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成することができる。 At this time, in the input interface 130 window, the first button for searching the subtitle to be output before the subtitle information to be recorded by the user, and the subtitle to be output after the subtitle information to be recorded by the user are displayed. The second button to search may be output, and the audio subtitle module 123 can output the previous subtitle or the next subtitle based on the user input to the first button or the second button. Further, the voice subtitle module 123 receives the input of the user voice corresponding to the subtitle information output based on the user input to the first button or the second button, and the user voice is inserted when the play of the interactive content is completed. It is possible to generate a second content in which the animation unit in which the generated audio information is output corresponding to the subtitle information is reproduced.

一方、使用者音声の入力を受ける前述した実施例において、使用者音声を既設定された時間以上に入力を受ける場合、または多様なキャラクタに対して声の入力を受ける場合、時間またはキャラクタの数に比例して使用者に課金を賦課することができる。 On the other hand, in the above-described embodiment that receives the input of the user voice, when the user voice is input for more than a preset time, or when the voice is input to various characters, the time or the number of characters. It is possible to charge the user in proportion to.

図7はインタラクティブコンテンツに使用者の顔イメージを代入する動作を説明するための第1例示図であり、図8はインタラクティブコンテンツに使用者の顔イメージを代入する動作を発生させる動作を説明するための第2例示図である。 FIG. 7 is a first exemplary diagram for explaining an operation of substituting a user's face image for interactive content, and FIG. 8 is for explaining an operation of generating an operation of substituting a user's face image for interactive content. It is the second example figure of.

図7を参照すると、イメージモジュール125はインタラクティブコンテンツのプレイの前またはプレイの途中で使用者情報の入力を受けることができ、使用者情報のうち所定のイメージが入力される場合、該当イメージが顔イメージを含むイメージであれば、イメージモジュール125は顔イメージが特定の地点を眺めるように標準化させて、客体情報のうちキャラクタの顔に該当する客体情報に標準化された顔イメージを代入することができる。 Referring to FIG. 7, the image module 125 can receive input of user information before or during the play of interactive content, and when a predetermined image of the user information is input, the corresponding image is a face. If the image includes an image, the image module 125 can standardize the face image so as to look at a specific point, and substitute the standardized face image into the object information corresponding to the character's face in the object information. ..

前記標準化を遂行する一実施例によると、イメージモジュール125は使用者から顔イメージが入力される場合、顔イメージが所定の角度、形態、または表情を形成するように変形されたイメージを出力するように学習された多様な人工知能モデルを利用して、前記顔イメージが所定の角度、形態、または表情を形成するように標準化することができる。その後、イメージモジュール125は特徴点を導き出す多様なアルゴリズムによって顔イメージの特徴点を導き出し、導き出された特徴点を頂点(vertex)に特定することができる。その後、イメージモジュール125は頂点を互いに連結して、頂点、角面からなる多角形の集合であるメッシュ(mesh)構造で構成された3次元モデルを生成することができる。 According to one embodiment of performing the standardization, when a face image is input from the user, the image module 125 outputs an image in which the face image is deformed to form a predetermined angle, shape, or facial expression. Various artificial intelligence models trained in the above can be utilized to standardize the facial image to form a predetermined angle, morphology, or facial expression. After that, the image module 125 derives the feature points of the face image by various algorithms for deriving the feature points, and the derived feature points can be specified as vertices. After that, the image module 125 can connect the vertices to each other to generate a three-dimensional model composed of a mesh structure which is a set of polygons consisting of vertices and square faces.

これに伴い、イメージモジュール125は頂点の位置を制御して3次元モデルが所定角度および形態に向かうように標準化して、顔イメージが特定の地点を眺めるように標準化することができ、客体情報のうちキャラクタの顔に該当する客体情報に3次元モデルを代入することができる。この時、使用者の顔イメージに既保存されたキャラクタの前頭部イメージ、後頭部イメージを合成して、より自然に使用者の顔イメージをキャラクタの顔イメージに代入することができる。例えば、前頭部イメージ、後頭部イメージ、顔イメージの3種類がある場合、イメージモジュール125は各イメージのレイヤーの配置順序を後頭部イメージが最後に、顔イメージを中間に、前頭部イメージが最も前にくる順序で配置した後に合成して、キャラクタの顔に使用者の顔を自然に代入することができる。 Along with this, the image module 125 can control the position of the apex and standardize the 3D model so as to face a predetermined angle and shape, so that the face image can be standardized so as to look at a specific point, and the object information can be standardized. A three-dimensional model can be substituted for the object information corresponding to the character's face. At this time, the frontal image and the occipital image of the character already saved in the user's face image can be combined, and the user's face image can be more naturally substituted into the character's face image. For example, when there are three types of frontal image, occipital image, and face image, the image module 125 arranges the layers of each image at the back of the head image at the end, with the face image in the middle, and the frontal image at the front. The user's face can be naturally assigned to the character's face by arranging them in the order in which they come to.

また、イメージモジュール125は3次元モデルを構成する頂点を駆動情報によって移動するように制御して顔イメージの動きまたは表情を具現することができる。この時、客体情報のうち基本キャラクタに加えて追加的にキャラクタに顔イメージの代入を選択しようとする場合、イメージモジュール125は入力した顔イメージを代入しようとするキャラクタ数に比例して使用者に課金を賦課することができる。 Further, the image module 125 can control the vertices constituting the three-dimensional model to move by the driving information to embody the movement or facial expression of the face image. At this time, when trying to additionally select the substitution of the face image to the character in addition to the basic character in the object information, the image module 125 tells the user in proportion to the number of characters to substitute the input face image. Billing can be levied.

これに伴い、図8を参照すると、使用者が入力した顔イメージ、標準化された顔イメージ、3次元モデリングイメージに基づいて、本来の客体情報に3次元モデリングが完了したイメージを代入することができ、3次元モデリングが完了したイメージに動きを具現することができる。動きを具現する動作は図9の実施例を含むことができる。 Along with this, referring to FIG. 8, it is possible to substitute the image for which 3D modeling has been completed into the original object information based on the face image, the standardized face image, and the 3D modeling image input by the user. The movement can be embodied in the image for which 3D modeling has been completed. The motion that embodies the motion can include the embodiment of FIG.

図9は、インタラクティブコンテンツは使用者の顔イメージを代入し、代入した顔イメージに表情または動きを具現する動作を説明するための例示図である。 FIG. 9 is an exemplary diagram for demonstrating an operation in which an interactive content substitutes a user's face image and embodies a facial expression or movement in the substituted face image.

まず、イメージモジュール125は3次元モデルを構成する頂点のうち動きが開始される第1頂点と動きが終結される第2頂点を特定することができる。第1頂点または第2頂点はそれぞれ1個以上の頂点を含むことができる。第1頂点および第2頂点がいずれも複数個の頂点を含む場合、第1頂点は互いに異なる少なくとも一つの頂点と連結されていてもよく、第2頂点は前記複数個と同一個数の頂点を含むことができる。 First, the image module 125 can specify the first vertex at which the movement starts and the second vertex at which the movement ends among the vertices constituting the three-dimensional model. Each of the first and second vertices can contain one or more vertices. When both the first vertex and the second vertex include a plurality of vertices, the first vertex may be connected to at least one vertex different from each other, and the second vertex includes the same number of vertices as the plurality of vertices. be able to.

例えば、3次元モデルが顔の形状である場合、目が閉じられる動きを具現する場合、イメージモジュール125は眼球の上端の皮膚に位置する頂点を第1頂点、眼球の下端の皮膚に位置する頂点を第2頂点と特定することができる。以下、本文書の実施例はまぶたの動きを例にして説明するが、本文書の実施例に係る技術はこのような例示に限定されるものではない。 For example, when the 3D model has the shape of a face and embodies the movement of closing the eyes, the image module 125 has the apex located on the skin at the upper end of the eyeball as the first apex and the apex located on the skin at the lower end of the eyeball. Can be specified as the second vertex. Hereinafter, the examples of this document will be described by taking the movement of the eyelids as an example, but the technique according to the examples of this document is not limited to such an example.

第1頂点と第2頂点が特定された後、イメージモジュール125は第1頂点と第2頂点の間に第1頂点と第2頂点を連結する頂点、角または面を判別することができる。例えば、イメージモジュール125は第1頂点から第2頂点までを最短距離で連結する頂点、角、または面を判別することができる。 After the first and second vertices have been identified, the image module 125 can determine the vertices, corners or faces that connect the first and second vertices between the first and second vertices. For example, the image module 125 can determine the vertices, angles, or faces that connect the first vertex to the second vertex at the shortest distance.

また、第1頂点または第2頂点が複数個の頂点を含む場合、イメージモジュール125は複数の第1頂点それぞれの動きの終結地点として特定された複数の第2頂点それぞれに達する所定の線に沿って、n個(nは1以上の自然数)の地点を特定することができる。イメージモジュール125は第1頂点と第2頂点間の所定の線に沿ってn個の地点を特定する動作は下記の多様な実施例を通じて具現され得、本文書に説明された実施例は例示に過ぎず、このような説明に限定されるものではない。 Further, when the first vertex or the second vertex includes a plurality of vertices, the image module 125 follows a predetermined line reaching each of the plurality of second vertices specified as the end points of the movements of the plurality of first vertices. Therefore, n points (n is a natural number of 1 or more) can be specified. The operation of the image module 125 to identify n points along a predetermined line between the first vertex and the second vertex can be embodied through various examples below, and the examples described in this document are exemplary. However, it is not limited to such an explanation.

一実施例によるとイメージモジュール125は第1頂点と第2頂点を最短距離で連結する角を構成する頂点を、それぞれn個の地点のうち一つとして特定することができる。例えば、まぶたが眼球によって閉じられる動きを具現する場合、第1頂点と第2頂点を連結する角が4個であれば、各角を連結するそれぞれの3個の頂点をn=0地点、n=1地点、n=2地点として特定することができる。 According to one embodiment, the image module 125 can specify the vertices constituting the angle connecting the first vertex and the second vertex at the shortest distance as one of n points. For example, in the case of embodying the movement of the eyelid being closed by the eyeball, if there are four angles connecting the first and second vertices, each of the three vertices connecting the corners is n = 0 point, n. It can be specified as = 1 point and n = 2 points.

また、第1頂点または第2頂点が複数個の頂点を含む場合、イメージモジュール125は複数の第1頂点それぞれの動きに対する終結地点Lとして特定された複数の第2頂点それぞれに達するまで連結された面上で、第1頂点から第2頂点までを連結する最短距離の仮想の線をn+1等分した地点を前記n個の地点として特定することができる。例えば、図8を参照する時、まぶたが眼球によって閉じられる動きを具現する場合、第1頂点から第2頂点に至るまで面(faces)にそって第1頂点と第2頂点を連結する最短距離の仮想の線を4等分する3個の地点をn=0地点、n=1地点、n=2地点として特定することができる。 Further, when the first vertex or the second vertex includes a plurality of vertices, the image module 125 is connected until each of the plurality of second vertices specified as the end point L for the movement of each of the plurality of first vertices is reached. On the surface, the points where the shortest virtual line connecting the first vertex to the second vertex is divided into n + 1 equal parts can be specified as the n points. For example, when referring to FIG. 8, when embodying the movement of the eyelid being closed by the eyeball, the shortest distance connecting the first vertex and the second vertex along the face from the first vertex to the second vertex. The three points that divide the virtual line of the above into four equal parts can be specified as n = 0 points, n = 1 points, and n = 2 points.

n個の地点が特定された後、イメージモジュール125は動きを具現するために、第1頂点がn個の地点を経て第2頂点に向かって移動するように第1頂点の位置データを制御することができる。また、イメージモジュール125は第1頂点から所定範囲内に位置する第1頂点以外の他の頂点が第1頂点にしたがって動くように制御することができ、これは多様な特徴点のアルゴリズムを通じて具現され得、特定の方法に限定されない。 After the n points have been identified, the image module 125 controls the position data of the first vertex so that the first vertex moves toward the second vertex through the n points in order to realize the movement. be able to. Further, the image module 125 can control the vertices other than the first vertex located within a predetermined range from the first vertex to move according to the first vertex, which is embodied through algorithms of various feature points. Obtained, not limited to a particular method.

イメージモジュール125は、第1頂点がn=0地点、n=1地点、n=2地点をそれぞれ経て最終的に第2頂点に達するように制御して自然な動きを具現することができる。この時、イメージモジュール125は下記の数学式1のように、第1頂点がn個の地点のうちいずれか一つに向かって移動するまで、第1頂点が動く速度を反映する速度関数を決定することができる。これに伴い、第1頂点が動く速度が実際の動きを反映できる特徴に基づいて決定されるため、3次元モデルの動きをより自然なように駆使することができる。 The image module 125 can realize a natural movement by controlling the first vertex to reach the second vertex after passing through n = 0 point, n = 1 point, and n = 2 points, respectively. At this time, the image module 125 determines a velocity function that reflects the speed at which the first vertex moves until the first vertex moves toward any one of the n points, as shown in the following mathematical formula 1. can do. Along with this, the speed at which the first vertex moves is determined based on the characteristics that can reflect the actual movement, so that the movement of the three-dimensional model can be used more naturally.

Figure 2021182369
Figure 2021182369

これに加えて、イメージモジュール125はキャラクタの顔または使用者の顔を反映する使用者モデルに第2客体を配置することができる。例えば、使用者モデルが複数の頂点からなる3次元モデルである場合、3次元モデルが含む一つ以上の頂点と第2客体との相対的距離が一定に維持されるように設定して、仮想の空間で第2客体とともに表現される使用者モデルを生成することができる。この場合、駆動情報によって使用者モデルの表情や形態が変形されても、第2客体は使用者モデルと一定の距離を維持したまま共に表現され得る。これに伴い、インタラクティブコンテンツがプレイされて使用者モデルが駆動情報によって動く場合、第2客体は使用者モデルと相対的距離が一定に維持されるように動きが表現され得る。 In addition to this, the image module 125 can place the second object in a user model that reflects the face of the character or the face of the user. For example, when the user model is a three-dimensional model consisting of a plurality of vertices, the relative distance between one or more vertices included in the three-dimensional model and the second object is set to be kept constant, and is virtual. It is possible to generate a user model that is represented together with the second object in the space of. In this case, even if the facial expression or form of the user model is deformed by the driving information, the second object can be expressed together while maintaining a certain distance from the user model. Along with this, when the interactive content is played and the user model moves by the driving information, the movement of the second object can be expressed so that the relative distance from the user model is kept constant.

また、イメージモジュール125は使用者から顔イメージの入力を受ける場合、AI顔認識装置のような多様な人工知能アルゴリズムに基づいて入力された顔イメージを分析して顔イメージの属性を示す第1タグ情報(ex.顔イメージの年齢、性別、人種、アクセサリー、ヘアスタイル、髪の色、瞳の色など)を抽出することができる。その後、キャラクタの顔に該当する客体情報にマッピングされている第2タグ情報(ex.キャラクタの年齢、性別、人種、アクセサリー、ヘアスタイル、髪の色、瞳の色など)と第1タグ情報とを比較して、第1タグ情報と対応する第2タグ情報が最も多いキャラクタに入力された顔イメージを代入することができる。この時、第2タグ情報はキャラクタの顔に該当する客体情報にマッピングされて既保存されている。またはイメージモジュール125が現存するAI顔認識装置のように、多様な人工知能アルゴリズムに基づいてキャラクタのイメージを分析してキャラクタの属性を示す第2タグ情報を抽出することができる。 Further, when the image module 125 receives the input of the face image from the user, the first tag indicating the attribute of the face image by analyzing the input face image based on various artificial intelligence algorithms such as the AI face recognition device. Information (ex. Age, gender, race, accessories, hairstyle, hair color, pupil color, etc. of face image) can be extracted. After that, the second tag information (ex. Character's age, gender, race, accessories, hairstyle, hair color, pupil color, etc.) and the first tag information mapped to the object information corresponding to the character's face. It is possible to substitute the face image input to the character having the largest amount of the first tag information and the corresponding second tag information by comparing with. At this time, the second tag information is mapped to the object information corresponding to the face of the character and is already stored. Alternatively, like the existing AI face recognition device of the image module 125, the image of the character can be analyzed based on various artificial intelligence algorithms to extract the second tag information indicating the attribute of the character.

また、イメージモジュール125は使用者から顔イメージの入力を受ける場合、入力を受けた顔イメージのトーンを調整したり写真フィルタを介して顔イメージを補正することができる。例えば、イメージモジュール125は使用者の顔イメージの入力を受けた場合、既存の写真補正アルゴリズムに基づいて顔トーンを補正することができ、既存の写真フィルタリング技術を通じて、顔イメージを所定の規則に沿って変形させるフィルタを適用して、可愛い顔、幼くなった顔、老いた顔などを適用してキャラクタの顔に代入することができる。 Further, when the image module 125 receives the input of the face image from the user, the tone of the input face image can be adjusted or the face image can be corrected via a photographic filter. For example, the image module 125 can correct the face tone based on the existing photo correction algorithm when the user's face image is input, and the face image is made according to a predetermined rule through the existing photo filtering technology. You can apply a transforming filter to apply a cute face, a young face, an old face, etc. and substitute it into the character's face.

また、イメージモジュール125は使用者からイメージの入力を受ける場合、入力を受けたイメージがキャラクタの顔に適合するかを判別することができる。例えば、イメージモジュール125は使用者のイメージの入力を受けた場合、AI顔認識装置のような多様な人工知能アルゴリズムに基づいて既設定された顔情報の規格から外れる場合(ex.顔が遮られていたり、目を閉じていたり、正面の顔が90%以上含まれていない場合等)、他の顔イメージを入力することを要請することができる。 Further, when the image module 125 receives an image input from the user, it can determine whether the input image matches the character's face. For example, when the image module 125 receives an input of a user's image, it deviates from a set face information standard based on various artificial intelligence algorithms such as an AI face recognition device (ex. Face is blocked). You can request to enter another facial image (for example, if you have closed your eyes, or if your front face does not contain more than 90%).

前述した実施例に係るインタラクティブコンテンツは、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で構成されて、インタラクティブコンテンツが進行されながら使用者がインタラクティブコンテンツをプレイする過程に対する情報だけでなく、使用者の顔、音声、プレイ特性などの使用者の個性をコンテンツの多様な要素に反映させることができる。これに伴い、使用者はストーリーの流れを選択できるだけでなく、使用者自身や家族がコンテンツの登場人物となってコンテンツをプレイするように、使用者の個性を入れた独自のコンテンツを生成することができる。これに加え、使用者はインタラクティブコンテンツのキャラクタの顔、キャラクタの音声などに、自身、友達、家族の顔や声が反映されて再生される新しいコンテンツを生成して所蔵したり共有したりすることができる。 The interactive content according to the above-described embodiment is composed of animation units including object information that identifies the object output to the video and driving information that defines the movement of the object, and the user can interact with the interactive content while the interactive content is in progress. Not only information about the process of playing the content, but also the individuality of the user such as the user's face, voice, and play characteristics can be reflected in various elements of the content. Along with this, the user can not only select the flow of the story, but also generate unique content with the user's personality so that the user and his / her family can play the content as characters of the content. Can be done. In addition to this, the user can generate, store, and share new content that is played by reflecting the faces and voices of himself, friends, and family on the character's face, character's voice, etc. of the interactive content. Can be done.

図10は、インタラクティブコンテンツ提供装置の使用環境に応じて客体情報の位置を変更する動作を説明するための例示図である。 FIG. 10 is an exemplary diagram for explaining an operation of changing the position of object information according to the usage environment of the interactive content providing device.

図10を参照すると、インタラクティブモジュール121は使用者がインタラクティブコンテンツをプレイする環境に応じて使用環境に応じてディスプレイ部140に出力される客体情報の位置を制御することができる。 Referring to FIG. 10, the interactive module 121 can control the position of the object information output to the display unit 140 according to the usage environment according to the environment in which the user plays the interactive content.

例えば、インタラクティブモジュール121は、図10の原本のコンテンツ規格(ex.横:縦=2.5:1サイズ)から図書形態のコンテンツ規格(ex.横:縦=5:1サイズ)への変更の入力を受けた場合、客体情報が出力されるべき位置が異なる規格別に既設定されている座標情報に基づいて、使用者の規格選択によって前記客体情報を規格に対応する座標情報によって出力して、一つのアニメーション単位で客体が出力される位置を制御することができる。また、インタラクティブモジュール121はコンテンツの規格別に客体が移動すべき程度を定義した関数に基本座標情報を代入して出力された結果座標情報に基づいて、客体が出力される位置を移動させることができる。 For example, the interactive module 121 changes from the content standard of the original of FIG. 10 (ex. Horizontal: vertical = 2.5: 1 size) to the content standard of the book form (ex. Horizontal: vertical = 5: 1 size). When input is received, the position where the object information should be output is different. Based on the coordinate information already set for each standard, the object information is output by the coordinate information corresponding to the standard by the user's standard selection. It is possible to control the position where the object is output in one animation unit. Further, the interactive module 121 can move the position where the object is output based on the result coordinate information output by substituting the basic coordinate information into the function that defines the degree to which the object should move according to the content standard. ..

また、インタラクティブモジュール121は拡張現実(AR)技術を利用して、周辺環境を出力する映像のレイヤー上に客体情報のイメージを出力することができる。例えば、インタラクティブモジュール121はカメラ部160を駆動して周辺環境を撮影した周辺映像の入力を受け、ディスプレイ部140内で客体情報が出力されるべき位置が既設定されている座標情報に基づいて客体情報を周辺映像のレイヤーの上部に配置してディスプレイ部140に出力することができる。 In addition, the interactive module 121 can output an image of object information on a layer of video that outputs the surrounding environment by using augmented reality (AR) technology. For example, the interactive module 121 drives the camera unit 160 to receive the input of the peripheral image of the surrounding environment, and the object is based on the coordinate information in which the position where the object information should be output in the display unit 140 is already set. The information can be arranged at the top of the layer of the peripheral image and output to the display unit 140.

またはインタラクティブモジュール121はカメラ部160を駆動して周辺環境を撮影した周辺映像の入力を受け、客体情報が前記周辺映像の位置のうち一地点にマッピングされるように設計された関数に基づいて客体情報を周辺映像のレイヤーの上部に配置してディスプレイ部に出力させることができる。この場合、客体情報は周辺映像の一地点にマッピングされているため、使用者がカメラを回して他の所を撮影しても客体はマッピングされた一地点から動かずに配置され得る。 Alternatively, the interactive module 121 drives the camera unit 160 to receive input of a peripheral image of the surrounding environment, and the object is based on a function designed so that the object information is mapped to one of the positions of the peripheral image. Information can be placed above the layer of the peripheral image and output to the display unit. In this case, since the object information is mapped to one point in the peripheral image, the object can be placed without moving from the mapped point even if the user turns the camera to take a picture of another place.

前述した実施例で客体情報の駆動情報が互いに既マッピングされているものとして説明したが、図11の実施例によると、人工知能技術を通じてマッピングさせることができる。 Although the driving information of the object information has already been mapped to each other in the above-described embodiment, according to the embodiment of FIG. 11, the mapping can be performed through artificial intelligence technology.

図11は一実施例に係る客体情報のクラスを人工知能モデルを通じて特定し、クラスに対応する駆動情報をマッピングさせる動作を説明するための例示図である。 FIG. 11 is an exemplary diagram for explaining an operation of specifying a class of object information according to an embodiment through an artificial intelligence model and mapping drive information corresponding to the class.

図11を参照すると、インタラクティブモジュール121は所定の人工知能モデルに入力された客体情報のクラス(ex.キャラクタ、電灯、木、自動車、鳥、時計などの客体を特定する情報)を判別し、判別されたクラスに対応する駆動情報をマッピングさせるように学習された人工知能モデルを利用することができる。インタラクティブモジュール121は、人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルが判別した第1駆動情報をマッピングさせてアニメーションDB111に保存することができる。 Referring to FIG. 11, the interactive module 121 discriminates and discriminates a class of object information (ex. Information that identifies an object such as a character, a light, a tree, a car, a bird, a clock, etc.) input to a predetermined artificial intelligence model. It is possible to utilize an artificial intelligence model trained to map the driving information corresponding to the given class. The interactive module 121 can input the first object information among the objects included in the interactive content into the artificial intelligence model, map the first driving information determined by the artificial intelligence model, and store it in the animation DB 111.

この時、人工知能モデルは入力された客体情報のクラス、およびクラスにマッピングされる駆動情報の種類(ex.振動する動き、明るさ調節、灯りを消す、位置動きの種類など、動きに対する定義)を共に判別してもよい。判別されたクラスに対応する駆動情報をマッピングさせるように学習された人工知能モデルを利用することができる。インタラクティブモジュール121は人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルが判別した第1駆動情報をマッピングさせることができる。インタラクティブモジュール121は人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルに出力されたクラスおよび駆動情報をマッピングさせてアニメーションDB111に保存することができる。 At this time, the artificial intelligence model is the class of the input object information and the type of drive information mapped to the class (ex. Definition for movement such as vibrating movement, brightness adjustment, turning off the light, type of position movement, etc.) May be discriminated together. An artificial intelligence model trained to map the driving information corresponding to the determined class can be used. The interactive module 121 can input the first object information among the objects included in the interactive content into the artificial intelligence model and map the first driving information determined by the artificial intelligence model. The interactive module 121 can input the first object information among the objects included in the interactive content into the artificial intelligence model, map the class and the driving information output to the artificial intelligence model, and store the information in the animation DB 111.

これに伴い、インタラクティブモジュール121は第1客体情報に対する使用者入力を感知すると、第1駆動情報による動きを具現することができる。 Along with this, when the interactive module 121 senses the user input to the first object information, it can embody the movement by the first drive information.

本文書の実施例に含まれた人工知能アルゴリズム、または人工知能モデルはマシンラーニングアルゴリズムを使うことができる。マシンラーニング(機械学習、Machine Learning)は人工知能分野で扱う多様な問題を定義し、それを解決する方法論を研究する分野を意味する。マシンラーニングは何らかの作業に対して、弛まない経験を通じてその作業に対する性能を高めるアルゴリズムと定義したりもする。 The artificial intelligence algorithms, or artificial intelligence models included in the examples in this document, can use machine learning algorithms. Machine learning (Machine Learning) is a field that defines various problems to be dealt with in the field of artificial intelligence and studies methodologies for solving them. Machine learning is also defined as an algorithm that enhances the performance of some work through unwavering experience.

人工ニューラルネットワーク(ANN:Artificial Neural Network)はマシンラーニングで使われるモデルであって、シナプスの結合でネットワークを形成した人工ニューロン(ノード)で構成される、問題解決能力を有するモデル全般を意味し得る。人工ニューラルネットワークは他のレイヤーのニューロン間の連結パターン、モデルパラメータを更新する学習過程、出力値を生成する活性化関数(Activation Function)等によって定義され得る。 An artificial neural network (ANN) is a model used in machine learning, and can mean a model in general that has problem-solving ability and is composed of artificial neurons (nodes) that form a network by connecting synapses. .. An artificial neural network can be defined by a connection pattern between neurons in other layers, a learning process for updating model parameters, an activation function for generating output values, and the like.

人工ニューラルネットワークは入力層(Input Layer)、出力層(Output Layer)、そして選択的に一つ以上の隠れ層(Hidden Layer)を含むことができる。各層は一つ以上のニューロンを含み、人工ニューラルネットワークはニューロンとニューロンを連結するシナプスを含むことができる。人工ニューラルネットワークで各ニューロンはシナプスを通じて入力される入力信号、重み、バイアスに対する活性関数の関数値を出力することができる。 The artificial neural network can include an input layer, an output layer, and optionally one or more hidden layers. Each layer contains one or more neurons, and artificial neural networks can contain neurons and synapses that connect them. In an artificial neural network, each neuron can output the function value of the activation function for the input signal, weight, and bias input through synapses.

モデルパラメータは学習を通じて決定されるパラメータを意味し、シナプス連結の重みとニューロンのバイアスなどが含まれる。そして、ハイパーパラメータはマシンラーニングアルゴリズムで学習前に設定されなければならないパラメータを意味し、学習率(Learning Rate)、繰り返し回数、ミニバッチの大きさ、初期化関数などが含まれる。 Model parameters mean parameters determined through learning, including synaptic connection weights and neuronal bias. The hyperparameter means a parameter that must be set before learning by a machine learning algorithm, and includes a learning rate, a number of iterations, a mini-batch size, an initialization function, and the like.

人工ニューラルネットワークの学習目的は、損失関数を最小化するモデルパラメータを決定するものと見ることができる。損失関数は人工ニューラルネットワークの学習過程で最適なモデルパラメータを決定するための指標として利用され得る。 The learning objective of an artificial neural network can be seen as determining the model parameters that minimize the loss function. The loss function can be used as an index for determining the optimum model parameters in the learning process of the artificial neural network.

マシンラーニングは学習方式により教師あり学習(Supervised Learning)、教師なし学習(Unsupervised Learning)、強化学習(Reinforcement Learning)に分類することができる。 Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method.

教師あり学習は学習データに対するラベル(label)が与えられた状態で人工ニューラルネットワークを学習させる方法を意味し、ラベルとは、学習データが人工ニューラルネットワークに入力される場合、人工ニューラルネットワークが推論して出さなければならない正解(または結果値)を意味し得る。教師なし学習は学習データに対するラベルが与えられない状態で人工ニューラルネットワークを学習させる方法を意味し得る。強化学習はある環境の中で定義されたエージェントが各状態で累積補償を最大化する行動あるいは行動順序を選択するように学習させる学習方法を意味し得る。 Supervised learning means a method of training an artificial neural network with a label for the training data, and the label is inferred by the artificial neural network when the training data is input to the artificial neural network. It can mean the correct answer (or result value) that must be given. Unsupervised learning can mean a method of training an artificial neural network without giving a label to the training data. Reinforcement learning can mean a learning method in which an agent defined in an environment is trained to select an action or action sequence that maximizes cumulative compensation in each state.

人工ニューラルネットワークの中で複数の隠れ層を含む深層ニューラルネットワーク(DNN:Deep Neural Network)で具現されるマシンラーニングをディープラーニング(深層学習、Deep Learning)とも呼び、ディープラーニングはマシンラーニングの一部である。以下で、マシンラーニングはディープラーニングを含む意味で使われ得る。 Machine learning embodied in a deep neural network (DNN: Deep Natural Network) that includes multiple hidden layers in an artificial neural network is also called deep learning (deep learning), and deep learning is a part of machine learning. be. In the following, machine learning can be used to include deep learning.

一方、ディープラーニングアルゴリズムの他に、decision tree(DT)、k−nearest neighbor(KNN)、logistic regression(LR)、multilayer perceptron(MLP)、random forest(RF)、support vector machine(SVM)およびlassoなど、使うパラメータの種類や数に応じて適合なアルゴリズムを選択して使うことができる。 On the other hand, in addition to the deep learning algorithm, decision tree (DT), k-nearest neighbor (KNN), logistic regression (LR), multilayer perceptron (MLP), random forest (RF), supportM. , You can select and use the appropriate algorithm according to the type and number of parameters to be used.

図12は、本発明の一実施例に係るインタラクティブコンテンツ提供方法のフローチャートである。図12によるインタラクティブコンテンツ提供方法の各段階は、図1を通じて説明されたインタラクティブコンテンツ提供装置100により遂行され得、各段階を説明すると次の通りである。 FIG. 12 is a flowchart of an interactive content providing method according to an embodiment of the present invention. Each step of the interactive content providing method according to FIG. 12 can be performed by the interactive content providing device 100 described through FIG. 1, and each step will be described as follows.

前記装置100は映像に出力される客体を特定する客体情報と、客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、客体が駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供することができる(S1210)。 The device 100 produces interactive content in which the object is played while being moved by the driving information as a plurality of animation units including the object information for specifying the object output to the video and the driving information defining the movement of the object are reproduced. It can be provided to the user (S1210).

前記装置100はインタラクティブコンテンツに反映される前記使用者情報の入力を受けることができる(S1220)。 The device 100 can receive the input of the user information reflected in the interactive content (S1220).

前記装置100は客体情報のうち一部に使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させてインタラクティブコンテンツをプレイさせることができる(S1230)。 The device 100 can insert user information into a part of the object information and reproduce at least one of the plurality of animation units to play interactive content (S1230).

一方、前述した各段階を実施するための過程は図1〜図11と共に説明したため、重複した説明は省略する。 On the other hand, since the process for carrying out each of the above-mentioned steps has been described with FIGS. 1 to 11, duplicated description will be omitted.

前述した本発明の実施例は多様な手段を通じて具現され得る。例えば、本発明の実施例は、ハードウェア、ファームウェア(firmware)、ソフトウェアまたはそれらの結合などによって具現され得る。 The embodiments of the present invention described above can be embodied through various means. For example, embodiments of the present invention may be embodied in hardware, firmware, software or combinations thereof.

ハードウェアによる具現の場合、本発明の実施例に係る方法は、一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロ・プロセッサなどによって具現され得る。 In the case of hardware implementation, the method according to the embodiment of the present invention is one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital SignalProcessing). It can be embodied by Devices), FPGAs (Field Programmable Gate Arrays), processors, controllers, microprocessors, microprocessors and the like.

ファームウェアやソフトウェアによる具現の場合、本発明の実施例に係る方法は、以上で説明された機能または動作を遂行するモジュール、手続きまたは関数などの形態で具現され得る。ソフトウェアコードなどが記録されたコンピュータプログラムは、コンピュータ可読記録媒体またはメモリユニットに保存されてプロセッサによって駆動され得る。メモリユニットはプロセッサの内部または外部に位置して、すでに公知とされている多様な手段によってプロセッサとデータをやり取りすることができる。 In the case of realization by firmware or software, the method according to the embodiment of the present invention may be embodied in the form of a module, procedure or function performing the function or operation described above. A computer program in which software code or the like is recorded may be stored in a computer-readable recording medium or a memory unit and driven by a processor. The memory unit is located inside or outside the processor and can exchange data with the processor by various means already known.

また、本発明に添付されたブロック図の各ブロックとフローチャートの各段階の組み合わせは、コンピュータプログラムインストラクションによって遂行されてもよい。これらコンピュータプログラムインストラクションは、汎用コンピュータ、特殊用コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコードプロセッサに搭載され得るため、コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコードプロセッサを通じて遂行されるそのインストラクションが、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行する手段を生成するようになる。これらコンピュータプログラムインストラクションは、特定の方法で機能を具現するために、コンピュータまたはその他のプログラム可能なデータプロセシング装備を目指すことができるコンピュータ利用可能またはコンピュータ読み出し可能メモリに保存されることも可能であるため、そのコンピュータ利用可能またはコンピュータ読み出し可能メモリに保存されたインストラクションは、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションは、コンピュータまたはその他のプログラム可能なデータプロセシング装備上に搭載されることも可能であるため、コンピュータまたはその他のプログラム可能なデータプロセシング装備上で一連の動作段階が遂行されてコンピュータで実行されるプロセスを生成してコンピュータまたはその他のプログラム可能なデータプロセシング装備を遂行するインストラクションは、ブロック図の各ブロックおよびフローチャートの各段階で説明された機能を遂行するための段階を提供することも可能である。 Further, the combination of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by a computer program instruction. These computer program instructions can be mounted on a general purpose computer, specialty computer or other encode processor with programmable data processing, so that the instructions performed through a computer or other encode processor with programmable data processing are performed. , Will generate means to perform the functions described at each block of the block diagram or at each stage of the flowchart. Because these computer program instructions can also be stored in computer-enabled or computer-readable memory that can be aimed at computers or other programmable data processing equipment to embody functionality in a particular way. The instructions stored in the computer-available or computer-readable memory can also produce manufactured items that include instructional means to perform the functions described at each block of the block diagram or at each stage of the flowchart. .. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps can be performed on the computer or other programmable data processing equipment and performed on the computer. Instructions that generate the process to be performed to perform a computer or other programmable data processing equipment can also provide steps to perform the functions described at each block of the block diagram and at each stage of the flowchart. Is.

併せて、各ブロックまたは各段階は、特定された論理的機能を遂行するための一つ以上の遂行可能なインストラクションを含むモジュール、セグメントまたはコードの一部を示すことができる。また、いくつかの代替実施例では、ブロックまたは段階で言及された機能が順序から外れて発生することも可能であることを注目しなければならない。例えば、続けて図示されている二つのブロックまたは段階は、実は実質的に同時に遂行されることも可能であり、またはそのブロックまたは段階が時々該当する機能により逆順で遂行されることも可能である。 Together, each block or stage can represent a portion of a module, segment or code that contains one or more performable instructions to perform the specified logical function. It should also be noted that in some alternative embodiments it is possible for the features mentioned in the block or stage to occur out of order. For example, two blocks or stages shown in succession can actually be performed at substantially the same time, or the blocks or stages can sometimes be performed in reverse order by the corresponding function. ..

このように、本発明が属する技術分野の当業者は、本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態に実施できることが理解できるはずである。したがって、以上で記述した実施例は、すべての面において例示的なものであり、限定的なものではないと理解されるべきである。本発明の範囲は詳細な説明よりは後述する特許請求の範囲によって示され、特許請求の範囲の意味および範囲、そしてその等価概念から導き出されるすべての変更または変形された形態も本発明の範囲に含まれるものと解釈されるべきである。 As described above, those skilled in the art to which the present invention belongs should understand that the present invention can be implemented in other concrete forms without changing its technical idea or essential features. Therefore, it should be understood that the examples described above are exemplary in all respects and are not limiting. The scope of the present invention is shown by the scope of claims described later rather than the detailed description, and the meaning and scope of the claims and all modified or modified forms derived from the equivalent concept thereof are also included in the scope of the present invention. It should be interpreted as being included.

100:インタラクティブコンテンツ提供装置
110:メモリ
111:アニメーションDB
113:インタラクティブDB
115:命令語DB
120:プロセッサ
121:インタラクティブモジュール
123:音声字幕モジュール
125:イメージモジュール
130:入力インターフェース
140:ディスプレイ部
150:通信インターフェース
160:カメラ部
100: Interactive content providing device 110: Memory 111: Animation DB
113: Interactive DB
115: Command word DB
120: Processor 121: Interactive module 123: Audio subtitle module 125: Image module 130: Input interface 140: Display unit 150: Communication interface 160: Camera unit

Claims (25)

インタラクティブコンテンツ提供装置が遂行するインタラクティブコンテンツ提供方法において、
映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する段階;
前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける段階;および
前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる段階を含む、インタラクティブコンテンツ提供方法。
In the interactive content providing method performed by the interactive content providing device,
As a plurality of animation units including the object information that identifies the object output to the video and the driving information that defines the movement of the object are played, the user uses interactive content in which the object is played while being moved by the driving information. Stage to provide to;
The stage of receiving the input of the user information reflected in the interactive content; and the user information is inserted into a part of the object information, and at least one of the plurality of animation units is reproduced to play the interactive content. An interactive content delivery method that includes the stage of playing content.
前記複数のアニメーション単位は、
既設定された順序で再生されるアニメーション方式;または前記複数のアニメーション単位のうちいずれか一つを再生する選択を受ける複数の選択項目に対する前記使用者の第1入力または所定のアニメーション単位の再生中に出力される客体情報に対する使用者の第2入力により、それぞれの入力に基づいて次のアニメーション単位を再生するように定められた分岐アニメーション方式;で再生され、
前記方法は、
前記分岐アニメーション方式に該当するアニメーション単位が再生される場合、前記複数の選択項目の出力に対する第1入力を感知したり、または前記再生中に出力される客体情報に対する第2入力を感知する段階;および
前記第1入力または前記第2入力に対応するアニメーション単位を再生させる段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The plurality of animation units are
Animation method played in a preset order; or during playback of the user's first input or a predetermined animation unit for a plurality of selection items that are selected to play any one of the plurality of animation units. By the user's second input to the object information output to, it is played back in a branch animation scheme; which is defined to play the next animation unit based on each input.
The method is
When the animation unit corresponding to the branch animation method is reproduced, the step of sensing the first input for the output of the plurality of selection items or sensing the second input for the object information output during the reproduction; The interactive content providing method according to claim 1, further comprising the step of reproducing the first input or the animation unit corresponding to the second input.
前記方法は、
前記インタラクティブコンテンツのプレイ中に前記使用者入力を保存する段階;および
前記プレイが終了すると前記入力に対応する順序および前記使用者情報によってアニメーション単位が再生される第2コンテンツを生成する段階をさらに含む、請求項2に記載のインタラクティブコンテンツ提供方法。
The method is
It further includes a step of storing the user input during the play of the interactive content; and a step of generating a second content in which the animation unit is played by the sequence corresponding to the input and the user information when the play is finished. , The method for providing interactive content according to claim 2.
前記インタラクティブコンテンツは、
前記複数のアニメーション単位とは別個に前記インタラクティブコンテンツがプレイされる途中で前記客体に対する入力が感知される場合、前記客体に発生する動作を定義した客体反応アニメーション情報をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The interactive content is
The first aspect of claim 1, further comprising object reaction animation information defining an action that occurs in the object when an input to the object is sensed while the interactive content is being played separately from the plurality of animation units. How to provide interactive content.
前記方法は、
前記使用者が入力した入力情報に対するイベントの種類、入力時間および入力値に対する情報を特定して、前記特定された情報をマッピングしたプレイ情報を生成する段階;および
前記プレイ情報が含むイベントの種類、入力時間および入力値の情報によって前記インタラクティブコンテンツが再生される映像である第2コンテンツを生成する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
The stage of specifying the type of event for the input information input by the user, the information for the input time and the input value, and generating the play information mapping the specified information; and the type of event included in the play information. The method for providing interactive content according to claim 1, further comprising a step of generating a second content which is an image in which the interactive content is reproduced based on information of an input time and an input value.
前記方法は、
前記アニメーション単位を構成する前記客体情報および前記駆動情報を使用者に提供して、前記客体情報、前記駆動情報または前記アニメーション単位の再生順序に対する使用者の編集情報の入力を受ける段階をさらに含み、
前記インタラクティブコンテンツをプレイさせる段階は、
前記入力された編集情報が反映されたアニメーション単位に対する情報を含むインタラクティブコンテンツをプレイさせる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
The step further includes providing the user with the object information and the driving information constituting the animation unit, and receiving input of the object information, the driving information, or the user's editing information for the reproduction order of the animation unit.
The stage of playing the interactive content is
The method for providing interactive content according to claim 1, further comprising a step of playing interactive content including information for an animation unit to which the input editing information is reflected.
前記アニメーション単位は、
前記映像で出力される音声情報および前記映像で前記音声情報に対応して出力される字幕情報をさらに含み、
前記音声情報は、
既設定された時間以下の再生時間を有する音声ファイルを含み、
前記方法は、
前記映像で前記音声情報が再生される場合、前記再生時間の間前記音声情報に対応する字幕情報を前記映像に出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The animation unit is
Further including the audio information output by the video and the subtitle information output corresponding to the audio information in the video.
The voice information is
Includes audio files with a playback time less than or equal to the preset time
The method is
The interactive content providing method according to claim 1, further comprising a step of outputting the subtitle information corresponding to the audio information to the video when the audio information is reproduced in the video.
前記方法は、
前記映像で出力される字幕に対する入力が感知されると、前記字幕情報に対応する前記使用者音声の入力を受ける段階;
前記感知された字幕情報に対応する音声情報に前記使用者音声を挿入する段階;および
前記プレイが終了すると前記使用者音声が挿入された音声情報が前記字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成する段階をさらに含む、請求項7に記載のインタラクティブコンテンツ提供方法。
The method is
When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information;
The stage of inserting the user's voice into the voice information corresponding to the sensed subtitle information; and the animation unit in which the voice information into which the user's voice is inserted is output corresponding to the subtitle information when the play is completed. The interactive content providing method according to claim 7, further comprising a step of generating a second content to be reproduced.
前記映像で出力される字幕に対する入力が感知されると、前記字幕情報に対応する前記使用者音声の入力を受ける段階は、
前記字幕情報の前に出力される字幕を探索する第1ボタン、および前記字幕情報の後に出力される字幕を探索する第2ボタンを出力する段階;
前記第1ボタンまたは前記第2ボタンに対する使用者入力に基づいて前の字幕または次の字幕を出力する段階;および
前記第1ボタンまたは前記第2ボタンに対する使用者入力に基づいて出力される字幕情報に対応する前記使用者音声の入力を受ける段階を含む、請求項8に記載のインタラクティブコンテンツ提供方法。
When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information is
A step of outputting a first button for searching for a subtitle output before the subtitle information and a second button for searching for a subtitle output after the subtitle information;
The step of outputting the previous subtitle or the next subtitle based on the user input for the first button or the second button; and the subtitle information output based on the user input for the first button or the second button. The interactive content providing method according to claim 8, which comprises the step of receiving the input of the user voice corresponding to the above.
前記映像で出力される字幕に対する入力が感知されると、前記字幕情報に対応する前記使用者音声の入力を受ける段階は、
既設定された時間以上に前記使用者音声の入力を受ける場合、前記使用者に課金を賦課する段階を含む、請求項9に記載のインタラクティブコンテンツ提供方法。
When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information is
The interactive content providing method according to claim 9, further comprising a step of imposing a charge on the user when the user's voice is input for a time longer than a preset time.
前記方法は、
前記使用者情報が前記使用者の顔イメージを含む場合、前記顔イメージを標準化させて前記客体情報のうちキャラクタの顔に該当する客体情報に前記標準化された顔イメージを代入する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
When the user information includes the user's face image, the step of standardizing the face image and substituting the standardized face image into the object information corresponding to the character's face among the object information is further included. The method for providing interactive content according to claim 1.
前記代入する段階は、
前記使用者から顔イメージが入力される場合、顔イメージが所定の角度、形態、または表情を形成するように変形されたイメージを出力するように学習された所定の人工知能モデルを利用して、前記顔イメージが所定の角度、形態、または表情を形成するように標準化する段階;および
前記標準化された顔イメージの特徴点を頂点(vertex)として特定する段階;
前記頂点を連結して構成されたメッシュ(mesh)構造で構成された3次元モデルを形成する段階;
前記客体情報のうちキャラクタの顔に該当する客体情報に前記3次元モデルを代入する段階を含む、請求項11に記載のインタラクティブコンテンツ提供方法。
The substituting step is
When a face image is input from the user, a predetermined artificial intelligence model trained to output an image in which the face image is deformed to form a predetermined angle, morphology, or facial expression is utilized. The step of standardizing the facial image to form a predetermined angle, morphology, or facial expression; and the step of identifying the feature points of the standardized facial image as vertex;
The stage of forming a three-dimensional model composed of a mesh structure composed by connecting the vertices;
The interactive content providing method according to claim 11, further comprising a step of substituting the three-dimensional model into the object information corresponding to the face of the character among the object information.
前記インタラクティブコンテンツをプレイさせる段階は、
前記3次元モデルを構成する頂点を前記駆動情報によって移動して動きまたは表情を具現する段階を含む、請求項12に記載のインタラクティブコンテンツ提供方法。
The stage of playing the interactive content is
The interactive content providing method according to claim 12, further comprising a step of moving the vertices constituting the three-dimensional model by the driving information to realize a movement or a facial expression.
前記動きまたは表情を具現する段階は、
前記3次元モデルを構成する頂点のうち動きが開始される第1頂点と前記動きが終結する第2頂点を特定する段階;および
前記3次元モデルを構成する頂点が前記駆動情報に基づいて移動して動きや表情を実装するように、前記第1頂点が前記第2頂点に向かって移動するように制御する段階を含む、請求項13に記載のインタラクティブコンテンツ提供方法。
The stage of embodying the movement or facial expression is
The stage of identifying the first vertex where the movement starts and the second vertex where the movement ends among the vertices constituting the 3D model; and the vertices constituting the 3D model move based on the driving information. 13. The method of providing interactive content according to claim 13, comprising a step of controlling the first vertex to move toward the second vertex so as to implement movement and expression.
前記動きまたは表情を具現する段階は、
前記3次元モデルを構成する頂点のうち動きが開始される第1頂点と前記動きが終結する第2頂点を特定する段階、前記第1頂点は複数個の頂点を含み、前記複数個の頂点は互いに異なる少なくとも一つの頂点と連結されており、前記第2頂点は前記複数個と同一個数の頂点を含む;
前記3次元モデルを構成する面(face)のうち前記複数の第1頂点それぞれの動きの終結地点として特定された前記複数の第2頂点それぞれに達するまでを最短距離で連結する面を判別する段階;
前記面に基づいて前記第1頂点から前記第2頂点に達する所定の線に沿ってn個(nは1以上の自然数)の地点を特定する段階;および
前記動きを具現する場合、前記第1頂点が前記n個の地点を経て前記第2頂点に向かって移動するように制御する段階を含む、請求項13に記載のインタラクティブコンテンツ提供方法。
The stage of embodying the movement or facial expression is
At the stage of specifying the first vertex at which the movement starts and the second vertex at which the movement ends among the vertices constituting the three-dimensional model, the first vertex includes a plurality of vertices, and the plurality of vertices are It is concatenated with at least one vertex that is different from each other, and the second vertex contains the same number of vertices as the plurality;
A step of determining a surface that connects the faces constituting the three-dimensional model at the shortest distance until each of the plurality of second vertices specified as the end point of the movement of each of the plurality of first vertices is reached. ;
A step of identifying n points (n is a natural number of 1 or more) along a predetermined line from the first vertex to the second vertex based on the surface; and when the movement is realized, the first 13. The interactive content providing method according to claim 13, comprising a step of controlling the vertices to move toward the second vertex through the n points.
前記客体情報のうちキャラクタの顔に該当する客体情報に前記標準化された顔イメージを代入する段階は、
前記客体情報のうち基本キャラクタに加えて追加のキャラクタに顔イメージを代入する選択を受ける場合、前記使用者に課金を賦課する段階を含む、請求項11に記載のインタラクティブコンテンツ提供方法。
The stage of substituting the standardized face image into the object information corresponding to the character's face in the object information is
The interactive content providing method according to claim 11, further comprising a step of imposing a charge on the user when receiving a selection of substituting a face image for an additional character in addition to the basic character in the object information.
前記方法は、
前記使用者情報が前記使用者の顔イメージを含む場合、所定の人工知能アルゴリズムに基づいて前記顔イメージを分析して前記顔イメージの属性を示す第1タグ情報を抽出する段階;および
キャラクタの顔に該当する客体情報にマッピングされている第2タグ情報と前記第1タグ情報とを比較して、対応する前記第1および第2タグ情報が最も多いキャラクタに前記顔イメージを代入する段階をさらに含み、
前記第2タグ情報は、
前記キャラクタの顔に該当する客体情報にマッピングされて既保存されているか、または所定の人工知能アルゴリズムに基づいて前記キャラクタのイメージから抽出された属性情報である、請求項11に記載のインタラクティブコンテンツ提供方法。
The method is
When the user information includes the user's face image, the step of analyzing the face image based on a predetermined artificial intelligence algorithm to extract the first tag information indicating the attribute of the face image; and the character's face. Further, a step of comparing the second tag information mapped to the object information corresponding to the above with the first tag information and substituting the face image into the character having the most corresponding first and second tag information. Including,
The second tag information is
The interactive content provision according to claim 11, which is attribute information that is mapped to object information corresponding to the character's face and has already been saved, or is attribute information extracted from the character's image based on a predetermined artificial intelligence algorithm. Method.
前記方法は、
前記使用者情報が前記使用者の顔イメージを含む場合、前記顔イメージのトーンを補正する段階;および
前記顔イメージを所定の規則に沿って変形させる顔フィルタを適用する段階をさらに含む、請求項11に記載のインタラクティブコンテンツ提供方法。
The method is
A claim further comprising a step of correcting the tone of the face image when the user information includes the face image of the user; and a step of applying a face filter that deforms the face image according to a predetermined rule. 11. The method for providing interactive content according to 11.
前記方法は、
前記使用者情報が前記使用者の顔イメージを含む場合、所定の人工知能アルゴリズムに基づいて既設定された顔情報の規格から外れる場合、他の顔イメージを入力することを要請する段階をさらに含む、請求項11に記載のインタラクティブコンテンツ提供方法。
The method is
If the user information includes the user's face image, and if the user information deviates from the standard of the face information already set based on the predetermined artificial intelligence algorithm, the step of requesting the input of another face image is further included. , The method for providing interactive content according to claim 11.
前記方法は、
前記客体情報が出力されるべき位置が異なる規格別に既設定されている座標情報に基づいて、使用者の前記規格の選択によって前記客体情報を前記規格に対応する座標情報によって出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
It further includes a step of outputting the object information by the coordinate information corresponding to the standard by the user's selection of the standard based on the coordinate information already set for each standard in which the position where the object information should be output is different. , The method for providing interactive content according to claim 1.
前記方法は、
前記インタラクティブコンテンツ提供装置のカメラ部を駆動して周辺環境を撮影した周辺映像の入力を受ける段階;
前記インタラクティブコンテンツ提供装置のディスプレイ部内で前記客体情報が出力されるべき位置が既設定されている座標情報に基づいて、前記客体情報を前記周辺映像のレイヤーの上部に配置して前記ディスプレイ部に出力したり、または前記客体情報が前記周辺映像の位置のうち一地点にマッピングされるように設計された関数に基づいて、前記客体情報を前記周辺映像のレイヤーの上部に配置して前記ディスプレイ部に出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
At the stage of driving the camera unit of the interactive content providing device and receiving the input of the peripheral image of the surrounding environment;
Based on the coordinate information in which the position where the object information should be output is already set in the display unit of the interactive content providing device, the object information is arranged on the upper part of the layer of the peripheral image and output to the display unit. Or, based on a function designed so that the object information is mapped to one of the positions of the peripheral image, the object information is arranged on the upper part of the layer of the peripheral image and placed on the display unit. The interactive content providing method according to claim 1, further comprising an output step.
前記方法は、
入力された客体情報のクラスを判別して前記クラスに対応する駆動情報をマッピングさせるように学習された所定の人工知能モデルを利用して、前記人工知能モデルに第1客体情報を入力し、前記人工知能モデルが判別した第1駆動情報をマッピングさせる段階;および
前記第1客体情報に対応する客体に対する前記使用者入力を感知すると、第1駆動情報を駆動させる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The method is
Using a predetermined artificial intelligence model learned to discriminate the class of the input object information and map the drive information corresponding to the class, the first object information is input to the artificial intelligence model, and the above-mentioned The first aspect of claim 1, comprising a step of mapping the first drive information determined by the artificial intelligence model; and a step of driving the first drive information when the user input to the object corresponding to the first object information is sensed. How to provide interactive content.
前記客体情報は、
キャラクタの顔または使用者の顔を反映する使用者モデルおよび前記使用者モデルに対する相対的距離に基づいて前記使用者モデルと共に表現され得る第2客体に対する情報をさらに含み、
前記インタラクティブコンテンツをプレイさせる段階は、
前記駆動情報によって前記使用者モデルが動く場合、前記使用者モデルに含まれた一つ以上の頂点と前記第2客体との相対的距離が一定に維持されるように設定して前記インタラクティブコンテンツをプレイさせる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。
The object information is
It further includes information about a user model that reflects the character's face or the user's face and a second object that can be represented with the user model based on the relative distance to the user model.
The stage of playing the interactive content is
When the user model is moved by the driving information, the interactive content is set so that the relative distance between one or more vertices included in the user model and the second object is kept constant. The interactive content providing method according to claim 1, which includes a stage of playing.
インタラクティブコンテンツ提供装置において、
使用者入力を感知する入力インターフェース;映像を出力するディスプレイ部;所定の動作を遂行するようにする命令語を保存する一つ以上のメモリ;および前記一つ以上のメモリと動作可能なように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
前記一つ以上のプロセッサは、
前記映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する動作;
前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける動作;および
前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる動作を遂行する、インタラクティブコンテンツ提供装置。
In the interactive content providing device
An input interface that senses user input; a display unit that outputs video; one or more memories that store instruction words that perform a predetermined operation; and concatenated so as to be able to operate with the one or more memories. Includes one or more processors configured to execute the instruction word
The one or more processors mentioned above
As a plurality of animation units including the object information that identifies the object output to the video and the driving information that defines the movement of the object are played, the interactive content that the object is played while moving by the driving information is used. Actions to be provided to the person;
The operation of receiving the input of the user information reflected in the interactive content; and the user information is inserted into a part of the object information, and at least one of the plurality of animation units is reproduced to play the interactive content. An interactive content providing device that performs the action of playing content.
請求項1に記載された方法をプロセッサが遂行するようにする命令語を含むコンピュータプログラムが記録された、コンピュータ読み取り可能記録媒体。 A computer-readable recording medium in which a computer program including an instruction word that enables a processor to perform the method according to claim 1 is recorded.
JP2020204006A 2020-05-18 2020-12-09 Method and device for providing interactive content re-programmed on the basis of playing of user Pending JP2021182369A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0059105 2020-05-18
KR1020200059105A KR102180576B1 (en) 2020-05-18 2020-05-18 Method and apparatus for providing re-programmed interactive content based on user playing

Publications (1)

Publication Number Publication Date
JP2021182369A true JP2021182369A (en) 2021-11-25

Family

ID=73697527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020204006A Pending JP2021182369A (en) 2020-05-18 2020-12-09 Method and device for providing interactive content re-programmed on the basis of playing of user

Country Status (4)

Country Link
US (1) US11402975B2 (en)
JP (1) JP2021182369A (en)
KR (1) KR102180576B1 (en)
WO (1) WO2021235636A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180576B1 (en) * 2020-05-18 2020-11-18 주식회사 일루니 Method and apparatus for providing re-programmed interactive content based on user playing
US20210375023A1 (en) * 2020-06-01 2021-12-02 Nvidia Corporation Content animation using one or more neural networks
US11461970B1 (en) 2021-03-15 2022-10-04 Tencent America LLC Methods and systems for extracting color from facial image
KR20230063457A (en) 2021-11-02 2023-05-09 신주엽 Method and device for providing image progress information according to walking in place
KR102405062B1 (en) * 2021-11-26 2022-06-07 주식회사 일루니 Method and apparatus for providing interactive content based on generating and playing subtitles for reading along

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (en) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd Device and method for generating animation
JPH09198522A (en) * 1996-01-22 1997-07-31 Mitsubishi Electric Corp Animation production system
JP2000322590A (en) * 1999-05-14 2000-11-24 Sharp Corp Method and device for animation processing and recording medium with animation processing program recorded thereon
JP2001292305A (en) * 2000-02-02 2001-10-19 Casio Comput Co Ltd Image data synthesizer, image data synthesis system, image data synthesis method and recording medium
WO2003038759A1 (en) * 2001-10-29 2003-05-08 Sharp Kabushiki Kaisha Cellular terminal, method for creating animation on cellular terminal, and animation creation system
JP2004071013A (en) * 2002-08-05 2004-03-04 Nippon Hoso Kyokai <Nhk> Method, device and program for recording audio data with video
JP2004072776A (en) * 2003-08-07 2004-03-04 Sharp Corp Cellular phone unit, method and program for controlling the unit, and computer-readable recording medium on which the program is recorded
JP3124018U (en) * 2006-05-23 2006-08-03 株式会社ダイワ通商 Character training game system
JP2008217447A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Content generation device and content generation program
JP2008304999A (en) * 2007-06-05 2008-12-18 Konami Digital Entertainment:Kk Image processor, image processing method and program
JP2011170891A (en) * 2000-08-30 2011-09-01 Microsoft Corp Facial image processing method and system

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
US20080158230A1 (en) * 2006-12-29 2008-07-03 Pictureal Corp. Automatic facial animation using an image of a user
WO2010129263A2 (en) * 2009-04-27 2010-11-11 Sonoma Data Solutions Llc A method and apparatus for character animation
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
JP2012181704A (en) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc Information processor and information processing method
KR101814747B1 (en) * 2011-05-12 2018-01-03 에스케이플래닛 주식회사 Method for providing image authoring based on cloud computing, and service apparatus therefor
KR20130093186A (en) * 2012-02-14 2013-08-22 주식회사 와이즈게코 Apparatus for making a moving image with interactive character
US9245176B2 (en) * 2012-08-01 2016-01-26 Disney Enterprises, Inc. Content retargeting using facial layers
US10019825B2 (en) * 2013-06-05 2018-07-10 Intel Corporation Karaoke avatar animation based on facial motion data
US20180276185A1 (en) * 2013-06-27 2018-09-27 Plotagon Ab Corporation System, apparatus and method for formatting a manuscript automatically
JP6462386B2 (en) * 2015-02-05 2019-01-30 任天堂株式会社 Program, communication terminal and display method
US9600742B2 (en) * 2015-05-05 2017-03-21 Lucasfilm Entertainment Company Ltd. Determining control values of an animation model using performance capture
KR101728099B1 (en) * 2016-01-29 2017-04-19 정수진 Product Information Providing Apparatus for Electrical Transaction using Scenario-based Combined Story Contents
US10163244B2 (en) * 2016-02-03 2018-12-25 Adobe Systems Incorporation Creating reusable and configurable digital whiteboard animations
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
US20180047200A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
US20180188905A1 (en) * 2017-01-04 2018-07-05 Google Inc. Generating messaging streams with animated objects
KR101902553B1 (en) * 2017-09-07 2018-09-28 박병화 Terminal for providing storytelling contents tool and Method for providing storytelling
US20190114037A1 (en) * 2017-10-17 2019-04-18 Blend Systems, Inc. Systems and methods for distributing customized avatars responsive to events
KR102517427B1 (en) * 2017-11-29 2023-04-03 스냅 인코포레이티드 Graphic rendering for electronic messaging applications
KR102661019B1 (en) * 2018-02-23 2024-04-26 삼성전자주식회사 Electronic device providing image including 3d avatar in which motion of face is reflected by using 3d avatar corresponding to face and method for operating thefeof
US11231843B2 (en) * 2018-03-05 2022-01-25 E-Sig Marketing LLC Animated slides editor for generating an animated email signature
US10755463B1 (en) * 2018-07-20 2020-08-25 Facebook Technologies, Llc Audio-based face tracking and lip syncing for natural facial animation and lip movement
US20200142572A1 (en) * 2018-11-07 2020-05-07 Adobe Inc. Generating interactive, digital data narrative animations by dynamically analyzing underlying linked datasets
US11199957B1 (en) * 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
CN110045817A (en) * 2019-01-14 2019-07-23 启云科技股份有限公司 Using the interactive camera chain of virtual reality technology
US11049332B2 (en) * 2019-03-07 2021-06-29 Lucasfilm Entertainment Company Ltd. Facial performance capture in an uncontrolled environment
US10552667B1 (en) * 2019-08-19 2020-02-04 Neon Evolution Inc. Methods and systems for image processing
US11356720B2 (en) * 2020-01-30 2022-06-07 Snap Inc. Video generation system to render frames on demand
KR102180576B1 (en) * 2020-05-18 2020-11-18 주식회사 일루니 Method and apparatus for providing re-programmed interactive content based on user playing

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263681A (en) * 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd Device and method for generating animation
JPH09198522A (en) * 1996-01-22 1997-07-31 Mitsubishi Electric Corp Animation production system
JP2000322590A (en) * 1999-05-14 2000-11-24 Sharp Corp Method and device for animation processing and recording medium with animation processing program recorded thereon
JP2001292305A (en) * 2000-02-02 2001-10-19 Casio Comput Co Ltd Image data synthesizer, image data synthesis system, image data synthesis method and recording medium
JP2011170891A (en) * 2000-08-30 2011-09-01 Microsoft Corp Facial image processing method and system
WO2003038759A1 (en) * 2001-10-29 2003-05-08 Sharp Kabushiki Kaisha Cellular terminal, method for creating animation on cellular terminal, and animation creation system
JP2004071013A (en) * 2002-08-05 2004-03-04 Nippon Hoso Kyokai <Nhk> Method, device and program for recording audio data with video
JP2004072776A (en) * 2003-08-07 2004-03-04 Sharp Corp Cellular phone unit, method and program for controlling the unit, and computer-readable recording medium on which the program is recorded
JP3124018U (en) * 2006-05-23 2006-08-03 株式会社ダイワ通商 Character training game system
JP2008217447A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Content generation device and content generation program
JP2008304999A (en) * 2007-06-05 2008-12-18 Konami Digital Entertainment:Kk Image processor, image processing method and program

Also Published As

Publication number Publication date
US20210357088A1 (en) 2021-11-18
WO2021235636A1 (en) 2021-11-25
KR102180576B9 (en) 2022-06-10
US11402975B2 (en) 2022-08-02
KR102180576B1 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
JP2021182369A (en) Method and device for providing interactive content re-programmed on the basis of playing of user
US11798215B2 (en) Avatar facial expression representation in multidimensional space
US11789524B2 (en) Rendering location specific virtual content in any location
US10860838B1 (en) Universal facial expression translation and character rendering system
Tinwell et al. The uncanny wall
US7738997B2 (en) Robotic system for synchronously reproducing facial expression and speech and related method thereof
US20160086366A1 (en) Social Identity Models for Automated Entity Interactions
Saldien et al. A motion system for social and animated robots
KR102525181B1 (en) System for correcting image and image correcting method thereof
JPH11508491A (en) Installations and methods for controlling movable equipment (apparatus)
US11648477B2 (en) Systems and methods for generating a model of a character from one or more images
Fried et al. Editing self-image
CN113633983A (en) Method, device, electronic equipment and medium for controlling expression of virtual character
EP4244821A1 (en) Systems and methods for personalized and interactive extended reality experiences
JP2001249949A (en) Feeling generation method, feeling generator and recording medium
KR20210073442A (en) Method and system for generating morphable 3d moving model
Liu An analysis of the current and future state of 3D facial animation techniques and systems
CN114712862A (en) Virtual pet interaction method, electronic device and computer-readable storage medium
Gillies Creating virtual characters
CN110969237A (en) Man-machine virtual interaction construction method, equipment and medium under view angle of amphoteric relationship
US20210174703A1 (en) Methods and systems for facilitating learning of a language through gamification
Junius et al. Playing with the strings: designing puppitor as an acting interface for digital games
Junius Puppitor: Building an Acting Interface for Videogames
CN117315126A (en) Lip alignment method, device, equipment and storage medium
KR20240013685A (en) Expression transfer to stylized avatars

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220621