JP2021182369A - Method and device for providing interactive content re-programmed on the basis of playing of user - Google Patents
Method and device for providing interactive content re-programmed on the basis of playing of user Download PDFInfo
- Publication number
- JP2021182369A JP2021182369A JP2020204006A JP2020204006A JP2021182369A JP 2021182369 A JP2021182369 A JP 2021182369A JP 2020204006 A JP2020204006 A JP 2020204006A JP 2020204006 A JP2020204006 A JP 2020204006A JP 2021182369 A JP2021182369 A JP 2021182369A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- interactive content
- input
- animation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8545—Content authoring for generating interactive applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2543—Billing, e.g. for subscription services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は使用者のプレイングに基づいて再プログラミングされるインタラクティブコンテンツ提供方法および装置に関し、より詳しくは、使用者がインタラクティブコンテンツをプレイする過程に対する情報と使用者自身の個性を反映できる情報をインタラクティブコンテンツに反映して、使用者ならではの個性的なコンテンツを新しく生成する技術に関する。 The present invention relates to an interactive content providing method and device that are reprogrammed based on the user's playing, and more specifically, the interactive content provides information on the process in which the user plays the interactive content and information that can reflect the user's own personality. Reflecting on the technology to generate new unique content unique to users.
既存の映画、ドラマ、本のようなコンテンツは、創作者が定めたストーリーのプロットに沿ってあらすじが流れていき、結末に至る。ところが、定められているプロットとは異なって、自身が所望する流れや異なる結末を所望する人々の欲求が存在するため、人々はストーリーに介入して外伝を作ったり、インターネットコミュニティに自身が想像した異なる結末に対するストーリーを叙述したりもする。 Content such as existing movies, dramas, and books have a synopsis that follows the plot of the story set by the creator, leading to the end. However, unlike the defined plots, there are people's desires for the flow and different endings they want, so people intervene in the story to create a Gaiden or imagine themselves in the Internet community. It also describes stories about different endings.
このような人々の欲求を反映して、最近コンテンツの流れと結末を使用者の決定により選択できるインタラクティブ(interactive)コンテンツが脚光を浴びている。インタラクティブコンテンツは、ストーリーが進行されながら使用者の選択によってあらすじが異なって進行され得、あらすじだけでなく結論まで使用者の選択によって変わり得る。 Reflecting the desires of these people, interactive content, in which the flow and outcome of the content can be selected by the user's decision, has recently been in the limelight. In interactive content, the synopsis may be different depending on the user's choice as the story progresses, and not only the synopsis but also the conclusion may change depending on the user's choice.
ただし、現存するインタラクティブコンテンツの殆どは使用者の選択によってストーリーのみを異ならせることに集中しており、最近ではコンテンツのストーリーを越えて、より多様な要素に使用者の自律的介入が可能な機能が要求されている。例えば、使用者情報(顔、声、名前など)がコンテンツに移入されて使用者がコンテンツをさらに実感できる個人型コンテンツ(Personalized Content)、実感コンテンツ(Realistic Content)等が要求されている。 However, most of the existing interactive content focuses on differentiating only the story at the user's choice, and these days, it is a function that allows the user to autonomously intervene in more diverse elements beyond the story of the content. Is required. For example, there is a demand for personalized content (Personalized Content), realistic content, and the like, in which user information (face, voice, name, etc.) is incorporated into the content so that the user can further experience the content.
前述したインタラクティブコンテンツは使用者の選択によってあらすじだけでなく結論まで変わり得るため、同じ種類のコンテンツを楽しんでも使用者個人の選択によって個々人が全く異なるストーリーを誕生させることができるという結果につながる。 Since the above-mentioned interactive content can change not only the synopsis but also the conclusion depending on the user's choice, it leads to the result that even if the same kind of content is enjoyed, each individual can create a completely different story by the user's individual choice.
これに伴い、本発明の実施例で解決しようとする課題は、使用者自らが決定して完成させたインタラクティブコンテンツの進行過程自体を反映した新しいコンテンツを使用者に提供する技術を提供することである。 Along with this, the problem to be solved by the embodiment of the present invention is to provide a technique for providing the user with new content that reflects the progress process itself of the interactive content determined and completed by the user himself / herself. be.
これに加え、本発明の実施例で解決しようとする課題は、ストーリーに影響を及ぼす自律性を越えて、インタラクティブコンテンツに登場するキャラクタ、音声などの多様な要素に使用者自身の個性を反映できる技術を提供しようとする。 In addition to this, the problem to be solved by the embodiment of the present invention can reflect the user's own individuality in various elements such as characters and voices appearing in the interactive content beyond the autonomy that affects the story. Try to provide technology.
このために、本文書の実施例はフレーム単位で出力される映像が定められるインタラクティブコンテンツの形式とは異なり、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で映像が再生されるようにインタラクティブコンテンツを構成して、インタラクティブコンテンツの流れに対する変更が容易であり、コンテンツをプレイする使用者情報を効果的にコンテンツに反映する技術を提供しようとする。 For this reason, the examples of this document include object information that identifies the object output to the image and driving information that defines the operation of the object, unlike the format of interactive content in which the image output in frame units is defined. We try to provide a technology that configures interactive content so that the video is played in units of animation, makes it easy to change the flow of the interactive content, and effectively reflects the information of the user who plays the content in the content.
ただし、本発明の実施例が達成しようとする技術的課題は以上で言及した課題に制限されず、以下で説明する内容から通常の技術者に自明な範囲内で多様な技術的課題が導き出され得る。 However, the technical problems to be achieved by the embodiments of the present invention are not limited to the problems mentioned above, and various technical problems are derived from the contents described below within a range that is obvious to ordinary engineers. obtain.
本発明の一実施形態に係るインタラクティブコンテンツの提供方法は、映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する段階;前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける段階;および、前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる段階を含むことができる。 In the method for providing interactive content according to an embodiment of the present invention, the object is reproduced as a plurality of animation units including the object information specifying the object output to the video and the driving information defining the operation of the object are reproduced. Provides the user with interactive content that is played while moving by the driving information; the stage of receiving the input of the user information reflected in the interactive content; and the user as part of the object information. It may include a step of inserting information and playing at least one of the plurality of animation units to play the interactive content.
本発明の一実施形態に係るインタラクティブコンテンツ提供装置は、使用者入力を感知する入力インターフェース;映像を出力するディスプレイ部;所定の動作を遂行するようにする命令語を保存する一つ以上のメモリ;および前記一つ以上のメモリと動作可能なように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、前記一つ以上のプロセッサは、前記映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する動作;前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける動作;および、前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて動作を含むことができる。 An interactive content providing device according to an embodiment of the present invention is an input interface that senses user input; a display unit that outputs video; one or more memories that store command words that perform a predetermined operation; And one or more processors operably linked to the one or more memories and configured to execute the command word, the one or more processors being an object output to the video. As a plurality of animation units including the object information specifying the object and the driving information defining the operation of the object are played, the operation of providing the user with interactive content in which the object is played while being moved by the driving information; The operation of receiving the input of the user information reflected in the interactive content; and the operation of inserting the user information into a part of the object information and playing back at least one of the plurality of animation units. Can include.
本発明の実施例に係るインタラクティブコンテンツは、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で構成されて、インタラクティブコンテンツが進行されながら使用者がインタラクティブコンテンツをプレイする過程に対する情報だけでなく、使用者の顔、音声、プレイ特性などの使用者の個性をコンテンツの多様な要素に反映させることができる。 The interactive content according to the embodiment of the present invention is composed of animation units including object information that identifies the object output to the video and driving information that defines the movement of the object, and the user interacts while the interactive content is in progress. Not only information about the process of playing the content, but also the individuality of the user such as the user's face, voice, and play characteristics can be reflected in various elements of the content.
これに伴い、使用者はストーリーの流れを選択できるだけでなく、使用者自身や家族がコンテンツの登場人物となってコンテンツをプレイするように、使用者の個性を入れた独自のコンテンツを生成することができる。 Along with this, the user can not only select the flow of the story, but also generate unique content with the user's personality so that the user and his / her family can play the content as characters of the content. Can be done.
これに加え、使用者はインタラクティブコンテンツのキャラクタの顔、キャラクタの音声などに自身、友達、家族の顔や声が反映されて再生される新しいコンテンツを生成して所蔵したり共有したりすることができる。
この他に、本文書を通じて直接的または間接的に把握される多様な効果が提供され得る。
In addition to this, users can generate, store and share new content that is played by reflecting the faces and voices of themselves, friends and family on the character's face, character's voice, etc. of interactive content. can.
In addition to this, various effects that are directly or indirectly grasped through this document may be provided.
図1は、本発明の一実施例に係るインタラクティブコンテンツ提供装置100の機能ブロック図である。図1を参照すると、一実施例に係るインタラクティブコンテンツ提供装置100はメモリ110、プロセッサ120、入力インターフェース130、ディスプレイ部140、通信インターフェース150およびカメラ部160を含むことができる。
FIG. 1 is a functional block diagram of an interactive
メモリ110はアニメーションDB111、インタラクティブDB113および命令語DB115を含んで、本文書の実施例を遂行させるための情報および命令語を保存することができる。
The
アニメーションDB111は、インタラクティブコンテンツを構成するアニメーション単位に対する情報を保存することができる。アニメーション単位は、映像に含まれた客体がどのように動かなければならないかが定義されたアニメーションを区分する単位であって、アニメーション単位は連続的な映像に出力される客体を特定する客体情報およびこのような客体の動作を定義した駆動情報を含むことができる。 The animation DB 111 can store information for the animation unit constituting the interactive content. The animation unit is a unit that divides the animation that defines how the object contained in the video must move, and the animation unit is the object information that identifies the object output to the continuous video and the object information. It can include driving information that defines the movement of such an object.
すなわち、客体情報は映像がプレイされる時に使用者に見られたり提供されるそれぞれの客体(object)に対する情報であって、キャラクタ、物、背景、音声、字幕などの客体を特定する情報である。例えば、客体情報はキャラクタの顔または使用者の顔を反映する3次元使用者モデルと、使用者モデルに対する相対的距離に基づいて使用者モデルと共に表現され得る第2客体に対する情報をさらに含むことができる。 That is, the object information is information for each object that is seen or provided to the user when the video is played, and is information that identifies the object such as a character, an object, a background, a voice, and subtitles. .. For example, the object information may further include a three-dimensional user model that reflects the face of the character or the face of the user, and information about the second object that can be represented with the user model based on the relative distance to the user model. can.
駆動情報は、それぞれの客体がどの時点でどのように動作するようにするかに対する情報、または使用者入力に対してどのように反応すべきであるかに対する情報を含むことができる。 The drive information can include information about when and how each object should behave, or information about how it should react to user input.
本文書の実施例に係るインタラクティブコンテンツはこのようなアニメーション単位で構成され、アニメーション単位が動作することによってインタラクティブコンテンツが進行され、使用者がインタラクティブコンテンツをプレイする過程がアニメーション単位に含まれた情報に反映されることによって、使用者の個性を反映できる情報が客体情報または駆動情報に反映され得る。 The interactive content according to the embodiment of this document is composed of such animation units, the interactive content is advanced by the operation of the animation unit, and the process of the user playing the interactive content is included in the information included in the animation unit. By being reflected, information that can reflect the individuality of the user can be reflected in the object information or the driving information.
インタラクティブDB113はインタラクティブコンテンツに反映される使用者情報の入力を受けて保存することができる。また、インタラクティブDB113は所定のアルゴリズムによって改善したり、修正された使用者情報を保存することができる。例えば、使用者情報は使用者の顔イメージ、使用者音声、使用者がインタラクティブコンテンツをプレイして入力される各種情報を含むことができる。
The
命令語DB115は後述するプロセッサ120の動作を遂行させる命令語、または後述するプロセッサ120の動作と対応する動作を遂行するようにするコンピュータコードを保存することができる。
The instruction word DB 115 can store an instruction word for performing the operation of the
プロセッサ120はインタラクティブコンテンツ提供装置100が含む構成、メモリ110、入力インターフェース130、ディスプレイ部140および通信インターフェース150の全般的な動作を制御することができる。プロセッサ120はインタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125を含むことができる。プロセッサ120はメモリ110に保存された命令語を実行して、インタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125を駆動させることができる。インタラクティブモジュール121、音声字幕モジュール123およびイメージモジュール125により遂行される動作は、プロセッサ120によって遂行される動作と理解され得る。
The
インタラクティブモジュール121は使用者がインタラクティブコンテンツをプレイする場合、全般的なインタラクティブコンテンツの進行を制御し、使用者と関連した情報を保存して第2コンテンツを生成することができる。例えば、インタラクティブモジュール121は使用者入力に基づいてインタラクティブコンテンツの進行を決定することができ、使用者が入力した情報をインタラクティブコンテンツに反映することができ、使用者がインタラクティブコンテンツをプレイした記録を保存する第2コンテンツを生成することができる。
When the user plays the interactive content, the
音声字幕モジュール123は字幕および音声に関連した全般的な動作を制御する。例えば、使用者がディスプレイ部140に出力される字幕に対する使用者入力を感知すると、使用者音声の入力を受けることができ、これを字幕に対応する音声情報として字幕情報にマッピングさせて保存することができる。
The
イメージモジュール125はイメージと関連した全般的な動作を制御する。例えば、使用者から顔イメージの入力を受ける場合、所定の目的に沿って顔イメージを変更または修正することができ、入力を受けたイメージが入力のための目的に符合するイメージなのかを判別し、入力を受けたイメージをインタラクティブコンテンツに反映することができる。
The
入力インターフェース130は使用者が加える物理的刺激,音声,映像などの入力を受けることができる。例えば、入力インターフェース130は減圧センサ、静電センサ、マイク、カメラなどのようなハードウェアモジュールを含むことができる。
The
ディスプレイ部140は使用者がインタラクティブコンテンツをプレイできるように映像を出力することができる。このために、ディスプレイ部140はディスプレイパネルを含んで映像を出力するハードウェア構成を具備することができるが、ディスプレイ部140を構成するハードウェアの種類はこのような例示に限定されるものではない。
The
通信インターフェース150は外部装置と通信して情報を送受信できるようにする。このために、通信インターフェース150は無線通信モジュールまたは有線通信モジュールを含むことができる。
The
カメラ部160はインタラクティブコンテンツ提供装置の周辺環境を撮影して撮影した周辺映像を生成することができる。このために、カメラ部160はハードウェア構成であるカメラモジュールを含むことができる。
The
以下、図2および図3を参照して、本文書の実施例に係るインタラクティブコンテンツ提供装置100が提供するインタラクティブコンテンツの特性について先に説明し、本文書が提示する課題を達成するためにプロセッサ120が遂行する動作の全体的な流れを説明した後、図4〜図7と共に使用者情報をインタラクティブコンテンツに反映する具体的な実施例を説明することにする。
Hereinafter, with reference to FIGS. 2 and 3, the characteristics of the interactive content provided by the interactive
まず、本文書の実施例に係るインタラクティブコンテンツを構成するアニメーション単位をより詳細に説明する。 First, the animation unit constituting the interactive content according to the embodiment of this document will be described in more detail.
図2は本文書の実施例に係るアニメーション単位が含む客体情報および駆動情報を説明するための例示図であり、図3は本文書の実施例に係るアニメーション単位が含む音声情報および字幕情報を説明するための例示図である。 FIG. 2 is an exemplary diagram for explaining object information and driving information included in the animation unit according to the embodiment of this document, and FIG. 3 illustrates audio information and subtitle information included in the animation unit according to the embodiment of this document. It is an example figure for this.
一実施例に係るインタラクティブコンテンツは複数のアニメーション単位で構成されている。アニメーション単位は客体情報、駆動情報、字幕情報および音声情報を含むことができる。客体情報は映像に出力される客体を特定する情報である。駆動情報は客体の動作を定義した情報である。字幕情報は映像が出力される間、該当映像のストーリーについての説明またはキャラクタの台詞として映像に共に出力されるテキストに対する情報である。音声情報は字幕に対応するテキストを声で読む音声に対する情報である。これに伴い、使用者がインタラクティブコンテンツのプレイを開始すれば、インタラクティブモジュール121はインタラクティブコンテンツに含まれたアニメーション単位を再生して、アニメーション単位に含まれた客体情報が駆動情報によって動くようにしてインタラクティブコンテンツを進行させることができ、進行と共に字幕情報による字幕と、音声情報による音声が出力され得る。
The interactive content according to one embodiment is composed of a plurality of animation units. The animation unit can include object information, driving information, subtitle information, and audio information. The object information is information that identifies the object that is output to the video. Drive information is information that defines the movement of the object. The subtitle information is information for the text that is output together with the video as a description of the story of the video or a dialogue of the character while the video is output. The voice information is information for the voice that reads the text corresponding to the subtitles by voice. Along with this, when the user starts playing the interactive content, the
インタラクティブモジュール121は各駆動情報が駆動されるべき順序または時点を、既定義された順序および時点に沿って駆動されるように制御することができる。
The
また、本文書の実施例に係るインタラクティブコンテンツは、複数のアニメーション単位とは別個にインタラクティブコンテンツがプレイされる途中で特定客体に対する入力が感知される場合、該当客体に発生する動作自体を既定義した客体反応アニメーション情報をさらに含むことができる。インタラクティブモジュール121はディスプレイ部140に出力される客体情報に対する使用者入力に基づいて、特定客体が客体反応アニメーション情報によって動くように制御することができる。例えば、インタラクティブコンテンツは客体情報のうち「時計」という客体が存在する場合、いかなるアニメーション単位が再生される途中でも、ディスプレイ部140に「時計」が出力される途中で「時計」に対する使用者の対する入力(ex.客体である時計部分をタッチ)が感知されると、時計が動くように動作させたり、現在何時であるかの音声を出力するなどの動作を定義しておいた客体反応アニメーション情報を保存することができる。
Further, in the interactive content according to the embodiment of this document, when the input to a specific object is sensed while the interactive content is being played separately from a plurality of animation units, the motion itself that occurs in the object is already defined. Further object reaction animation information can be included. The
図3は一つのアニメーション単位に含まれた音声情報および字幕情報が図示された例示であって、音声情報および字幕情報は一つの駆動情報とマッピングされて保存され得る。音声字幕モジュール123は特定駆動情報が実行されると、字幕情報と音声情報が該当駆動情報の実行と共に出力され得る。
FIG. 3 is an example in which the audio information and the subtitle information included in one animation unit are illustrated, and the audio information and the subtitle information can be mapped and stored with one drive information. When the specific drive information is executed, the
次に、それぞれのアニメーション単位が進行される方式の実施例を説明する。 Next, an example of a method in which each animation unit is advanced will be described.
インタラクティブモジュール121は、インタラクティブコンテンツが含む複数のアニメーション単位が再生される順序を多様な実施例によって決定することができる。例えば、一実施例に係るアニメーション再生方式はアニメーション単位が再生される方式は複数のアニメーション単位が既設定された順序で再生されるアニメーション方式を含むことができる。
The
また、一実施例に係るアニメーション再生方式は、複数のアニメーション単位のうちいずれか一つを再生する選択を受ける複数の選択項目に対する使用者の第1入力、または所定のアニメーション単位の再生中に出力される客体情報に対する使用者の第2入力により、それぞれの第1入力または第2入力に基づいて定められる次のアニメーション単位を再生するようにする分岐アニメーション方式を含むことができる。分岐アニメーション方式に該当するアニメーション単位が再生される場合、インタラクティブモジュール121はディスプレイに複数の選択項目(ex.ストーリーの流れに沿った主人公の選択事項)を出力して使用者から特定の選択項目に対する第1入力を感知したり、特定の客体情報に対する使用者の第2入力を感知して、使用者入力に対応して再生されるように定められたアニメーション単位を再生させることができる。
Further, the animation reproduction method according to the embodiment outputs the user's first input for a plurality of selection items that are selected to reproduce any one of the plurality of animation units, or during reproduction of a predetermined animation unit. It is possible to include a branch animation method for reproducing the next animation unit determined based on each first input or the second input by the user's second input for the object information to be performed. When the animation unit corresponding to the branch animation method is played back, the
インタラクティブコンテンツ提供装置100は、アニメーション単位を構成する客体情報および駆動情報自体を使用者(ex.プレイヤー、管理者、開発者など)が直接編集できるように提供することができる。このために、使用者が編集を要請する場合、インタラクティブモジュール121は各アニメーション単位を構成する客体情報および駆動情報を使用者に提供して、客体情報、駆動情報またはアニメーション単位の再生順序に対する使用者の編集情報の入力を受けることができる。これに伴い、インタラクティブモジュール121は入力された編集情報が反映されたアニメーション単位に対する情報を含むインタラクティブコンテンツをプレイさせることによって、使用者の好みに応じて客体情報または駆動情報が修正されて他の客体が現れたり、使用者の所望する動きが反映されたコンテンツをプレイさせることができる。また、アニメーション単位の再生順序も使用者の編集に基づいて再生されるように制御され得る。
The interactive
次に、一実施例に係るインタラクティブコンテンツ提供装置100が動作する全体的な過程を説明する。
Next, the overall process in which the interactive
まず、プロセッサ120は前述した本文書の実施例に係るインタラクティブコンテンツを使用者に提供し、使用者からインタラクティブコンテンツをプレイする前またはプレイの途中でインタラクティブコンテンツに反映される使用者情報の入力を受けて保存することができる。これに伴い、プロセッサ120はインタラクティブコンテンツに含まれた客体情報のうち一部に入力を受けた使用者情報を挿入し、複数のアニメーション単位のうち少なくとも一つを再生させてインタラクティブコンテンツをプレイさせることができる。その後、使用者のプレイが終了すると、プロセッサ120は使用者がインタラクティブコンテンツをプレイしながら使用者が入力した情報によってアニメーション単位が再生される第2コンテンツを生成することができる。
First, the
一実施例に係る第2コンテンツは、使用者がインタラクティブコンテンツをプレイしながらストーリーを進行した入力に対応する順序に沿ってアニメーション単位が進行される映像であって、使用者がプレイしたストーリーを再現した映像であり、これに加えて使用者が入力したすべての情報(プレイ中に特定客体を押した情報、プレイ時間、顔イメージ、音声など)が反映された映像である。このために、本発明の一実施例は図4のようにプレイ情報を生成する。 The second content according to one embodiment is a video in which the animation unit progresses in the order corresponding to the input in which the user progresses the story while playing the interactive content, and reproduces the story played by the user. In addition to this, it is a video that reflects all the information input by the user (information that the specific object was pressed during play, play time, face image, sound, etc.). For this purpose, one embodiment of the present invention generates play information as shown in FIG.
図4は、第2コンテンツの生成に使われるプレイ情報を説明するための例示図である。図4を参照すると、インタラクティブモジュール121は、インタラクティブコンテンツをプレイする使用者が入力した入力情報に対するイベントの種類、入力時間および入力値に対する情報を特定して、特定された情報をマッピングしたプレイ情報を生成することができる。イベントの種類は、使用者が発生させたイベントの種類を特定するものであって、例えば「次のページ」、「客体タッチ」、「前ページ」、「三つの選択事項のうち1番を選択」等、使用者が入力して発生させたイベントの種類を意味する。入力時間とは、使用者が該当イベントを発生させた時点または時間を意味する。入力値とは、使用者がイベントを発生させるために入力した地点の座標、入力した音声情報、または入力したイメージなど、使用者入力によって発生または受信した情報を意味し得る。
FIG. 4 is an exemplary diagram for explaining play information used to generate the second content. Referring to FIG. 4, the
これに伴い、インタラクティブモジュール121はインタラクティブコンテンツのプレイが終了した後、プレイ情報が含むイベントの種類、入力時間および入力値の情報によってインタラクティブコンテンツが再生される映像である第2コンテンツを生成することができる。例えば、プレイ情報が含む入力値が入力した地点の座標である場合、インタラクティブモジュール121はプレイ情報が含む入力時間に該当地点が入力されるように制御してコンテンツを再生させることができる。また、プレイ情報が含む入力値が音声情報である場合、インタラクティブモジュール121はプレイ情報が含むイベントの種類(ex.字幕に対する音声録音)に入力値に含まれた音声情報が再生されるようにすることができる。これに加え、プレイ情報が含む入力値が顔イメージである場合、インタラクティブモジュール121はプレイ情報が含むイベントの種類(ex.キャラクタの顔にイメージ代入)に入力値に含まれた顔イメージが代入されて再生されるようにすることができる。
Along with this, after the play of the interactive content is completed, the
次に、インタラクティブコンテンツおよび第2コンテンツの差を説明する。 Next, the difference between the interactive content and the second content will be described.
一実施例に係る第2コンテンツは、使用者がインタラクティブコンテンツをプレイしながらストーリーを進行した入力に対応する順序に沿ってアニメーション単位が進行される映像であって、使用者がプレイしたストーリーを記録した映像であり、これに加えて使用者が入力したすべての情報(ex.プレイ中に特定客体を押した情報、プレイ時間、顔イメージ、音声など)が反映された映像である。 The second content according to one embodiment is a video in which the animation unit progresses in the order corresponding to the input in which the user progresses the story while playing the interactive content, and records the story played by the user. In addition to this, it is a video that reflects all the information input by the user (ex. Information that a specific object is pressed during play, play time, face image, voice, etc.).
図5Aおよび図5Bはインタラクティブコンテンツをプレイする過程で出力される字幕Aと第2コンテンツで出力される字幕Bの差を説明するための例示図である。 5A and 5B are illustrations for explaining the difference between the subtitle A output in the process of playing the interactive content and the subtitle B output in the second content.
図5Aおよび図5Bを参照すると、Aのようにインタラクティブコンテンツをプレイする途中には絵本のような感じを演出するために、音声字幕モジュール123は複数個の字幕情報を一度に駆動して一つの画面で複数行の字幕を出力させ、出力された複数の字幕情報に対応する音声情報が出力されるようにして、あたかも字幕を読んであげる絵本の感じを使用者に与えることができる。これとは異なり、Bのように第2コンテンツは漫画または映画のような感じを演出するために、再生する音声情報と対応する字幕情報のみを出力させることができる。
Referring to FIGS. 5A and 5B, the
ただし、このように再生される音声情報と対応する字幕情報のみを出力して音声情報と字幕情報のシンクが合うようにする方法に対して、映像がフレーム単位で再生されるように構成されている場合であれば、既存の技術のように特定の音声が再生されるフレーム時間に合わせて字幕を再生させればよいが、本文書の実施例はフレーム単位の再生ではなく、使用者の選択によるアニメーション単位の再生であるため、字幕が出力される時間自体を特定し難いという問題がある。 However, in contrast to the method of outputting only the audio information to be reproduced and the corresponding subtitle information so that the sync of the audio information and the subtitle information is matched, the video is configured to be reproduced in frame units. If so, the subtitles may be played according to the frame time when a specific sound is played as in the existing technology, but the embodiment of this document is not played in frame units, but is selected by the user. There is a problem that it is difficult to specify the time when the subtitles are output because the playback is performed in units of animation.
このために、音声情報は既設定された時間以下の再生時間を有する音声ファイルを含むことができ、音声字幕モジュール123は第2コンテンツで音声情報が再生される場合、再生される音声情報に対応する字幕情報のみを前記再生時間の間のみ第2コンテンツに出力することができる。すなわち、それぞれの音声情報が有する再生時間を基準として対応する字幕情報を該当再生時間の間出力させることによって、アニメーション単位の構成でも再生される音声情報と対応する字幕情報のシンクを合わせて、漫画または映画のような感じを具現することができる。
For this purpose, the audio information can include an audio file having a reproduction time of a preset time or less, and the
次に、多様な使用者情報の入力を受けてインタラクティブコンテンツと第2コンテンツに反映する実施例を説明する。 Next, an embodiment in which various user information is input and reflected in the interactive content and the second content will be described.
図6は、インタラクティブコンテンツに使用者音声を入力する動作を説明するための例示図である。 FIG. 6 is an exemplary diagram for explaining an operation of inputting a user voice into interactive content.
インタラクティブコンテンツのプレイ途中、映像で出力される字幕に対する使用者入力が感知されると、音声字幕モジュール123は字幕情報に対応する使用者音声の入力を受けることができる。例えば、図6のような入力インターフェースウィンドウがディスプレイ部140に出力されて使用者音声入力をガイドすることができる。これに伴い、使用者が発話する音声が入力インターフェース130を通じて入力されると、音声字幕モジュール123は字幕情報に対応する音声情報に使用者音声を挿入し、インタラクティブコンテンツのプレイが終了すると使用者音声が挿入された音声情報が字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成することができる。
When the user input for the subtitle output in the video is detected during the play of the interactive content, the
この時、入力インターフェース130ウィンドウには、使用者が録音しようとする字幕情報の前に出力される字幕を探索する第1ボタン、および使用者が録音しようとする字幕情報の後に出力される字幕を探索する第2ボタンが出力され得、音声字幕モジュール123は第1ボタンまたは第2ボタンに対する使用者入力に基づいて、前の字幕または次の字幕を出力することができる。また、音声字幕モジュール123は第1ボタンまたは第2ボタンに対する使用者入力に基づいて出力される字幕情報に対応する使用者音声の入力を受けて、インタラクティブコンテンツのプレイが終了すると使用者音声が挿入された音声情報が字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成することができる。
At this time, in the
一方、使用者音声の入力を受ける前述した実施例において、使用者音声を既設定された時間以上に入力を受ける場合、または多様なキャラクタに対して声の入力を受ける場合、時間またはキャラクタの数に比例して使用者に課金を賦課することができる。 On the other hand, in the above-described embodiment that receives the input of the user voice, when the user voice is input for more than a preset time, or when the voice is input to various characters, the time or the number of characters. It is possible to charge the user in proportion to.
図7はインタラクティブコンテンツに使用者の顔イメージを代入する動作を説明するための第1例示図であり、図8はインタラクティブコンテンツに使用者の顔イメージを代入する動作を発生させる動作を説明するための第2例示図である。 FIG. 7 is a first exemplary diagram for explaining an operation of substituting a user's face image for interactive content, and FIG. 8 is for explaining an operation of generating an operation of substituting a user's face image for interactive content. It is the second example figure of.
図7を参照すると、イメージモジュール125はインタラクティブコンテンツのプレイの前またはプレイの途中で使用者情報の入力を受けることができ、使用者情報のうち所定のイメージが入力される場合、該当イメージが顔イメージを含むイメージであれば、イメージモジュール125は顔イメージが特定の地点を眺めるように標準化させて、客体情報のうちキャラクタの顔に該当する客体情報に標準化された顔イメージを代入することができる。
Referring to FIG. 7, the
前記標準化を遂行する一実施例によると、イメージモジュール125は使用者から顔イメージが入力される場合、顔イメージが所定の角度、形態、または表情を形成するように変形されたイメージを出力するように学習された多様な人工知能モデルを利用して、前記顔イメージが所定の角度、形態、または表情を形成するように標準化することができる。その後、イメージモジュール125は特徴点を導き出す多様なアルゴリズムによって顔イメージの特徴点を導き出し、導き出された特徴点を頂点(vertex)に特定することができる。その後、イメージモジュール125は頂点を互いに連結して、頂点、角面からなる多角形の集合であるメッシュ(mesh)構造で構成された3次元モデルを生成することができる。
According to one embodiment of performing the standardization, when a face image is input from the user, the
これに伴い、イメージモジュール125は頂点の位置を制御して3次元モデルが所定角度および形態に向かうように標準化して、顔イメージが特定の地点を眺めるように標準化することができ、客体情報のうちキャラクタの顔に該当する客体情報に3次元モデルを代入することができる。この時、使用者の顔イメージに既保存されたキャラクタの前頭部イメージ、後頭部イメージを合成して、より自然に使用者の顔イメージをキャラクタの顔イメージに代入することができる。例えば、前頭部イメージ、後頭部イメージ、顔イメージの3種類がある場合、イメージモジュール125は各イメージのレイヤーの配置順序を後頭部イメージが最後に、顔イメージを中間に、前頭部イメージが最も前にくる順序で配置した後に合成して、キャラクタの顔に使用者の顔を自然に代入することができる。
Along with this, the
また、イメージモジュール125は3次元モデルを構成する頂点を駆動情報によって移動するように制御して顔イメージの動きまたは表情を具現することができる。この時、客体情報のうち基本キャラクタに加えて追加的にキャラクタに顔イメージの代入を選択しようとする場合、イメージモジュール125は入力した顔イメージを代入しようとするキャラクタ数に比例して使用者に課金を賦課することができる。
Further, the
これに伴い、図8を参照すると、使用者が入力した顔イメージ、標準化された顔イメージ、3次元モデリングイメージに基づいて、本来の客体情報に3次元モデリングが完了したイメージを代入することができ、3次元モデリングが完了したイメージに動きを具現することができる。動きを具現する動作は図9の実施例を含むことができる。 Along with this, referring to FIG. 8, it is possible to substitute the image for which 3D modeling has been completed into the original object information based on the face image, the standardized face image, and the 3D modeling image input by the user. The movement can be embodied in the image for which 3D modeling has been completed. The motion that embodies the motion can include the embodiment of FIG.
図9は、インタラクティブコンテンツは使用者の顔イメージを代入し、代入した顔イメージに表情または動きを具現する動作を説明するための例示図である。 FIG. 9 is an exemplary diagram for demonstrating an operation in which an interactive content substitutes a user's face image and embodies a facial expression or movement in the substituted face image.
まず、イメージモジュール125は3次元モデルを構成する頂点のうち動きが開始される第1頂点と動きが終結される第2頂点を特定することができる。第1頂点または第2頂点はそれぞれ1個以上の頂点を含むことができる。第1頂点および第2頂点がいずれも複数個の頂点を含む場合、第1頂点は互いに異なる少なくとも一つの頂点と連結されていてもよく、第2頂点は前記複数個と同一個数の頂点を含むことができる。
First, the
例えば、3次元モデルが顔の形状である場合、目が閉じられる動きを具現する場合、イメージモジュール125は眼球の上端の皮膚に位置する頂点を第1頂点、眼球の下端の皮膚に位置する頂点を第2頂点と特定することができる。以下、本文書の実施例はまぶたの動きを例にして説明するが、本文書の実施例に係る技術はこのような例示に限定されるものではない。
For example, when the 3D model has the shape of a face and embodies the movement of closing the eyes, the
第1頂点と第2頂点が特定された後、イメージモジュール125は第1頂点と第2頂点の間に第1頂点と第2頂点を連結する頂点、角または面を判別することができる。例えば、イメージモジュール125は第1頂点から第2頂点までを最短距離で連結する頂点、角、または面を判別することができる。
After the first and second vertices have been identified, the
また、第1頂点または第2頂点が複数個の頂点を含む場合、イメージモジュール125は複数の第1頂点それぞれの動きの終結地点として特定された複数の第2頂点それぞれに達する所定の線に沿って、n個(nは1以上の自然数)の地点を特定することができる。イメージモジュール125は第1頂点と第2頂点間の所定の線に沿ってn個の地点を特定する動作は下記の多様な実施例を通じて具現され得、本文書に説明された実施例は例示に過ぎず、このような説明に限定されるものではない。
Further, when the first vertex or the second vertex includes a plurality of vertices, the
一実施例によるとイメージモジュール125は第1頂点と第2頂点を最短距離で連結する角を構成する頂点を、それぞれn個の地点のうち一つとして特定することができる。例えば、まぶたが眼球によって閉じられる動きを具現する場合、第1頂点と第2頂点を連結する角が4個であれば、各角を連結するそれぞれの3個の頂点をn=0地点、n=1地点、n=2地点として特定することができる。
According to one embodiment, the
また、第1頂点または第2頂点が複数個の頂点を含む場合、イメージモジュール125は複数の第1頂点それぞれの動きに対する終結地点Lとして特定された複数の第2頂点それぞれに達するまで連結された面上で、第1頂点から第2頂点までを連結する最短距離の仮想の線をn+1等分した地点を前記n個の地点として特定することができる。例えば、図8を参照する時、まぶたが眼球によって閉じられる動きを具現する場合、第1頂点から第2頂点に至るまで面(faces)にそって第1頂点と第2頂点を連結する最短距離の仮想の線を4等分する3個の地点をn=0地点、n=1地点、n=2地点として特定することができる。
Further, when the first vertex or the second vertex includes a plurality of vertices, the
n個の地点が特定された後、イメージモジュール125は動きを具現するために、第1頂点がn個の地点を経て第2頂点に向かって移動するように第1頂点の位置データを制御することができる。また、イメージモジュール125は第1頂点から所定範囲内に位置する第1頂点以外の他の頂点が第1頂点にしたがって動くように制御することができ、これは多様な特徴点のアルゴリズムを通じて具現され得、特定の方法に限定されない。
After the n points have been identified, the
イメージモジュール125は、第1頂点がn=0地点、n=1地点、n=2地点をそれぞれ経て最終的に第2頂点に達するように制御して自然な動きを具現することができる。この時、イメージモジュール125は下記の数学式1のように、第1頂点がn個の地点のうちいずれか一つに向かって移動するまで、第1頂点が動く速度を反映する速度関数を決定することができる。これに伴い、第1頂点が動く速度が実際の動きを反映できる特徴に基づいて決定されるため、3次元モデルの動きをより自然なように駆使することができる。
The
これに加えて、イメージモジュール125はキャラクタの顔または使用者の顔を反映する使用者モデルに第2客体を配置することができる。例えば、使用者モデルが複数の頂点からなる3次元モデルである場合、3次元モデルが含む一つ以上の頂点と第2客体との相対的距離が一定に維持されるように設定して、仮想の空間で第2客体とともに表現される使用者モデルを生成することができる。この場合、駆動情報によって使用者モデルの表情や形態が変形されても、第2客体は使用者モデルと一定の距離を維持したまま共に表現され得る。これに伴い、インタラクティブコンテンツがプレイされて使用者モデルが駆動情報によって動く場合、第2客体は使用者モデルと相対的距離が一定に維持されるように動きが表現され得る。
In addition to this, the
また、イメージモジュール125は使用者から顔イメージの入力を受ける場合、AI顔認識装置のような多様な人工知能アルゴリズムに基づいて入力された顔イメージを分析して顔イメージの属性を示す第1タグ情報(ex.顔イメージの年齢、性別、人種、アクセサリー、ヘアスタイル、髪の色、瞳の色など)を抽出することができる。その後、キャラクタの顔に該当する客体情報にマッピングされている第2タグ情報(ex.キャラクタの年齢、性別、人種、アクセサリー、ヘアスタイル、髪の色、瞳の色など)と第1タグ情報とを比較して、第1タグ情報と対応する第2タグ情報が最も多いキャラクタに入力された顔イメージを代入することができる。この時、第2タグ情報はキャラクタの顔に該当する客体情報にマッピングされて既保存されている。またはイメージモジュール125が現存するAI顔認識装置のように、多様な人工知能アルゴリズムに基づいてキャラクタのイメージを分析してキャラクタの属性を示す第2タグ情報を抽出することができる。
Further, when the
また、イメージモジュール125は使用者から顔イメージの入力を受ける場合、入力を受けた顔イメージのトーンを調整したり写真フィルタを介して顔イメージを補正することができる。例えば、イメージモジュール125は使用者の顔イメージの入力を受けた場合、既存の写真補正アルゴリズムに基づいて顔トーンを補正することができ、既存の写真フィルタリング技術を通じて、顔イメージを所定の規則に沿って変形させるフィルタを適用して、可愛い顔、幼くなった顔、老いた顔などを適用してキャラクタの顔に代入することができる。
Further, when the
また、イメージモジュール125は使用者からイメージの入力を受ける場合、入力を受けたイメージがキャラクタの顔に適合するかを判別することができる。例えば、イメージモジュール125は使用者のイメージの入力を受けた場合、AI顔認識装置のような多様な人工知能アルゴリズムに基づいて既設定された顔情報の規格から外れる場合(ex.顔が遮られていたり、目を閉じていたり、正面の顔が90%以上含まれていない場合等)、他の顔イメージを入力することを要請することができる。
Further, when the
前述した実施例に係るインタラクティブコンテンツは、映像に出力される客体を特定する客体情報と客体の動作を定義した駆動情報を含むアニメーション単位で構成されて、インタラクティブコンテンツが進行されながら使用者がインタラクティブコンテンツをプレイする過程に対する情報だけでなく、使用者の顔、音声、プレイ特性などの使用者の個性をコンテンツの多様な要素に反映させることができる。これに伴い、使用者はストーリーの流れを選択できるだけでなく、使用者自身や家族がコンテンツの登場人物となってコンテンツをプレイするように、使用者の個性を入れた独自のコンテンツを生成することができる。これに加え、使用者はインタラクティブコンテンツのキャラクタの顔、キャラクタの音声などに、自身、友達、家族の顔や声が反映されて再生される新しいコンテンツを生成して所蔵したり共有したりすることができる。 The interactive content according to the above-described embodiment is composed of animation units including object information that identifies the object output to the video and driving information that defines the movement of the object, and the user can interact with the interactive content while the interactive content is in progress. Not only information about the process of playing the content, but also the individuality of the user such as the user's face, voice, and play characteristics can be reflected in various elements of the content. Along with this, the user can not only select the flow of the story, but also generate unique content with the user's personality so that the user and his / her family can play the content as characters of the content. Can be done. In addition to this, the user can generate, store, and share new content that is played by reflecting the faces and voices of himself, friends, and family on the character's face, character's voice, etc. of the interactive content. Can be done.
図10は、インタラクティブコンテンツ提供装置の使用環境に応じて客体情報の位置を変更する動作を説明するための例示図である。 FIG. 10 is an exemplary diagram for explaining an operation of changing the position of object information according to the usage environment of the interactive content providing device.
図10を参照すると、インタラクティブモジュール121は使用者がインタラクティブコンテンツをプレイする環境に応じて使用環境に応じてディスプレイ部140に出力される客体情報の位置を制御することができる。
Referring to FIG. 10, the
例えば、インタラクティブモジュール121は、図10の原本のコンテンツ規格(ex.横:縦=2.5:1サイズ)から図書形態のコンテンツ規格(ex.横:縦=5:1サイズ)への変更の入力を受けた場合、客体情報が出力されるべき位置が異なる規格別に既設定されている座標情報に基づいて、使用者の規格選択によって前記客体情報を規格に対応する座標情報によって出力して、一つのアニメーション単位で客体が出力される位置を制御することができる。また、インタラクティブモジュール121はコンテンツの規格別に客体が移動すべき程度を定義した関数に基本座標情報を代入して出力された結果座標情報に基づいて、客体が出力される位置を移動させることができる。
For example, the
また、インタラクティブモジュール121は拡張現実(AR)技術を利用して、周辺環境を出力する映像のレイヤー上に客体情報のイメージを出力することができる。例えば、インタラクティブモジュール121はカメラ部160を駆動して周辺環境を撮影した周辺映像の入力を受け、ディスプレイ部140内で客体情報が出力されるべき位置が既設定されている座標情報に基づいて客体情報を周辺映像のレイヤーの上部に配置してディスプレイ部140に出力することができる。
In addition, the
またはインタラクティブモジュール121はカメラ部160を駆動して周辺環境を撮影した周辺映像の入力を受け、客体情報が前記周辺映像の位置のうち一地点にマッピングされるように設計された関数に基づいて客体情報を周辺映像のレイヤーの上部に配置してディスプレイ部に出力させることができる。この場合、客体情報は周辺映像の一地点にマッピングされているため、使用者がカメラを回して他の所を撮影しても客体はマッピングされた一地点から動かずに配置され得る。
Alternatively, the
前述した実施例で客体情報の駆動情報が互いに既マッピングされているものとして説明したが、図11の実施例によると、人工知能技術を通じてマッピングさせることができる。 Although the driving information of the object information has already been mapped to each other in the above-described embodiment, according to the embodiment of FIG. 11, the mapping can be performed through artificial intelligence technology.
図11は一実施例に係る客体情報のクラスを人工知能モデルを通じて特定し、クラスに対応する駆動情報をマッピングさせる動作を説明するための例示図である。 FIG. 11 is an exemplary diagram for explaining an operation of specifying a class of object information according to an embodiment through an artificial intelligence model and mapping drive information corresponding to the class.
図11を参照すると、インタラクティブモジュール121は所定の人工知能モデルに入力された客体情報のクラス(ex.キャラクタ、電灯、木、自動車、鳥、時計などの客体を特定する情報)を判別し、判別されたクラスに対応する駆動情報をマッピングさせるように学習された人工知能モデルを利用することができる。インタラクティブモジュール121は、人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルが判別した第1駆動情報をマッピングさせてアニメーションDB111に保存することができる。
Referring to FIG. 11, the
この時、人工知能モデルは入力された客体情報のクラス、およびクラスにマッピングされる駆動情報の種類(ex.振動する動き、明るさ調節、灯りを消す、位置動きの種類など、動きに対する定義)を共に判別してもよい。判別されたクラスに対応する駆動情報をマッピングさせるように学習された人工知能モデルを利用することができる。インタラクティブモジュール121は人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルが判別した第1駆動情報をマッピングさせることができる。インタラクティブモジュール121は人工知能モデルにインタラクティブコンテンツに含まれた客体のうち第1客体情報を入力し、人工知能モデルに出力されたクラスおよび駆動情報をマッピングさせてアニメーションDB111に保存することができる。
At this time, the artificial intelligence model is the class of the input object information and the type of drive information mapped to the class (ex. Definition for movement such as vibrating movement, brightness adjustment, turning off the light, type of position movement, etc.) May be discriminated together. An artificial intelligence model trained to map the driving information corresponding to the determined class can be used. The
これに伴い、インタラクティブモジュール121は第1客体情報に対する使用者入力を感知すると、第1駆動情報による動きを具現することができる。
Along with this, when the
本文書の実施例に含まれた人工知能アルゴリズム、または人工知能モデルはマシンラーニングアルゴリズムを使うことができる。マシンラーニング(機械学習、Machine Learning)は人工知能分野で扱う多様な問題を定義し、それを解決する方法論を研究する分野を意味する。マシンラーニングは何らかの作業に対して、弛まない経験を通じてその作業に対する性能を高めるアルゴリズムと定義したりもする。 The artificial intelligence algorithms, or artificial intelligence models included in the examples in this document, can use machine learning algorithms. Machine learning (Machine Learning) is a field that defines various problems to be dealt with in the field of artificial intelligence and studies methodologies for solving them. Machine learning is also defined as an algorithm that enhances the performance of some work through unwavering experience.
人工ニューラルネットワーク(ANN:Artificial Neural Network)はマシンラーニングで使われるモデルであって、シナプスの結合でネットワークを形成した人工ニューロン(ノード)で構成される、問題解決能力を有するモデル全般を意味し得る。人工ニューラルネットワークは他のレイヤーのニューロン間の連結パターン、モデルパラメータを更新する学習過程、出力値を生成する活性化関数(Activation Function)等によって定義され得る。 An artificial neural network (ANN) is a model used in machine learning, and can mean a model in general that has problem-solving ability and is composed of artificial neurons (nodes) that form a network by connecting synapses. .. An artificial neural network can be defined by a connection pattern between neurons in other layers, a learning process for updating model parameters, an activation function for generating output values, and the like.
人工ニューラルネットワークは入力層(Input Layer)、出力層(Output Layer)、そして選択的に一つ以上の隠れ層(Hidden Layer)を含むことができる。各層は一つ以上のニューロンを含み、人工ニューラルネットワークはニューロンとニューロンを連結するシナプスを含むことができる。人工ニューラルネットワークで各ニューロンはシナプスを通じて入力される入力信号、重み、バイアスに対する活性関数の関数値を出力することができる。 The artificial neural network can include an input layer, an output layer, and optionally one or more hidden layers. Each layer contains one or more neurons, and artificial neural networks can contain neurons and synapses that connect them. In an artificial neural network, each neuron can output the function value of the activation function for the input signal, weight, and bias input through synapses.
モデルパラメータは学習を通じて決定されるパラメータを意味し、シナプス連結の重みとニューロンのバイアスなどが含まれる。そして、ハイパーパラメータはマシンラーニングアルゴリズムで学習前に設定されなければならないパラメータを意味し、学習率(Learning Rate)、繰り返し回数、ミニバッチの大きさ、初期化関数などが含まれる。 Model parameters mean parameters determined through learning, including synaptic connection weights and neuronal bias. The hyperparameter means a parameter that must be set before learning by a machine learning algorithm, and includes a learning rate, a number of iterations, a mini-batch size, an initialization function, and the like.
人工ニューラルネットワークの学習目的は、損失関数を最小化するモデルパラメータを決定するものと見ることができる。損失関数は人工ニューラルネットワークの学習過程で最適なモデルパラメータを決定するための指標として利用され得る。 The learning objective of an artificial neural network can be seen as determining the model parameters that minimize the loss function. The loss function can be used as an index for determining the optimum model parameters in the learning process of the artificial neural network.
マシンラーニングは学習方式により教師あり学習(Supervised Learning)、教師なし学習(Unsupervised Learning)、強化学習(Reinforcement Learning)に分類することができる。 Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method.
教師あり学習は学習データに対するラベル(label)が与えられた状態で人工ニューラルネットワークを学習させる方法を意味し、ラベルとは、学習データが人工ニューラルネットワークに入力される場合、人工ニューラルネットワークが推論して出さなければならない正解(または結果値)を意味し得る。教師なし学習は学習データに対するラベルが与えられない状態で人工ニューラルネットワークを学習させる方法を意味し得る。強化学習はある環境の中で定義されたエージェントが各状態で累積補償を最大化する行動あるいは行動順序を選択するように学習させる学習方法を意味し得る。 Supervised learning means a method of training an artificial neural network with a label for the training data, and the label is inferred by the artificial neural network when the training data is input to the artificial neural network. It can mean the correct answer (or result value) that must be given. Unsupervised learning can mean a method of training an artificial neural network without giving a label to the training data. Reinforcement learning can mean a learning method in which an agent defined in an environment is trained to select an action or action sequence that maximizes cumulative compensation in each state.
人工ニューラルネットワークの中で複数の隠れ層を含む深層ニューラルネットワーク(DNN:Deep Neural Network)で具現されるマシンラーニングをディープラーニング(深層学習、Deep Learning)とも呼び、ディープラーニングはマシンラーニングの一部である。以下で、マシンラーニングはディープラーニングを含む意味で使われ得る。 Machine learning embodied in a deep neural network (DNN: Deep Natural Network) that includes multiple hidden layers in an artificial neural network is also called deep learning (deep learning), and deep learning is a part of machine learning. be. In the following, machine learning can be used to include deep learning.
一方、ディープラーニングアルゴリズムの他に、decision tree(DT)、k−nearest neighbor(KNN)、logistic regression(LR)、multilayer perceptron(MLP)、random forest(RF)、support vector machine(SVM)およびlassoなど、使うパラメータの種類や数に応じて適合なアルゴリズムを選択して使うことができる。 On the other hand, in addition to the deep learning algorithm, decision tree (DT), k-nearest neighbor (KNN), logistic regression (LR), multilayer perceptron (MLP), random forest (RF), supportM. , You can select and use the appropriate algorithm according to the type and number of parameters to be used.
図12は、本発明の一実施例に係るインタラクティブコンテンツ提供方法のフローチャートである。図12によるインタラクティブコンテンツ提供方法の各段階は、図1を通じて説明されたインタラクティブコンテンツ提供装置100により遂行され得、各段階を説明すると次の通りである。
FIG. 12 is a flowchart of an interactive content providing method according to an embodiment of the present invention. Each step of the interactive content providing method according to FIG. 12 can be performed by the interactive
前記装置100は映像に出力される客体を特定する客体情報と、客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、客体が駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供することができる(S1210)。
The
前記装置100はインタラクティブコンテンツに反映される前記使用者情報の入力を受けることができる(S1220)。
The
前記装置100は客体情報のうち一部に使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させてインタラクティブコンテンツをプレイさせることができる(S1230)。
The
一方、前述した各段階を実施するための過程は図1〜図11と共に説明したため、重複した説明は省略する。 On the other hand, since the process for carrying out each of the above-mentioned steps has been described with FIGS. 1 to 11, duplicated description will be omitted.
前述した本発明の実施例は多様な手段を通じて具現され得る。例えば、本発明の実施例は、ハードウェア、ファームウェア(firmware)、ソフトウェアまたはそれらの結合などによって具現され得る。 The embodiments of the present invention described above can be embodied through various means. For example, embodiments of the present invention may be embodied in hardware, firmware, software or combinations thereof.
ハードウェアによる具現の場合、本発明の実施例に係る方法は、一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロ・プロセッサなどによって具現され得る。 In the case of hardware implementation, the method according to the embodiment of the present invention is one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital SignalProcessing). It can be embodied by Devices), FPGAs (Field Programmable Gate Arrays), processors, controllers, microprocessors, microprocessors and the like.
ファームウェアやソフトウェアによる具現の場合、本発明の実施例に係る方法は、以上で説明された機能または動作を遂行するモジュール、手続きまたは関数などの形態で具現され得る。ソフトウェアコードなどが記録されたコンピュータプログラムは、コンピュータ可読記録媒体またはメモリユニットに保存されてプロセッサによって駆動され得る。メモリユニットはプロセッサの内部または外部に位置して、すでに公知とされている多様な手段によってプロセッサとデータをやり取りすることができる。 In the case of realization by firmware or software, the method according to the embodiment of the present invention may be embodied in the form of a module, procedure or function performing the function or operation described above. A computer program in which software code or the like is recorded may be stored in a computer-readable recording medium or a memory unit and driven by a processor. The memory unit is located inside or outside the processor and can exchange data with the processor by various means already known.
また、本発明に添付されたブロック図の各ブロックとフローチャートの各段階の組み合わせは、コンピュータプログラムインストラクションによって遂行されてもよい。これらコンピュータプログラムインストラクションは、汎用コンピュータ、特殊用コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコードプロセッサに搭載され得るため、コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコードプロセッサを通じて遂行されるそのインストラクションが、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行する手段を生成するようになる。これらコンピュータプログラムインストラクションは、特定の方法で機能を具現するために、コンピュータまたはその他のプログラム可能なデータプロセシング装備を目指すことができるコンピュータ利用可能またはコンピュータ読み出し可能メモリに保存されることも可能であるため、そのコンピュータ利用可能またはコンピュータ読み出し可能メモリに保存されたインストラクションは、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションは、コンピュータまたはその他のプログラム可能なデータプロセシング装備上に搭載されることも可能であるため、コンピュータまたはその他のプログラム可能なデータプロセシング装備上で一連の動作段階が遂行されてコンピュータで実行されるプロセスを生成してコンピュータまたはその他のプログラム可能なデータプロセシング装備を遂行するインストラクションは、ブロック図の各ブロックおよびフローチャートの各段階で説明された機能を遂行するための段階を提供することも可能である。 Further, the combination of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by a computer program instruction. These computer program instructions can be mounted on a general purpose computer, specialty computer or other encode processor with programmable data processing, so that the instructions performed through a computer or other encode processor with programmable data processing are performed. , Will generate means to perform the functions described at each block of the block diagram or at each stage of the flowchart. Because these computer program instructions can also be stored in computer-enabled or computer-readable memory that can be aimed at computers or other programmable data processing equipment to embody functionality in a particular way. The instructions stored in the computer-available or computer-readable memory can also produce manufactured items that include instructional means to perform the functions described at each block of the block diagram or at each stage of the flowchart. .. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps can be performed on the computer or other programmable data processing equipment and performed on the computer. Instructions that generate the process to be performed to perform a computer or other programmable data processing equipment can also provide steps to perform the functions described at each block of the block diagram and at each stage of the flowchart. Is.
併せて、各ブロックまたは各段階は、特定された論理的機能を遂行するための一つ以上の遂行可能なインストラクションを含むモジュール、セグメントまたはコードの一部を示すことができる。また、いくつかの代替実施例では、ブロックまたは段階で言及された機能が順序から外れて発生することも可能であることを注目しなければならない。例えば、続けて図示されている二つのブロックまたは段階は、実は実質的に同時に遂行されることも可能であり、またはそのブロックまたは段階が時々該当する機能により逆順で遂行されることも可能である。 Together, each block or stage can represent a portion of a module, segment or code that contains one or more performable instructions to perform the specified logical function. It should also be noted that in some alternative embodiments it is possible for the features mentioned in the block or stage to occur out of order. For example, two blocks or stages shown in succession can actually be performed at substantially the same time, or the blocks or stages can sometimes be performed in reverse order by the corresponding function. ..
このように、本発明が属する技術分野の当業者は、本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態に実施できることが理解できるはずである。したがって、以上で記述した実施例は、すべての面において例示的なものであり、限定的なものではないと理解されるべきである。本発明の範囲は詳細な説明よりは後述する特許請求の範囲によって示され、特許請求の範囲の意味および範囲、そしてその等価概念から導き出されるすべての変更または変形された形態も本発明の範囲に含まれるものと解釈されるべきである。 As described above, those skilled in the art to which the present invention belongs should understand that the present invention can be implemented in other concrete forms without changing its technical idea or essential features. Therefore, it should be understood that the examples described above are exemplary in all respects and are not limiting. The scope of the present invention is shown by the scope of claims described later rather than the detailed description, and the meaning and scope of the claims and all modified or modified forms derived from the equivalent concept thereof are also included in the scope of the present invention. It should be interpreted as being included.
100:インタラクティブコンテンツ提供装置
110:メモリ
111:アニメーションDB
113:インタラクティブDB
115:命令語DB
120:プロセッサ
121:インタラクティブモジュール
123:音声字幕モジュール
125:イメージモジュール
130:入力インターフェース
140:ディスプレイ部
150:通信インターフェース
160:カメラ部
100: Interactive content providing device 110: Memory 111: Animation DB
113: Interactive DB
115: Command word DB
120: Processor 121: Interactive module 123: Audio subtitle module 125: Image module 130: Input interface 140: Display unit 150: Communication interface 160: Camera unit
Claims (25)
映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する段階;
前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける段階;および
前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる段階を含む、インタラクティブコンテンツ提供方法。 In the interactive content providing method performed by the interactive content providing device,
As a plurality of animation units including the object information that identifies the object output to the video and the driving information that defines the movement of the object are played, the user uses interactive content in which the object is played while being moved by the driving information. Stage to provide to;
The stage of receiving the input of the user information reflected in the interactive content; and the user information is inserted into a part of the object information, and at least one of the plurality of animation units is reproduced to play the interactive content. An interactive content delivery method that includes the stage of playing content.
既設定された順序で再生されるアニメーション方式;または前記複数のアニメーション単位のうちいずれか一つを再生する選択を受ける複数の選択項目に対する前記使用者の第1入力または所定のアニメーション単位の再生中に出力される客体情報に対する使用者の第2入力により、それぞれの入力に基づいて次のアニメーション単位を再生するように定められた分岐アニメーション方式;で再生され、
前記方法は、
前記分岐アニメーション方式に該当するアニメーション単位が再生される場合、前記複数の選択項目の出力に対する第1入力を感知したり、または前記再生中に出力される客体情報に対する第2入力を感知する段階;および
前記第1入力または前記第2入力に対応するアニメーション単位を再生させる段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The plurality of animation units are
Animation method played in a preset order; or during playback of the user's first input or a predetermined animation unit for a plurality of selection items that are selected to play any one of the plurality of animation units. By the user's second input to the object information output to, it is played back in a branch animation scheme; which is defined to play the next animation unit based on each input.
The method is
When the animation unit corresponding to the branch animation method is reproduced, the step of sensing the first input for the output of the plurality of selection items or sensing the second input for the object information output during the reproduction; The interactive content providing method according to claim 1, further comprising the step of reproducing the first input or the animation unit corresponding to the second input.
前記インタラクティブコンテンツのプレイ中に前記使用者入力を保存する段階;および
前記プレイが終了すると前記入力に対応する順序および前記使用者情報によってアニメーション単位が再生される第2コンテンツを生成する段階をさらに含む、請求項2に記載のインタラクティブコンテンツ提供方法。 The method is
It further includes a step of storing the user input during the play of the interactive content; and a step of generating a second content in which the animation unit is played by the sequence corresponding to the input and the user information when the play is finished. , The method for providing interactive content according to claim 2.
前記複数のアニメーション単位とは別個に前記インタラクティブコンテンツがプレイされる途中で前記客体に対する入力が感知される場合、前記客体に発生する動作を定義した客体反応アニメーション情報をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The interactive content is
The first aspect of claim 1, further comprising object reaction animation information defining an action that occurs in the object when an input to the object is sensed while the interactive content is being played separately from the plurality of animation units. How to provide interactive content.
前記使用者が入力した入力情報に対するイベントの種類、入力時間および入力値に対する情報を特定して、前記特定された情報をマッピングしたプレイ情報を生成する段階;および
前記プレイ情報が含むイベントの種類、入力時間および入力値の情報によって前記インタラクティブコンテンツが再生される映像である第2コンテンツを生成する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
The stage of specifying the type of event for the input information input by the user, the information for the input time and the input value, and generating the play information mapping the specified information; and the type of event included in the play information. The method for providing interactive content according to claim 1, further comprising a step of generating a second content which is an image in which the interactive content is reproduced based on information of an input time and an input value.
前記アニメーション単位を構成する前記客体情報および前記駆動情報を使用者に提供して、前記客体情報、前記駆動情報または前記アニメーション単位の再生順序に対する使用者の編集情報の入力を受ける段階をさらに含み、
前記インタラクティブコンテンツをプレイさせる段階は、
前記入力された編集情報が反映されたアニメーション単位に対する情報を含むインタラクティブコンテンツをプレイさせる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
The step further includes providing the user with the object information and the driving information constituting the animation unit, and receiving input of the object information, the driving information, or the user's editing information for the reproduction order of the animation unit.
The stage of playing the interactive content is
The method for providing interactive content according to claim 1, further comprising a step of playing interactive content including information for an animation unit to which the input editing information is reflected.
前記映像で出力される音声情報および前記映像で前記音声情報に対応して出力される字幕情報をさらに含み、
前記音声情報は、
既設定された時間以下の再生時間を有する音声ファイルを含み、
前記方法は、
前記映像で前記音声情報が再生される場合、前記再生時間の間前記音声情報に対応する字幕情報を前記映像に出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The animation unit is
Further including the audio information output by the video and the subtitle information output corresponding to the audio information in the video.
The voice information is
Includes audio files with a playback time less than or equal to the preset time
The method is
The interactive content providing method according to claim 1, further comprising a step of outputting the subtitle information corresponding to the audio information to the video when the audio information is reproduced in the video.
前記映像で出力される字幕に対する入力が感知されると、前記字幕情報に対応する前記使用者音声の入力を受ける段階;
前記感知された字幕情報に対応する音声情報に前記使用者音声を挿入する段階;および
前記プレイが終了すると前記使用者音声が挿入された音声情報が前記字幕情報に対応して出力されるアニメーション単位が再生される第2コンテンツを生成する段階をさらに含む、請求項7に記載のインタラクティブコンテンツ提供方法。 The method is
When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information;
The stage of inserting the user's voice into the voice information corresponding to the sensed subtitle information; and the animation unit in which the voice information into which the user's voice is inserted is output corresponding to the subtitle information when the play is completed. The interactive content providing method according to claim 7, further comprising a step of generating a second content to be reproduced.
前記字幕情報の前に出力される字幕を探索する第1ボタン、および前記字幕情報の後に出力される字幕を探索する第2ボタンを出力する段階;
前記第1ボタンまたは前記第2ボタンに対する使用者入力に基づいて前の字幕または次の字幕を出力する段階;および
前記第1ボタンまたは前記第2ボタンに対する使用者入力に基づいて出力される字幕情報に対応する前記使用者音声の入力を受ける段階を含む、請求項8に記載のインタラクティブコンテンツ提供方法。 When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information is
A step of outputting a first button for searching for a subtitle output before the subtitle information and a second button for searching for a subtitle output after the subtitle information;
The step of outputting the previous subtitle or the next subtitle based on the user input for the first button or the second button; and the subtitle information output based on the user input for the first button or the second button. The interactive content providing method according to claim 8, which comprises the step of receiving the input of the user voice corresponding to the above.
既設定された時間以上に前記使用者音声の入力を受ける場合、前記使用者に課金を賦課する段階を含む、請求項9に記載のインタラクティブコンテンツ提供方法。 When the input to the subtitle output in the video is detected, the stage of receiving the input of the user voice corresponding to the subtitle information is
The interactive content providing method according to claim 9, further comprising a step of imposing a charge on the user when the user's voice is input for a time longer than a preset time.
前記使用者情報が前記使用者の顔イメージを含む場合、前記顔イメージを標準化させて前記客体情報のうちキャラクタの顔に該当する客体情報に前記標準化された顔イメージを代入する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
When the user information includes the user's face image, the step of standardizing the face image and substituting the standardized face image into the object information corresponding to the character's face among the object information is further included. The method for providing interactive content according to claim 1.
前記使用者から顔イメージが入力される場合、顔イメージが所定の角度、形態、または表情を形成するように変形されたイメージを出力するように学習された所定の人工知能モデルを利用して、前記顔イメージが所定の角度、形態、または表情を形成するように標準化する段階;および
前記標準化された顔イメージの特徴点を頂点(vertex)として特定する段階;
前記頂点を連結して構成されたメッシュ(mesh)構造で構成された3次元モデルを形成する段階;
前記客体情報のうちキャラクタの顔に該当する客体情報に前記3次元モデルを代入する段階を含む、請求項11に記載のインタラクティブコンテンツ提供方法。 The substituting step is
When a face image is input from the user, a predetermined artificial intelligence model trained to output an image in which the face image is deformed to form a predetermined angle, morphology, or facial expression is utilized. The step of standardizing the facial image to form a predetermined angle, morphology, or facial expression; and the step of identifying the feature points of the standardized facial image as vertex;
The stage of forming a three-dimensional model composed of a mesh structure composed by connecting the vertices;
The interactive content providing method according to claim 11, further comprising a step of substituting the three-dimensional model into the object information corresponding to the face of the character among the object information.
前記3次元モデルを構成する頂点を前記駆動情報によって移動して動きまたは表情を具現する段階を含む、請求項12に記載のインタラクティブコンテンツ提供方法。 The stage of playing the interactive content is
The interactive content providing method according to claim 12, further comprising a step of moving the vertices constituting the three-dimensional model by the driving information to realize a movement or a facial expression.
前記3次元モデルを構成する頂点のうち動きが開始される第1頂点と前記動きが終結する第2頂点を特定する段階;および
前記3次元モデルを構成する頂点が前記駆動情報に基づいて移動して動きや表情を実装するように、前記第1頂点が前記第2頂点に向かって移動するように制御する段階を含む、請求項13に記載のインタラクティブコンテンツ提供方法。 The stage of embodying the movement or facial expression is
The stage of identifying the first vertex where the movement starts and the second vertex where the movement ends among the vertices constituting the 3D model; and the vertices constituting the 3D model move based on the driving information. 13. The method of providing interactive content according to claim 13, comprising a step of controlling the first vertex to move toward the second vertex so as to implement movement and expression.
前記3次元モデルを構成する頂点のうち動きが開始される第1頂点と前記動きが終結する第2頂点を特定する段階、前記第1頂点は複数個の頂点を含み、前記複数個の頂点は互いに異なる少なくとも一つの頂点と連結されており、前記第2頂点は前記複数個と同一個数の頂点を含む;
前記3次元モデルを構成する面(face)のうち前記複数の第1頂点それぞれの動きの終結地点として特定された前記複数の第2頂点それぞれに達するまでを最短距離で連結する面を判別する段階;
前記面に基づいて前記第1頂点から前記第2頂点に達する所定の線に沿ってn個(nは1以上の自然数)の地点を特定する段階;および
前記動きを具現する場合、前記第1頂点が前記n個の地点を経て前記第2頂点に向かって移動するように制御する段階を含む、請求項13に記載のインタラクティブコンテンツ提供方法。 The stage of embodying the movement or facial expression is
At the stage of specifying the first vertex at which the movement starts and the second vertex at which the movement ends among the vertices constituting the three-dimensional model, the first vertex includes a plurality of vertices, and the plurality of vertices are It is concatenated with at least one vertex that is different from each other, and the second vertex contains the same number of vertices as the plurality;
A step of determining a surface that connects the faces constituting the three-dimensional model at the shortest distance until each of the plurality of second vertices specified as the end point of the movement of each of the plurality of first vertices is reached. ;
A step of identifying n points (n is a natural number of 1 or more) along a predetermined line from the first vertex to the second vertex based on the surface; and when the movement is realized, the first 13. The interactive content providing method according to claim 13, comprising a step of controlling the vertices to move toward the second vertex through the n points.
前記客体情報のうち基本キャラクタに加えて追加のキャラクタに顔イメージを代入する選択を受ける場合、前記使用者に課金を賦課する段階を含む、請求項11に記載のインタラクティブコンテンツ提供方法。 The stage of substituting the standardized face image into the object information corresponding to the character's face in the object information is
The interactive content providing method according to claim 11, further comprising a step of imposing a charge on the user when receiving a selection of substituting a face image for an additional character in addition to the basic character in the object information.
前記使用者情報が前記使用者の顔イメージを含む場合、所定の人工知能アルゴリズムに基づいて前記顔イメージを分析して前記顔イメージの属性を示す第1タグ情報を抽出する段階;および
キャラクタの顔に該当する客体情報にマッピングされている第2タグ情報と前記第1タグ情報とを比較して、対応する前記第1および第2タグ情報が最も多いキャラクタに前記顔イメージを代入する段階をさらに含み、
前記第2タグ情報は、
前記キャラクタの顔に該当する客体情報にマッピングされて既保存されているか、または所定の人工知能アルゴリズムに基づいて前記キャラクタのイメージから抽出された属性情報である、請求項11に記載のインタラクティブコンテンツ提供方法。 The method is
When the user information includes the user's face image, the step of analyzing the face image based on a predetermined artificial intelligence algorithm to extract the first tag information indicating the attribute of the face image; and the character's face. Further, a step of comparing the second tag information mapped to the object information corresponding to the above with the first tag information and substituting the face image into the character having the most corresponding first and second tag information. Including,
The second tag information is
The interactive content provision according to claim 11, which is attribute information that is mapped to object information corresponding to the character's face and has already been saved, or is attribute information extracted from the character's image based on a predetermined artificial intelligence algorithm. Method.
前記使用者情報が前記使用者の顔イメージを含む場合、前記顔イメージのトーンを補正する段階;および
前記顔イメージを所定の規則に沿って変形させる顔フィルタを適用する段階をさらに含む、請求項11に記載のインタラクティブコンテンツ提供方法。 The method is
A claim further comprising a step of correcting the tone of the face image when the user information includes the face image of the user; and a step of applying a face filter that deforms the face image according to a predetermined rule. 11. The method for providing interactive content according to 11.
前記使用者情報が前記使用者の顔イメージを含む場合、所定の人工知能アルゴリズムに基づいて既設定された顔情報の規格から外れる場合、他の顔イメージを入力することを要請する段階をさらに含む、請求項11に記載のインタラクティブコンテンツ提供方法。 The method is
If the user information includes the user's face image, and if the user information deviates from the standard of the face information already set based on the predetermined artificial intelligence algorithm, the step of requesting the input of another face image is further included. , The method for providing interactive content according to claim 11.
前記客体情報が出力されるべき位置が異なる規格別に既設定されている座標情報に基づいて、使用者の前記規格の選択によって前記客体情報を前記規格に対応する座標情報によって出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
It further includes a step of outputting the object information by the coordinate information corresponding to the standard by the user's selection of the standard based on the coordinate information already set for each standard in which the position where the object information should be output is different. , The method for providing interactive content according to claim 1.
前記インタラクティブコンテンツ提供装置のカメラ部を駆動して周辺環境を撮影した周辺映像の入力を受ける段階;
前記インタラクティブコンテンツ提供装置のディスプレイ部内で前記客体情報が出力されるべき位置が既設定されている座標情報に基づいて、前記客体情報を前記周辺映像のレイヤーの上部に配置して前記ディスプレイ部に出力したり、または前記客体情報が前記周辺映像の位置のうち一地点にマッピングされるように設計された関数に基づいて、前記客体情報を前記周辺映像のレイヤーの上部に配置して前記ディスプレイ部に出力する段階をさらに含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
At the stage of driving the camera unit of the interactive content providing device and receiving the input of the peripheral image of the surrounding environment;
Based on the coordinate information in which the position where the object information should be output is already set in the display unit of the interactive content providing device, the object information is arranged on the upper part of the layer of the peripheral image and output to the display unit. Or, based on a function designed so that the object information is mapped to one of the positions of the peripheral image, the object information is arranged on the upper part of the layer of the peripheral image and placed on the display unit. The interactive content providing method according to claim 1, further comprising an output step.
入力された客体情報のクラスを判別して前記クラスに対応する駆動情報をマッピングさせるように学習された所定の人工知能モデルを利用して、前記人工知能モデルに第1客体情報を入力し、前記人工知能モデルが判別した第1駆動情報をマッピングさせる段階;および
前記第1客体情報に対応する客体に対する前記使用者入力を感知すると、第1駆動情報を駆動させる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The method is
Using a predetermined artificial intelligence model learned to discriminate the class of the input object information and map the drive information corresponding to the class, the first object information is input to the artificial intelligence model, and the above-mentioned The first aspect of claim 1, comprising a step of mapping the first drive information determined by the artificial intelligence model; and a step of driving the first drive information when the user input to the object corresponding to the first object information is sensed. How to provide interactive content.
キャラクタの顔または使用者の顔を反映する使用者モデルおよび前記使用者モデルに対する相対的距離に基づいて前記使用者モデルと共に表現され得る第2客体に対する情報をさらに含み、
前記インタラクティブコンテンツをプレイさせる段階は、
前記駆動情報によって前記使用者モデルが動く場合、前記使用者モデルに含まれた一つ以上の頂点と前記第2客体との相対的距離が一定に維持されるように設定して前記インタラクティブコンテンツをプレイさせる段階を含む、請求項1に記載のインタラクティブコンテンツ提供方法。 The object information is
It further includes information about a user model that reflects the character's face or the user's face and a second object that can be represented with the user model based on the relative distance to the user model.
The stage of playing the interactive content is
When the user model is moved by the driving information, the interactive content is set so that the relative distance between one or more vertices included in the user model and the second object is kept constant. The interactive content providing method according to claim 1, which includes a stage of playing.
使用者入力を感知する入力インターフェース;映像を出力するディスプレイ部;所定の動作を遂行するようにする命令語を保存する一つ以上のメモリ;および前記一つ以上のメモリと動作可能なように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
前記一つ以上のプロセッサは、
前記映像に出力される客体を特定する客体情報と前記客体の動作を定義した駆動情報を含む複数のアニメーション単位が再生されるにつれて、前記客体が前記駆動情報によって動きながらプレイされるインタラクティブコンテンツを使用者に提供する動作;
前記インタラクティブコンテンツに反映される前記使用者情報の入力を受ける動作;および
前記客体情報のうち一部に前記使用者情報を挿入し、前記複数のアニメーション単位のうち少なくとも一つを再生させて前記インタラクティブコンテンツをプレイさせる動作を遂行する、インタラクティブコンテンツ提供装置。 In the interactive content providing device
An input interface that senses user input; a display unit that outputs video; one or more memories that store instruction words that perform a predetermined operation; and concatenated so as to be able to operate with the one or more memories. Includes one or more processors configured to execute the instruction word
The one or more processors mentioned above
As a plurality of animation units including the object information that identifies the object output to the video and the driving information that defines the movement of the object are played, the interactive content that the object is played while moving by the driving information is used. Actions to be provided to the person;
The operation of receiving the input of the user information reflected in the interactive content; and the user information is inserted into a part of the object information, and at least one of the plurality of animation units is reproduced to play the interactive content. An interactive content providing device that performs the action of playing content.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0059105 | 2020-05-18 | ||
KR1020200059105A KR102180576B1 (en) | 2020-05-18 | 2020-05-18 | Method and apparatus for providing re-programmed interactive content based on user playing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021182369A true JP2021182369A (en) | 2021-11-25 |
Family
ID=73697527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020204006A Pending JP2021182369A (en) | 2020-05-18 | 2020-12-09 | Method and device for providing interactive content re-programmed on the basis of playing of user |
Country Status (4)
Country | Link |
---|---|
US (1) | US11402975B2 (en) |
JP (1) | JP2021182369A (en) |
KR (1) | KR102180576B1 (en) |
WO (1) | WO2021235636A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102180576B1 (en) * | 2020-05-18 | 2020-11-18 | 주식회사 일루니 | Method and apparatus for providing re-programmed interactive content based on user playing |
US20210375023A1 (en) * | 2020-06-01 | 2021-12-02 | Nvidia Corporation | Content animation using one or more neural networks |
US11461970B1 (en) | 2021-03-15 | 2022-10-04 | Tencent America LLC | Methods and systems for extracting color from facial image |
KR20230063457A (en) | 2021-11-02 | 2023-05-09 | 신주엽 | Method and device for providing image progress information according to walking in place |
KR102405062B1 (en) * | 2021-11-26 | 2022-06-07 | 주식회사 일루니 | Method and apparatus for providing interactive content based on generating and playing subtitles for reading along |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08263681A (en) * | 1995-03-22 | 1996-10-11 | Matsushita Electric Ind Co Ltd | Device and method for generating animation |
JPH09198522A (en) * | 1996-01-22 | 1997-07-31 | Mitsubishi Electric Corp | Animation production system |
JP2000322590A (en) * | 1999-05-14 | 2000-11-24 | Sharp Corp | Method and device for animation processing and recording medium with animation processing program recorded thereon |
JP2001292305A (en) * | 2000-02-02 | 2001-10-19 | Casio Comput Co Ltd | Image data synthesizer, image data synthesis system, image data synthesis method and recording medium |
WO2003038759A1 (en) * | 2001-10-29 | 2003-05-08 | Sharp Kabushiki Kaisha | Cellular terminal, method for creating animation on cellular terminal, and animation creation system |
JP2004071013A (en) * | 2002-08-05 | 2004-03-04 | Nippon Hoso Kyokai <Nhk> | Method, device and program for recording audio data with video |
JP2004072776A (en) * | 2003-08-07 | 2004-03-04 | Sharp Corp | Cellular phone unit, method and program for controlling the unit, and computer-readable recording medium on which the program is recorded |
JP3124018U (en) * | 2006-05-23 | 2006-08-03 | 株式会社ダイワ通商 | Character training game system |
JP2008217447A (en) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Content generation device and content generation program |
JP2008304999A (en) * | 2007-06-05 | 2008-12-18 | Konami Digital Entertainment:Kk | Image processor, image processing method and program |
JP2011170891A (en) * | 2000-08-30 | 2011-09-01 | Microsoft Corp | Facial image processing method and system |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5854634A (en) * | 1995-12-26 | 1998-12-29 | Imax Corporation | Computer-assisted animation construction system using source poses within a pose transformation space |
US20080158230A1 (en) * | 2006-12-29 | 2008-07-03 | Pictureal Corp. | Automatic facial animation using an image of a user |
WO2010129263A2 (en) * | 2009-04-27 | 2010-11-11 | Sonoma Data Solutions Llc | A method and apparatus for character animation |
US8154615B2 (en) * | 2009-06-30 | 2012-04-10 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
JP2012181704A (en) * | 2011-03-01 | 2012-09-20 | Sony Computer Entertainment Inc | Information processor and information processing method |
KR101814747B1 (en) * | 2011-05-12 | 2018-01-03 | 에스케이플래닛 주식회사 | Method for providing image authoring based on cloud computing, and service apparatus therefor |
KR20130093186A (en) * | 2012-02-14 | 2013-08-22 | 주식회사 와이즈게코 | Apparatus for making a moving image with interactive character |
US9245176B2 (en) * | 2012-08-01 | 2016-01-26 | Disney Enterprises, Inc. | Content retargeting using facial layers |
US10019825B2 (en) * | 2013-06-05 | 2018-07-10 | Intel Corporation | Karaoke avatar animation based on facial motion data |
US20180276185A1 (en) * | 2013-06-27 | 2018-09-27 | Plotagon Ab Corporation | System, apparatus and method for formatting a manuscript automatically |
JP6462386B2 (en) * | 2015-02-05 | 2019-01-30 | 任天堂株式会社 | Program, communication terminal and display method |
US9600742B2 (en) * | 2015-05-05 | 2017-03-21 | Lucasfilm Entertainment Company Ltd. | Determining control values of an animation model using performance capture |
KR101728099B1 (en) * | 2016-01-29 | 2017-04-19 | 정수진 | Product Information Providing Apparatus for Electrical Transaction using Scenario-based Combined Story Contents |
US10163244B2 (en) * | 2016-02-03 | 2018-12-25 | Adobe Systems Incorporation | Creating reusable and configurable digital whiteboard animations |
US10551993B1 (en) * | 2016-05-15 | 2020-02-04 | Google Llc | Virtual reality content development environment |
US20180047200A1 (en) * | 2016-08-11 | 2018-02-15 | Jibjab Media Inc. | Combining user images and computer-generated illustrations to produce personalized animated digital avatars |
US20180188905A1 (en) * | 2017-01-04 | 2018-07-05 | Google Inc. | Generating messaging streams with animated objects |
KR101902553B1 (en) * | 2017-09-07 | 2018-09-28 | 박병화 | Terminal for providing storytelling contents tool and Method for providing storytelling |
US20190114037A1 (en) * | 2017-10-17 | 2019-04-18 | Blend Systems, Inc. | Systems and methods for distributing customized avatars responsive to events |
KR102517427B1 (en) * | 2017-11-29 | 2023-04-03 | 스냅 인코포레이티드 | Graphic rendering for electronic messaging applications |
KR102661019B1 (en) * | 2018-02-23 | 2024-04-26 | 삼성전자주식회사 | Electronic device providing image including 3d avatar in which motion of face is reflected by using 3d avatar corresponding to face and method for operating thefeof |
US11231843B2 (en) * | 2018-03-05 | 2022-01-25 | E-Sig Marketing LLC | Animated slides editor for generating an animated email signature |
US10755463B1 (en) * | 2018-07-20 | 2020-08-25 | Facebook Technologies, Llc | Audio-based face tracking and lip syncing for natural facial animation and lip movement |
US20200142572A1 (en) * | 2018-11-07 | 2020-05-07 | Adobe Inc. | Generating interactive, digital data narrative animations by dynamically analyzing underlying linked datasets |
US11199957B1 (en) * | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
CN110045817A (en) * | 2019-01-14 | 2019-07-23 | 启云科技股份有限公司 | Using the interactive camera chain of virtual reality technology |
US11049332B2 (en) * | 2019-03-07 | 2021-06-29 | Lucasfilm Entertainment Company Ltd. | Facial performance capture in an uncontrolled environment |
US10552667B1 (en) * | 2019-08-19 | 2020-02-04 | Neon Evolution Inc. | Methods and systems for image processing |
US11356720B2 (en) * | 2020-01-30 | 2022-06-07 | Snap Inc. | Video generation system to render frames on demand |
KR102180576B1 (en) * | 2020-05-18 | 2020-11-18 | 주식회사 일루니 | Method and apparatus for providing re-programmed interactive content based on user playing |
-
2020
- 2020-05-18 KR KR1020200059105A patent/KR102180576B1/en active IP Right Grant
- 2020-12-01 WO PCT/KR2020/017396 patent/WO2021235636A1/en active Application Filing
- 2020-12-09 JP JP2020204006A patent/JP2021182369A/en active Pending
- 2020-12-09 US US17/116,040 patent/US11402975B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08263681A (en) * | 1995-03-22 | 1996-10-11 | Matsushita Electric Ind Co Ltd | Device and method for generating animation |
JPH09198522A (en) * | 1996-01-22 | 1997-07-31 | Mitsubishi Electric Corp | Animation production system |
JP2000322590A (en) * | 1999-05-14 | 2000-11-24 | Sharp Corp | Method and device for animation processing and recording medium with animation processing program recorded thereon |
JP2001292305A (en) * | 2000-02-02 | 2001-10-19 | Casio Comput Co Ltd | Image data synthesizer, image data synthesis system, image data synthesis method and recording medium |
JP2011170891A (en) * | 2000-08-30 | 2011-09-01 | Microsoft Corp | Facial image processing method and system |
WO2003038759A1 (en) * | 2001-10-29 | 2003-05-08 | Sharp Kabushiki Kaisha | Cellular terminal, method for creating animation on cellular terminal, and animation creation system |
JP2004071013A (en) * | 2002-08-05 | 2004-03-04 | Nippon Hoso Kyokai <Nhk> | Method, device and program for recording audio data with video |
JP2004072776A (en) * | 2003-08-07 | 2004-03-04 | Sharp Corp | Cellular phone unit, method and program for controlling the unit, and computer-readable recording medium on which the program is recorded |
JP3124018U (en) * | 2006-05-23 | 2006-08-03 | 株式会社ダイワ通商 | Character training game system |
JP2008217447A (en) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Content generation device and content generation program |
JP2008304999A (en) * | 2007-06-05 | 2008-12-18 | Konami Digital Entertainment:Kk | Image processor, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
US20210357088A1 (en) | 2021-11-18 |
WO2021235636A1 (en) | 2021-11-25 |
KR102180576B9 (en) | 2022-06-10 |
US11402975B2 (en) | 2022-08-02 |
KR102180576B1 (en) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021182369A (en) | Method and device for providing interactive content re-programmed on the basis of playing of user | |
US11798215B2 (en) | Avatar facial expression representation in multidimensional space | |
US11789524B2 (en) | Rendering location specific virtual content in any location | |
US10860838B1 (en) | Universal facial expression translation and character rendering system | |
Tinwell et al. | The uncanny wall | |
US7738997B2 (en) | Robotic system for synchronously reproducing facial expression and speech and related method thereof | |
US20160086366A1 (en) | Social Identity Models for Automated Entity Interactions | |
Saldien et al. | A motion system for social and animated robots | |
KR102525181B1 (en) | System for correcting image and image correcting method thereof | |
JPH11508491A (en) | Installations and methods for controlling movable equipment (apparatus) | |
US11648477B2 (en) | Systems and methods for generating a model of a character from one or more images | |
Fried et al. | Editing self-image | |
CN113633983A (en) | Method, device, electronic equipment and medium for controlling expression of virtual character | |
EP4244821A1 (en) | Systems and methods for personalized and interactive extended reality experiences | |
JP2001249949A (en) | Feeling generation method, feeling generator and recording medium | |
KR20210073442A (en) | Method and system for generating morphable 3d moving model | |
Liu | An analysis of the current and future state of 3D facial animation techniques and systems | |
CN114712862A (en) | Virtual pet interaction method, electronic device and computer-readable storage medium | |
Gillies | Creating virtual characters | |
CN110969237A (en) | Man-machine virtual interaction construction method, equipment and medium under view angle of amphoteric relationship | |
US20210174703A1 (en) | Methods and systems for facilitating learning of a language through gamification | |
Junius et al. | Playing with the strings: designing puppitor as an acting interface for digital games | |
Junius | Puppitor: Building an Acting Interface for Videogames | |
CN117315126A (en) | Lip alignment method, device, equipment and storage medium | |
KR20240013685A (en) | Expression transfer to stylized avatars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220621 |