WO2022240266A1 - Ai 기반 캐릭터 생성 시스템 및 방법 - Google Patents

Ai 기반 캐릭터 생성 시스템 및 방법 Download PDF

Info

Publication number
WO2022240266A1
WO2022240266A1 PCT/KR2022/006995 KR2022006995W WO2022240266A1 WO 2022240266 A1 WO2022240266 A1 WO 2022240266A1 KR 2022006995 W KR2022006995 W KR 2022006995W WO 2022240266 A1 WO2022240266 A1 WO 2022240266A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
character
phenotypic
genome
nucleic acid
Prior art date
Application number
PCT/KR2022/006995
Other languages
English (en)
French (fr)
Inventor
이윤경
Original Assignee
이윤경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이윤경 filed Critical 이윤경
Priority claimed from KR1020220059629A external-priority patent/KR20220155239A/ko
Publication of WO2022240266A1 publication Critical patent/WO2022240266A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a technology for generating a character in a virtual space, and particularly to generating a character image associated with genetic information.
  • Korean Patent Registration No. 10-2128399 discloses a method comprising: obtaining first data including 3D location information of a marker attached to a face by a first camera; obtaining second data including an image of the face to which the marker is attached by a second camera; converting the second data into third data by removing only the image of the marker from the face image; and using the first data and the third data as learning data for learning a learning model.
  • Patent Registration No. 10-2264803 extracts an outline from an image containing an input character, extracts a character by extracting a character's outline from the extracted outline, and maps a mesh to the extracted character.
  • a character animation generation method and apparatus for generating movement of a character image by calculating bone and joint information of a character image based on coordinate information of bone and joint information of an input video.
  • Patent Registration No. 10-2170445 discloses (a) acquiring a plurality of three-dimensional facial expression data corresponding to a plurality of facial expressions of a specific person; (b) designating some of the plurality of 3D facial expression data as a basic facial expression model; (c) a deep learning-based facial expression modeling step of generating a 3D facial expression model based on a difference from the basic facial expression model for each of the plurality of 3D facial expression data; and (d) generating a facial expression of a character corresponding to the specific person according to the 3D facial expression model.
  • An AI-based character generation method is performed by an AI-based character generation system and includes the steps of learning a character generation model using learning data including phenotypic genome information and character image data; and generating a character image by applying the character generation model to phenotype information provided directly or indirectly from a user.
  • the method may further include storing the generated character image and genome information including the provided phenotypic genome information in correspondence with each other.
  • the storing step it may be distributed and stored in a plurality of nodes connected by a blockchain.
  • artificial nucleic acid sequence information is stored in correspondence with the generated character image and the genome information, and the artificial nucleic acid sequence information is based on a correspondence relationship between information units and nucleic acid sequence information set in advance.
  • Authentication information composed of information units may be converted into a series of nucleic acid sequence information.
  • the artificial nucleic acid sequence information can be used for character identification in a virtual space.
  • the artificial nucleic acid sequence information can be used for online character transaction authentication.
  • the genetic information of the character may be used to generate an image and dielectric information of the new character when a new character is created through breeding of characters in a virtual space.
  • the method may include receiving genome information from a user; and extracting phenotypic genome information from the genome information.
  • the method may include receiving image data from a user; and generating phenotypic genomic information from the image data.
  • the method further comprises the step of learning a first artificial intelligence model using learning data including image data and phenotypic genomic information, wherein the generating of the phenotypic genomic information comprises using the first artificial intelligence model as a user By applying the image data received from the phenotypic genome information can be generated.
  • the method may include receiving voice or text description data about a character from a user; and generating phenotypic genomic information from the description data.
  • the method further comprises the step of learning a second artificial intelligence model using learning data including information on at least one of the appearance, personality, taste, habit, behavior pattern, and psychology of the character and phenotypic genomic information,
  • a second artificial intelligence model using learning data including information on at least one of the appearance, personality, taste, habit, behavior pattern, and psychology of the character and phenotypic genomic information.
  • syntactic analysis and morphological analysis are performed on the received description data; extracting a word representing at least one of appearance, personality, taste, and habit from the analyzed syntax and morpheme; and generating the phenotypic genome information by applying the second artificial intelligence model to the extracted word.
  • the phenotypic genomic information may be for any one of humans, animals and plants.
  • the phenotypic genomic information provided by the user may be the user's own or someone else's.
  • the phenotypic genomic information provided by the user may be real or virtual.
  • the character image may be at least one of pictures, illustrations, animations, holograms, live-action models, photographs, and sculptures.
  • a recording medium is a computer-readable recording medium on which a program for executing the above method is recorded on a computer.
  • the AI-based character generation system includes a character generation model learning unit for learning a character generation model using learning data including phenotypic genome information and character image data; and a character image generator for generating a character image by applying the character generation model to phenotypic genomic information provided directly or indirectly from a user.
  • the system may further include a character image storage unit for storing the generated character image and genome information including the provided phenotypic genome information in correspondence with each other.
  • the character image storage unit may be distributed and stored in a plurality of nodes connected by a blockchain.
  • the character image storage unit stores artificial nucleic acid sequence information in correspondence with the generated character image and the genome information, and the artificial nucleic acid sequence information, based on a correspondence relationship between information units and nucleic acid sequence information set in advance, includes one or more Authentication information composed of information units can be converted into a series of nucleic acid sequence information.
  • each character since each character has its own dielectric information, it is possible to impart uniqueness and identification to the character in a virtual space.
  • artificial nucleic acid sequence information can be used for character identification and transaction authentication.
  • each character has genetic information, it is possible to assign genetic information to the crossed characters similar to the case of an actual individual.
  • FIG. 1 is a block diagram of a character generating system according to an embodiment of the present invention.
  • FIG. 2a and 2b are examples of configuration diagrams of the phenotypic genome information generation unit of FIG. 1 .
  • 3A to 3D are examples of conversion tables used in the authentication information conversion unit of FIG. 1 .
  • FIG. 4 is a flowchart of a character creation method according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of an example of a step of generating phenotypic genomic information.
  • 6A to 6C are diagrams showing the result of generating a character image using image data and description data provided by a user.
  • each unit may be implemented by hardware and/or software, and may be physically separated or implemented as one unit.
  • connection means direct or indirect cases.
  • genome information includes genome sequence information
  • genome sequence information includes cDNA sequence, mRNA sequence, and/or expression profiles, epigenetic data, protein data, whole genome data, methylation data, metabolomic data, microbiome data , human sequence data, genotype data from PCR, genotype data from DNA microarrays, genotype data from total genome sequencing, genotype data from whole genome sequencing, genotype data from gene sequencing, karyotype data, implantation- It may include whole genetic test data, non-invasive prenatal genetic test data of an embryo or fetus, and the like. The scope of such data is not limited and may be obtained by methods well known in the art.
  • the genome information body may be arbitrarily synthesized.
  • FIG. 1 is a configuration diagram of a character generating system 1 according to an embodiment of the present invention.
  • the character creation system 1 includes a character creation model learning unit 100 and a character image generation unit 200 .
  • the character generation model learning unit 100 learns the character generation model using learning data including phenotypic genome information and character image data.
  • Phenotype genomic information refers to information within the genome related to the characteristics of an observable individual among genome information. Specific genes, combinations of genes, combinations of genes and proteins, and combinations of genes and non-genetic sequence information are also included. For example, genetic information corresponding to hair color, genetic information corresponding to eye color, genetic information corresponding to skin color, genetic information corresponding to the presence or absence of double eyelids, etc. Contains genetic information about internal physical characteristics. In addition, phenotypic genomic information includes not only such genetic information, but also information about markers in the genome that can specify a phenotype as a non-genetic element.
  • Character image data and character images generated by the character image generation unit 200 to be described later may be various data representing images such as photos and videos.
  • Character image data and character images can be expressed in various ways, such as drawings, illustrations, animations, holograms, live-action models, photographs, and sculptures, which are expressed in consideration of the dimensions of images such as points, lines, planes, space, and time.
  • the character image data and the character image may have the same or different shapes. However, if the character image data is an image of the same form as the character image, the accuracy of character generation can be further increased.
  • the character image to be created by the character image generating unit 200 is an illustration
  • the illustration may be provided as character image data for learning data.
  • the image to be generated by the character image generating unit 200 is a 3D image
  • the 3D image may be provided as character image data for learning data.
  • a 2D image may be provided as character image data for learning data.
  • the character generation model learning unit 100 may use phenotypic genomic information of a specific person and an image (photo, illustration, video) of a specific person as learning data. At this time, the phenotypic and genomic information of a specific person may be known in advance through genetic analysis. Since a lot of learning data is required to increase the accuracy of the character generation model, learning data for a number of specific people is required.
  • Phenotypic genome information and character image data do not necessarily have to be one-to-one. Rather, a plurality of phenotypic genome information may correspond to one character image data. For example, a plurality of phenotypic genetic information, such as genetic information corresponding to hair color, genetic information corresponding to eye color, genetic information corresponding to skin color, and genetic information regarding the presence or absence of double eyelids, can correspond to one character image data. . In addition, a plurality of phenotypic genome information may correspond to a plurality of character image data. For example, if the character image represented by the character image data is 3-dimensional, it can be considered that there are a plurality of 2-dimensional character images, and accordingly, a plurality of phenotypic genome information can correspond to the plurality of 2-dimensional character image data.
  • the character generation model may utilize, for example, a convolutional neural network (CNN), but the scope of the present invention is not limited thereto.
  • CNN convolutional neural network
  • various machine learning or deep learning models known to those skilled in the art may be used.
  • the character image generation unit 200 generates a character image by applying the character generation model to phenotypic genomic information provided directly or indirectly from a user.
  • the generated character image and the phenotypic genomic information provided by the user may be used again as learning data in the character generation model to update the character generation model.
  • both the image data provided by the user and the character image generated by the character generation model of the character image generation unit 200 may be two-dimensional images.
  • the final character image may be converted into a 3D image by using a function of converting a 2D image into a 3D image widely known in the art.
  • the phenotypic genomic information may be provided directly from the user or extracted or generated from other information.
  • the user may directly provide phenotypic genome information through a user terminal (not shown).
  • the character creation system 1 may further include a phenotypic genome information generator 300 .
  • the phenotypic genomic information generating unit 300 generates or extracts phenotypic genomic information from user data.
  • the phenotype genome information generation unit 300 may extract phenotypic genome information from among genome information provided by a user.
  • the character creation system 1 may further include a character image storage unit 400 .
  • the character image storage unit 400 stores the character image generated by the character image generator 200 and genome information including phenotypic genome information provided by the user in correspondence with each other.
  • the character image storage unit 400 may store the character image and the dielectric information in a database or distributedly store them in a plurality of nodes connected by a block chain.
  • the character creation system 1 may further include an authentication information conversion unit 500 .
  • the authentication information conversion unit 500 converts the authentication information into artificial nucleic acid sequence information. Specifically, the authentication information conversion unit 500 converts authentication information composed of one or more information units into a series of nucleic acid sequence information based on a correspondence relationship between previously set nucleic acid sequence information and information units.
  • the character image storage unit 400 may store the artificial nucleic acid sequence information additionally corresponding to the character image and the genome information.
  • FIG. 2A is a configuration diagram of an example of the phenotypic genome information generating unit 300a of FIG. 1 .
  • the phenotypic genomic information generating unit 300a is phenotypic genomic information, for example, genetic information corresponding to hair color and genetic information corresponding to eye color, from image data such as photos, illustrations, and videos provided by the user. , genetic information corresponding to skin color, genetic information regarding the presence or absence of double eyelids, etc. can be generated.
  • the phenotypic genomic information generation unit 300a may use the first artificial intelligence model 310 for extracting phenotypic genomic information from image data.
  • the first artificial intelligence model 310 may be learned in advance using image data and learning data including phenotypic genomic information corresponding to the image data.
  • a convolutional neural network (CNN), machine learning or deep learning model may be used.
  • FIG. 2B is a configuration diagram of another example of the phenotypic genome information generation unit 300b of FIG. 1 .
  • the phenotypic genomic information generating unit 300b may generate phenotypic genomic information from explanatory data in the form of voice or text provided by the user.
  • the phenotypic genome information generation unit 300b includes a natural language processing engine 320 that performs syntax analysis and morpheme analysis on description data provided by the user, and extracts keywords from the syntax and morpheme analyzed by the natural language processing engine 320. It may include a keyword extractor 330 and a second artificial intelligence model 330 for generating phenotypic genomic information from keywords.
  • the natural language processing engine 320 performs syntactic analysis and morphological analysis on the voice or text type description data provided by the user.
  • a chatbot widely known to those skilled in the art or used for information search may be used. See, for example, Patent Publication No. 10-2021-0044056.
  • the keyword extractor 330 extracts keywords from phrases and morphemes output from the natural language processing engine 320 .
  • keywords can be about facial expression, appearance, age, hairstyle, makeup, gender, physical characteristics, pose, body condition (thin or fat), height, clothing, props such as accessories, background, etc. have.
  • a database in which terms corresponding to each category of keywords are stored may be set in advance.
  • the second artificial intelligence model 340 generates phenotypic genomic information from keywords output from the keyword extractor 330 .
  • a convolutional neural network (CNN), machine learning or deep learning model may be used, and the second artificial intelligence model 340 generates keywords and phenotypic genomic information corresponding to the keywords. It can be learned in advance using the included learning data.
  • keywords and phenotypic genomic information do not necessarily need to be scientifically related. Keywords related to appearance, such as hair color, eye color, skin color, and presence or absence of double eyelids, are highly likely to be scientifically related to phenotypic genomic information. Therefore, in the case of a keyword related to appearance, a phenotype can be generated by scientific association.
  • keywords related to personality, taste, and habit may have low correlation with phenotypic genomic information.
  • the phenotypic genome information generating unit 300b may receive a phrase from a literary work as explanatory data and learn the second artificial intelligence model. For example, if a description of a specific character is described in a specific literary work, it can be learned to generate a series of phenotypic genomic information for the specific character according to the phrase.
  • User data such as genome information, image data, and explanatory data provided by the user may be the user's own or other entity, that is, other people, animals, or plants.
  • user data may be of real entities (humans, animals, plants) or virtual objects.
  • DNA or RNA is a substance in which the basic structure of nucleic acids is linked by phosphodiester bonds, and is the same as that generally defined in the field of genetic engineering. Nucleic acids are linked in the form of chains by phosphodiester bonds to form DNA and RNA. In the structure of nucleic acid, a total of 5 types of compounds can be bound to the base binding site. It is composed of four bases of cytosine (C), and RNA is composed of adenine (A), uracil (U), guanine (G), and cytosine (C).
  • 3A to 3D are examples of conversion tables used in the authentication information conversion unit 500 of FIG. 1 .
  • the first setting method is a method of setting a series of information units according to the number of repetitions of one or two or more bases (sequence units) as shown in FIG. .
  • 3A shows an embodiment of a method of setting an information unit specific to an artificial combination method of bases and a method of expressing authentication information using the setting method.
  • the bases used were A, T, C, and G, a certain allowable number was set to 3, and ATG was used as a binding display marker. Marker ATG provides direction during sequence analysis, and can also be used as an indicator that indicates whether the direction of base analysis is correct. .
  • FIG. 3A in expressing the authentication information of '1480632', which is a part of the resident registration number, 'A', '' as the corresponding sequence combination to represent each information unit '1', '4', '8' C', 'TT', etc.
  • the second setting method uses a specific base (sequence unit) as an initiation and/or termination marker of sequence combination, as shown in FIGS. 3B and 3C, and sequentially according to the number of repetitions of one or two or more of the remaining bases or any combination. It is a way to set up a person information unit.
  • 3B shows another embodiment of a method of setting an information unit specific to an artificial combination method of bases and a method of expressing authentication information using the setting method.
  • T is a termination marker of sequence combination
  • a and C are repeat sequence units of sequence combination, and a certain allowable number of times is set to 5, respectively. If the authentication information of “1480632” in the last digit of the resident registration number is encrypted in the method of Table 2 above, it is as follows.
  • A is an initiation marker for sequence combination
  • two combinations of A, T, C, and G are set as sequence combinations, respectively. If the information data of “1480632” is encrypted using the conversion table of FIG. 3C, it is as follows.
  • the third setting method is a method of setting a specific information unit for each sequence combination of two or three or more specific bases and setting authentication information based on the specific combination thereof.
  • 3D shows another embodiment of a method of setting an information unit specific to an artificial combination method of bases and a method of expressing information data using the setting method.
  • three bases are combined in the order of first base, second base, and third base to represent one information unit (alphabet).
  • the units of information are marked A to Z in Table 4.
  • sequence combination 'ATT' is made by combining 'A' as the first base, 'T' as the second base, and 'T' as the third base, and the information unit 'K' is formed in such a sequence combination.
  • sequence combination of 'CCC' is set as a termination marker.
  • a sequence combination of 'CCC' may be used as an initiation marker, and in some cases, 'CCC' may be used as initiation and termination markers simultaneously. If the information data is "JONG IL LEE", encryption for it is performed as follows.
  • the artificial nucleic acid sequence information of the present invention is formed by selecting one of the above-exemplified sequence combination and information unit correspondence methods.
  • the methods described above are only a few of the methods for matching numerous sequence combinations and information units.
  • This artificial nucleic acid sequence information can be authenticated by applying the reverse of the corresponding method.
  • authentication may be performed by obtaining artificial nucleic acid sequence information from the authentication information by applying the corresponding method inversely to the received authentication information, and comparing the obtained artificial nucleic acid sequence information with the stored artificial nucleic acid sequence information.
  • the artificial nucleic acid sequence information is stored together with the character image and genome information by the character image storage unit 400 .
  • character images, genome information, and artificial nucleic acid sequence information can be stored in a plurality of nodes on a blockchain. Since the information stored on the blockchain is difficult to forge and alter, the artificial nucleic acid sequence information stored on the blockchain can be used as various authentication information.
  • This artificial nucleic acid sequence information can be used for character identification in a virtual space or for character transaction authentication online.
  • a user may transmit an authentication number through a user terminal.
  • the character identification system compares the value obtained by converting the authentication information received from the user into artificial nucleic acid sequence information using the conversion table of the authentication information conversion unit 500 and the artificial nucleic acid sequence information read from nodes on the blockchain. authentication can be performed.
  • the genome information of a character can be used to generate an image and genome information of a new character when a new character is created through breeding of characters in a virtual space.
  • the character breeding system (not shown) reads the parent character's genome information from the nodes on the blockchain, determines the dominant gene from the read genome information, and applies the dominant gene to the character generation model to create a hybridized character image. can create
  • FIG. 4 is a flowchart of a character creation method according to an embodiment of the present invention.
  • the character generation method includes a character generation model learning step (S100) and a character image generation step (S200).
  • the character generation model learning step (S100) the character generation model is learned using learning data including phenotypic genome information and character image data.
  • the character image generation step (S200) a character image is generated by applying the character generation model to phenotypic genome information provided directly or indirectly from a user.
  • the character generation method may further include a step of generating phenotype genetic information (S300).
  • phenotypic genome information is generated or extracted from user data.
  • phenotypic genome information may be extracted from genome information provided by a user.
  • phenotypic genome information may be generated from image data provided by the user.
  • a first artificial intelligence model 310 for extracting phenotypic genomic information from image data may be used.
  • the character image generated in the character image creation step (S200) and the genome information including the phenotypic genome information provided by the user are stored in correspondence with each other.
  • the character creation method may further include an authentication information conversion step (S500).
  • the authentication information is converted into artificial nucleic acid sequence information.
  • authentication information composed of one or more information units is converted into a series of nucleic acid sequence information based on the corresponding relationship between previously set nucleic acid sequence information and information units, as illustrated in FIGS. 3A to 3D. is converted to
  • the character image storage step (S400) the character image, genome information, and nucleic acid sequence information may be stored in correspondence with each other.
  • FIG. 5 is a flowchart showing an example of generating phenotypic genomic information (S300).
  • the phenotypic genomic information generation step (S300) includes the natural language processing step (S320) of performing syntax analysis and morpheme analysis on the description data provided by the user, and the syntax and A keyword extraction step (S330) of extracting keywords related to at least one of appearance, personality, taste, habit, behavior pattern, and psychology from morphemes, and generating phenotypic genomic information by applying the keywords to a second artificial intelligence model.
  • FIG. 6A shows image data provided by a user
  • FIG. 6B shows a character image generated from the image data
  • FIG. 6C shows a result of additionally applying description data about a character provided by a user to the generated image data.
  • the image at the top left is information about wearing glasses
  • the image at the top right is information about men
  • the two images in the middle of the left and the image at the bottom left are age information
  • the image at the bottom right is information about facial expressions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명의 실시예에 따른 AI 기반 캐릭터 생성 방법은 AI 기반 캐릭터 생성 시스템에 의해 수행되는 것으로서, 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 단계; 및 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 단계를 포함한다. 본 발명의 실시예에 의하면, 캐릭터가 각자의 유전체정보를 갖기 때문에 가상공간에서 캐릭터에 고유성 및 식별력을 부여하는 것이 가능하다.

Description

AI 기반 캐릭터 생성 시스템 및 방법
본 발명은 가상공간에서 캐릭터를 생성하는 기술에 관한 것으로, 특히 유전체정보와 연관된 캐릭터 이미지를 생성하는 것에 관한 것이다.
종래 실제 사람을 촬영한 이미지를 이용하여 캐릭터를 생성하는 기술이 이용되고 있다.
이와 관련하여, 등록특허공보 제10-2128399호는, 제1 카메라에 의해 얼굴에 부착된 마커의 3차원 위치 정보를 포함하는 제1 데이터를 획득하는 단계; 제2 카메라에 의해 상기 마커가 부착된 얼굴의 영상을 포함하는 제2 데이터를 획득하는 단계; 상기 제2 데이터를 상기 얼굴의 영상에서 상기 마커의 이미지만을 제거하여 제3 데이터로 변환하는 단계; 및 상기 제1 데이터 및 상기 제3 데이터를 학습 모델의 학습을 위한 학습데이터로 사용하는 단계를 포함하는 AI 기반의 얼굴 애니메이션 구현을 위한 학습데이터 생성 방법을 개시한다.
또한, 등록특허공보 제10-2264803호는, 입력된 캐릭터가 포함된 이미지에서 윤곽선을 추출하고, 추출된 윤곽선에서 캐릭터의 외곽선을 추출하는 방식으로 캐릭터를 추출하며, 추출한 캐릭터에 매쉬를 매핑한 후, 입력된 동영상의 뼈대 및 관절 정보의 좌표 정보를 바탕으로 캐릭터 이미지의 뼈대 및 관절 정보를 계산하여 캐릭터 이미지의 움직임을 생성하는 캐릭터 애미네이션 생성 방법 및 장치를 개시한다.
또한, 등록특허공보 제10-2170445호는, (a) 특정인의 복수의 표정에 해당하는 복수의 3차원 표정 데이터를 취득하는 단계; (b) 상기 복수의 3차원 표정 데이터의 일부를 기본 표정 모델로 지정하는 단계; (c) 상기 복수의 3차원 표정 데이터 각각에 대해, 상기 기본 표정 모델과의 차이에 기초하여 3차원 표정 모델을 생성하는, 딥러닝 기반의 표정 모델링 단계; 및 (d) 상기 3차원 표정 모델에 따라 상기 특정인에 해당하는 캐릭터의 표정을 생성하는 단계를 포함하는 딥 러닝 기반의 캐릭터 얼굴 표정 생성 방법을 개시한다.
상기 특허문헌들은 단순히 이미지로부터 캐릭터를 생성하는 것에 관한 것으로, 생성된 캐릭터들은 이미지에 의해서만 구분이 된다. 이에 따라 이미지가 유사한 캐릭터의 경우 구별이 어려워, 가상공간에서 캐릭터의 고유성 및 식별력을 나타내기 위한 별도의 수단이 요구된다.
본 발명의 실시예에 따른 AI 기반 캐릭터 생성 방법은, AI 기반 캐릭터 생성 시스템에 의해 수행되며, 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 단계; 및 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 단계를 포함한다.
상기 방법은, 상기 생성된 캐릭터이미지와, 상기 제공된 표현형유전체정보를 포함한 유전체정보를 서로 대응시켜 저장하는 단계를 더 포함할 수 있다.
상기 저장하는 단계는, 블록체인으로 연결된 복수의 노드에 분산 저장할 수 있다.
상기 저장하는 단계는, 상기 생성된 캐릭터이미지 및 상기 유전체정보와 대응하여 인위적핵산서열정보를 저장하고, 상기 인위적핵산서열정보는, 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보를 일련의 핵산서열정보로 변환한 것일 수 있다.
상기 인위적핵산서열정보는, 가상공간에서 캐릭터의 신분인증을 위해 사용될 수 있다.
상기 인위적핵산서열정보는, 온라인상에서 캐릭터의 거래인증을 위해 사용될 수 있다.
상기 캐릭터의 유전체정보는, 가상공간에서 캐릭터의 교배를 통해 새로운 캐릭터의 생성시 당해 새로운 캐릭터의 이미지 및 유전체정보를 생성하는데 이용될 수 있다.
상기 방법은, 사용자로부터 유전체정보를 수신하는 단계; 및 상기 유전체정보로부터 표현형유전체정보를 추출하는 단계를 더 포함할 수 있다.
상기 방법은, 사용자로부터 이미지데이터를 수신하는 단계; 및 상기 이미지데이터로부터 표현형유전체정보를 생성하는 단계를 더 포함할 수 있다.
상기 방법은, 이미지데이터와 표현형유전체정보를 포함하는 학습데이터를 이용하여 제1 인공지능모델을 학습시키는 단계를 더 포함하고, 상기 표현형유전체정보를 생성하는 단계는, 상기 제1 인공지능모델에 사용자로부터 수신한 이미지데이터를 적용함으로써 상기 표현형유전체정보를 생성할 수 있다.
상기 방법은, 사용자로부터 캐릭터에 관한 음성 또는 텍스트 형식의 설명데이터를 수신하는 단계; 및 상기 설명데이터로부터 표현형유전체정보를 생성하는 단계를 더 포함할 수 있다.
상기 방법은, 캐릭터에 관한 외형, 성격, 취향, 습관, 행동패턴, 심리 중 적어도 하나에 관한 정보와 표현형유전체정보를 포함하는 학습데이터를 이용하여 제2 인공지능모델을 학습시키는 단계를 더 포함하고, 상기 표현형유전체정보를 생성하는 단계는, 상기 수신된 설명데이터에 대해 구문 분석 및 형태소 분석을 수행하는 단계; 상기 분석된 구문 및 형태소에서 외형, 성격, 취향, 습관 중 적어도 하나를 나타내는 단어를 추출하는 단계; 및 상기 추출된 단어에 상기 제2 인공지능모델을 적용함으로써 상기 표현형유전체정보를 생성하는 단계를 포함할 수 있다.
상기 표현형유전체정보는 사람, 동물 및 식물 중 어느 하나에 대한 것일 수 있다.
사용자로부터 제공된 표현형유전체정보는 사용자 본인의 것이거나 타인의 것일 수 있다.
사용자로부터 제공된 표현형유전체정보는 실재하는 것이거나 가상의 것일 수 있다.
상기 캐릭터이미지는 그림, 일러스트, 애니메이션, 홀로그램, 실사화 모델, 사진, 조형물 중 적어도 하나일 수 있다.
본 발명의 실시예에 따른 기록매체는 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체이다.
본 발명의 실시예에 따른 AI 기반 캐릭터 생성 시스템은, 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 캐릭터생성모델학습부; 및 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 캐릭터이미지생성부를 포함한다.
상기 시스템은, 상기 생성된 캐릭터이미지와, 상기 제공된 표현형유전체정보를 포함한 유전체정보를 서로 대응시켜 저장하는 캐릭터이미지저장부를 더 포함할 수 있다.
상기 캐릭터이미지저장부는, 블록체인으로 연결된 복수의 노드에 분산 저장할 수 있다.
상기 캐릭터이미지저장부는, 상기 생성된 캐릭터이미지 및 상기 유전체정보와 대응하여 인위적핵산서열정보를 저장하고, 상기 인위적핵산서열정보는, 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보를 일련의 핵산서열정보로 변환할 수 있다.
본 발명의 실시예에 의하면, 캐릭터가 각자의 유전체정보를 갖기 때문에 가상공간에서 캐릭터에 고유성 및 식별력을 부여하는 것이 가능하다.
또한, 인증정보에 해당하는 인위적핵산서열정보를 추가적으로 저장함으로써 인위적핵산서열정보를 캐릭터의 신분인증, 거래인증시 이용할 수 있다.
또한, 각 캐릭터가 유전체정보를 갖기 때문에 실제의 개체의 경우와 유사하게 교배한 캐릭터에 대해서도 유전체정보를 부여하는 것이 가능하다.
도 1은 본 발명의 실시예에 따른 캐릭터생성시스템의 구성도이다.
도 2a 및 도 2b는 도 1의 표현형유전체정보생성부의 구성도의 예시들이다.
도 3a~도 3d는 도 1의 인증정보변환부에서 사용되는 변환테이블의 예시들이다.
도 4는 본 발명의 실시예에 따른 캐릭터생성방법의 흐름도이다.
도 5는 표현형유전체정보 생성 단계의 일 예의 흐름도이다.
도 6a~도 6c는 사용자로부터 제공된 이미지데이터 및 설명데이터를 이용하여 캐릭터이미지를 생성한 결과를 나타내는 도면이다.
본 명세서에 설명된 임의의 실시예의 방법 또는 구성이 본 명세서에 설명된 다른 방법 또는 구성에 대하여 구현될 수 있다는 것이 고려된다.
청구범위 및/또는 명세서에서 "포함하는"이라는 용어와 함께 사용될 때 단수 용어의 사용은 "하나"를 의미할 수도 있고, "하나 이상", "적어도 하나", 및 "하나 또는 하나보다 많은"의 의미일 수도 있다.
청구범위에서 "또는"이라는 용어는, 상호 배타적이거나 단지 선택가능한 것들을 나타내는 것으로 명백하게 표시되지 않는 한 "및/또는"을 의미한다.
본 명세서에서 각 부는 하드웨어 및/또는 소프트웨어에 의해 구현될 수 있으며, 물리적으로 구분될 수도 있고 하나로 구현될 수도 있다.
본 명세서에서 "연결", "전송", "송신", "수신", "제공"의 의미는 직접적이거나 간접적인 경우도 포함한다.
본 발명의 다른 목적들, 특징들 및 이점들은 다음 상세한 설명으로부터 분명해질 것이다. 그러나, 본 발명의 사상 및 범위 내 다양한 변경들 및 변형들이 본 상세한 설명으로부터 해당 기술분야의 통상의 기술자들에게 분명해질 것이기 때문에, 상세한 설명 및 구체적인 예들은 본 발명의 구체적인 실시예들을 나타내지만, 단지 예로서 주어진다는 것이 이해되어야 한다. 본 발명의 다양한 예시적인 실시예들은 본 발명의 예시적인 실시예들이 도시되는, 첨부 도면들에 대하여 아래에서 상세하게 논의된다. 구체적인 구현예들이 논의되지만, 이는 단지 예시 목적들을 위해 행해진다. 관련 기술분야에서의 통상의 기술자는 다른 구성요소들 및 구성들이 본 발명의 사상 및 범위에서 벗어나지 않고 사용될 수 있다는 것을 인식할 것이다. 같은 번호들은 전체에 걸쳐 같은 요소들을 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 AI 기반 캐릭터 생성 시스템 및 방법에 대하여 구체적으로 설명한다.
본 명세서에서 유전체 정보는 유전체 서열정보를 포함하며, 유전체 서열 정보는 cDNA 서열, mRNA 서열, 및 또는 발현 프로파일들, 후성 데이터, 단백질 데이터, 전유전체 데이터, 메틸화 데이터, 대사체 데이터, 미생물군유전제 데이터, 사람체 서열데이터, PCR로부터의 유전자형 데이터, DNA 마이크로어레이들로부터의 유전자형 데이터, 총 유전제 시퀀싱으로부터의 유전자형 데이터, 전유전체시퀀싱으로부터의 유전자형 데이터, 유전자 시퀀싱으로부터의 유전자형 데이터, 핵형 데이터, 착상-전 유전자 검사 데이터, 배아 또는 태아의 비-침습성 출생 전 유전자 검사 데이터 등을 포함할 수 있다. 이러한 데이터의 범주는 제한되지 않으며 해당 기술 분야에 잘 알려진 방법들에 의해 획득될 수 있다. 유전체 정보 총체는 임의적으로 합성될 수도 있다.
도 1은 본 발명의 실시예에 따른 캐릭터생성시스템(1)의 구성도이다.
도 1을 참조하면, 캐릭터생성시스템(1)은 캐릭터생성모델학습부(100) 및 캐릭터이미지생성부(200)를 포함한다.
캐릭터생성모델학습부(100)는 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시킨다.
표현형유전체정보는 유전체정보 중에서 관찰 가능한 개체의 특성과 관련된 유전체 내에서 정보 등을 의미한다. 특정 유전자, 유전자들의 조합, 유전자와 단백질의 조합, 유전자와 비유전적 서열정보의 조합 등도 포함된다. 예를 들어, 머리 색깔에 해당하는 유전자정보, 눈 색깔에 해당하는 유전자정보, 피부 색깔에 해당하는 유전자정보, 쌍꺼풀 유무에 대한 유전자정보 등과 같이 외적으로 나타나는 신체적 특징, 얼굴 내 근육 강도 배치 정도와 같이 내적인 신체적 특징에 관한 유전자정보를 포함한다. 또한, 표현형유전체정보는 이러한 유전자정보뿐만 아니라 비유전자적 요소로 표현형을 특정할 수 있는 유전체 내의 표지자에 관한 정보도 포함한다.
캐릭터이미지데이터 및 후술하는 캐릭터이미지생성부(200)에서 생성되는 캐릭터이미지는 사진, 동영상 등 이미지를 나타내는 다양한 데이터일 수 있다. 캐릭터이미지데이터 및 캐릭터이미지는 점, 선, 면, 공간, 시간 등 이미지의 차원을 고려하여 표현되는 그림, 일러스트, 애니메이션, 홀로그램, 실사화 모델, 사진, 조형물 등 다양한 방식으로 표현될 수 있다.
캐릭터이미지데이터와 캐릭터이미지는 동일한 형태일 수도 있고 상이한 형태일 수도 있다. 다만, 캐릭터이미지데이터가 캐릭터이미지와 동일한 형태의 이미지인 경우 캐릭터 생성의 정확성을 더욱 높일 수 있다. 예를 들어, 캐릭터이미지생성부(200)에서 생성하고자 하는 캐릭터이미지가 일러스트인 경우, 학습데이터용 캐릭터이미지데이터로서 일러스트가 제공될 수 있다. 또한, 캐릭터이미지생성부(200)에서 생성하고자 하는 이미지가 3차원 이미지인 경우, 학습데이터용 캐릭터이미지데이터로서 3차원 이미지가 제공될 수 있다. 또는, 캐릭터이미지생성부(200)에서 생성하고자 하는 이미지가 3차원 이미지인 경우라도, 학습데이터용 캐릭터이미지데이터로서 2차원 이미지가 제공될 수 있다.
캐릭터생성모델학습부(100)는 특정인의 표현형유전체정보 및 특정인의 이미지(사진, 일러스트, 동영상)를 학습데이터로 이용할 수 있다. 이때, 특정인의 표현형유전체정보는 유전자분석을 통해 사전에 알고 있을 수 있다. 캐릭터생성모델의 정확도를 높이기 위해서는 많은 학습데이터가 필요하므로, 다수의 특정인에 대한 학습데이터가 요구된다.
표현형유전체정보와 캐릭터이미지데이터는 반드시 일대일일 필요는 없다. 오히려 하나의 캐릭터이미지데이터에 복수의 표현형유전체정보가 대응할 수 있다. 예를 들어, 머리 색깔에 해당하는 유전자정보, 눈 색깔에 해당하는 유전자정보, 피부 색깔에 해당하는 유전자정보, 쌍꺼풀 유무에 대한 유전자정보 등 복수의 표현형유전체정보가 하나의 캐릭터이미지데이터에 대응할 수 있다. 또한, 복수의 캐릭터이미지데이터에 복수의 표현형유전체정보가 대응할 수 있다. 예를 들어, 캐릭터이미지데이터가 나타내는 캐릭터이미지가 3차원인 경우에는 복수의 2차원 캐릭터이미지가 있는 것으로 생각할 수 있으며, 이에 따라 복수의 2차원 캐릭터이미지데이터에 복수의 표현형유전체정보가 대응할 수 있다.
캐릭터생성모델은 예를 들어 CNN(Convolutional Nerual Network) 등을 활용할 수 있으나, 본 발명의 범위는 이에 한하지 않는다. 캐릭터생성모델은 통상의 기술자에게 알려진 다양한 머신러닝이나 딥러닝 모델 등이 이용될 수 있다.
캐릭터이미지생성부(200)는 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성한다.
생성된 캐릭터이미지와 사용자로부터 제공된 표현형유전체정보는 캐릭터생성모델에 다시 학습데이터로 이용되어 캐릭터생성모델을 업데이트할 수 있다.
이때 사용자로부터 제공된 이미지데이터 및 캐릭터이미지생성부(200)의 캐릭터생성모델에서 생성된 캐릭터이미지는 모두 2차원 이미지일 수 있다. 이 경우에는 당업계에 널리 알려진 2차원 이미지를 3차원 이미지로 변환하는 기능을 이용하여, 최종적인 캐릭터이미지를 3차원 이미지로 변환할 수 있다.
이때, 표현형유전체정보는 사용자로부터 직접 제공되거나, 다른 정보로부터 추출 또는 생성된 것일 수 있다. 예를 들어, 사용자는 사용자단말기(미도시)를 통해 표현형유전체정보를 직접 제공할 수 있다.
실시예에 따라, 캐릭터생성시스템(1)은 표현형유전체정보생성부(300)를 더 포함할 수 있다. 표현형유전체정보생성부(300)는 사용자데이터로부터 표현형유전체정보를 생성 또는 추출한다. 예를 들어, 표현형유전체정보생성부(300)는 사용자로부터 제공된 유전체정보 중에서 표현형유전체정보를 추출할 수 있다.
실시예에 따라, 캐릭터생성시스템(1)은 캐릭터이미지저장부(400)를 더 포함할 수 있다. 캐릭터이미지저장부(400)는 캐릭터이미지생성부(200)에서 생성된 캐릭터이미지와, 사용자로부터 제공된 표현형유전체정보를 포함한 유전체정보를 서로 대응시켜 저장한다. 캐릭터이미지저장부(400)는 상기 캐릭터이미지와 상기 유전체정보를 데이터베이스에 저장할 수도 있고 블록체인으로 연결된 복수의 노드에 분산 저장할 수도 있다.
실시예에 따라, 캐릭터생성시스템(1)은 인증정보변환부(500)를 더 포함할 수 있다. 인증정보변환부(500)는 인증정보를 인위적핵산서열정보로 변환한다. 구체적으로, 인증정보변환부(500)는 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보를 일련의 핵산서열정보로 변환한다. 캐릭터이미지저장부(400)는 상기 캐릭터이미지 및 상기 유전체정보에, 상기 인위적핵산서열정보를 추가적으로 대응시켜 저장할 수 있다.
도 2a는 도 1의 표현형유전체정보생성부(300a)의 일 예의 구성도이다.
도 2a를 참조하면, 표현형유전체정보생성부(300a)는 사용자로부터 제공된 사진, 일러스트, 동영상 등의 이미지데이터로부터 표현형유전체정보, 예를 들어 머리 색깔에 해당하는 유전자정보, 눈 색깔에 해당하는 유전자정보, 피부 색깔에 해당하는 유전자정보, 쌍꺼풀 유무에 대한 유전자정보 등을 생성할 수 있다. 이때, 표현형유전체정보생성부(300a)는 이미지데이터로부터 표현형유전체정보를 추출하기 위한 제1 인공지능모델(310)을 이용할 수 있다. 제1 인공지능모델(310)은 이미지데이터와, 당해 이미지데이터에 대응하는 표현형유전체정보를 포함하는 학습데이터를 이용하여 사전에 학습될 수 있다. 제1 인공지능모델(310)은 CNN(Convolutional Nerual Network), 머신러닝이나 딥러닝 모델 등이 이용될 수 있다.
도 2b는 도 1의 표현형유전체정보생성부(300b)의 다른 예의 구성도이다.
도 2b를 참조하면, 표현형유전체정보생성부(300b)는 사용자로부터 제공된 음성 또는 텍스트 형태의 설명데이터로부터 표현형유전체정보를 생성할 수 있다.
표현형유전체정보생성부(300b)는 사용자로부터 제공된 설명데이터에 대한 구문 분석 및 형태소 분석을 수행하는 자연어처리엔진(320)과, 자연어처리엔진(320)에 의해 분석된 구문 및 형태소로부터 키워드를 추출하는 키워드추출기(330) 및 키워드로부터 표현형유전체정보를 생성하기 위한 제2 인공지능모델(330)을 포함할 수 있다.
자연어처리엔진(320)은 사용자로부터 제공된 음성 또는 텍스트 형태의 설명데이터에 대해 구문 분석 및 형태소 분석을 수행한다. 자연어처리엔진(320)으로서 통상의 기술자에게 널리 알려진 챗봇이나 정보 검색용으로 사용되는 것을 이용할 수 있다. 예를 들어, 공개특허공보 제10-2021-0044056호를 참조.
키워드추출기(330)는 자연어처리엔진(320)에서 출력된 구문 및 형태소 중에서 키워드를 추출한다. 예를 들어, 키워드는 표정, 인상, 연령, 헤어스타일, 메이크업, 성별, 신체적 특징, 포즈, 몸의 상태(마른형, 뚱뚱한 형), 키, 의상, 액세서리 등의 소품, 배경 등 에 관한 것일 수 있다. 키워드의 각 카테고리에 해당하는 용어들이 저장된 데이터베이스가 미리 설정되어 있을 수 있다.
제2 인공지능모델(340)은 키워드추출기(330)에서 출력된 키워드로부터 표현형유전체정보를 생성한다. 제2 인공지능모델(340)로서 CNN(Convolutional Nerual Network), 머신러닝이나 딥러닝 모델 등이 이용될 수 있으며, 제2 인공지능모델(340)은 키워드와, 당해 키워드에 대응하는 표현형유전체정보를 포함하는 학습데이터를 이용하여 사전에 학습될 수 있다.
제2 인공지능모델(340)을 학습시킬 때, 키워드와 표현형유전체정보가 반드시 과학적으로 연관될 필요는 없다. 머리 색깔, 눈 색깔, 피부 색깔, 쌍꺼풀 유무와 같은 외형에 관한 키워드는 표현형유전체정보와 과학적으로 연관되어 있을 가능성이 높다. 따라서, 외형에 관한 키워드의 경우에는 과학적 연관 관계에 의해 표현형유전체가 생성될 수 있다. 이에 반해, 성격, 취향, 습관에 관한 키워드는 표현형유전체정보와 연관성이 낮을 수 있다. 그러나 특정 취향이나 습관을 가진 사람 또는 동물에 관해 흔히 떠올리는 이미지가 있을 수 있다. 예를 들어 성격이 얌전하고 학구적인 사람은 마른 체형에 피부가 흰 사람의 이미지가 떠오를 수 있다. 이와 같이 성격, 취향, 습관에 관한 키워드와, 이러한 키워드와 연관된 이미지에 해당하는 표현형유전체정보(상기 예에서 마른 체형 및 흰 피부에 관한 유전자정보)를 학습데이터로 이용하여 제2 인공지능모델(340)을 사전에 학습시키고, 이러한 제2 인공지능모델(340)에 성격, 취향, 습관에 관한 키워드를 적용하여 표현형유전체정보를 생성할 수 있다.
실시예에 따라, 표현형유전체정보생성부(300b)는 문학작품에서의 문구를 설명데이터로서 입력받아 제2 인공지능모델을 학습시킬 수 있다. 예를 들어 특정 문학작품에서 특정 캐릭터에 관한 묘사가 기재되어 있는 경우, 그 문구에 따라 특정 캐릭터에 대한 일련의 표현형유전체정보를 생성하도록 학습될 수 있다.
사용자로부터 제공되는 유전체정보, 이미지데이터, 설명데이터 등의 사용자데이터는 사용자 본인의 것일 수도 있고 다른 개체, 즉 다른 사람, 동물, 식물의 것일 수 있다. 또한, 사용자데이터는 실재하는 개체(사람, 동물, 식물)의 것일 수도 있고, 가상의 것일 수도 있다.
다음으로, 인증정보변환부(500)의 동작과 관련하여, 인위적핵산서열정보를 설정하는 방식 및 인위적핵산서열정보를 이용하여 인증을 수행하는 방식에 대하여 도 3a~도 3d를 참조하여 설명한다.
본 발명에 따라 정보를 구성하는 가장 기본단위인 DNA 또는 RNA는 핵산의 기본구조가 포스포디에스테르 결합에 의해 연결된 물질로서, 유전공학 분야에서 일반적으로 정의되는 것과 동일하다. 핵산은 포스포디에스테르 결합방식에 의해 사슬형태로 결합되어 DNA와 RNA를 구성하게 된다. 핵산의 구조에서 염기결합부에는 총 5 종류의 화합물들이 결합될 수 있는데, 어떠한 화합물이 결합되느냐에 따라, DNA는 아데닌(Adenine: A), 티민(Thymine: T), 구아닌(Guanine: G) 및 씨토신(Cytosine: C)의 4 종류의 염기로 구성되어 있고, RNA는 아데닌(A), 우라실(Uracil: U), 구아닌(G) 및 씨토신(C)으로 구성된다.
상기 서열조합과 정보단위를 매칭시켜 설정하는 방식은 후술하는 바와 같이 3가지를 들 수 있다.
도 3a~도 3d는 도 1의 인증정보변환부(500)에서 사용되는 변환테이블의 예이다.
첫 번째 설정방식은 도 3a와 같이, 하나 또는 둘 이상의 염기(서열단위)들의 반복 연결횟수에 따라 일련의 정보단위를 설정하고, 특정한 염기조합은 서열조합의 결합을 표시하는 마커로 설정하는 방식이다.
도 3a는 염기들의 인위적 조합방식에 특정한 정보단위를 설정하는 방식 및 상기 설정방식을 이용하여 인증정보를 표현하는 방법의 일 실시예를 나타낸다. 도 3a에서 보듯이, 사용된 염기들은 A, T, C, G이고, 일정한 허용횟수는 3으로 설정하였으며, 결합표시 마커로는 ATG가 사용되었다. 마커 ATG는 서열분석시 방향성을 제공하는 것으로서, 염기분석의 방향이 올바른지를 알려줄 수 있는 지표로서도 사용될 수 있는데, 예를 들어, 분석내용이 GTA의 서열조합을 포함하고 있으면 역으로 해석해야 함을 나타낸다. 도 3a에서 보듯이, 주민등록번호의 일부인 '1480632'의 인증정보를 표현함에 있어서, 각각의 정보단위 '1', '4', '8' 등을 나타내기 위하여 대응하는 서열조합으로서 'A', 'C', 'TT' 등이 사용되었고, 이들의 적합한 결합형태 등을 확인하기 위하여 각 서열조합들의 사이에 결합마커 'ATG'가 사용되었다. 따라서, 서열단위들의 임의적 조합에 각각 일련의 정보단위를 미리 설정하여 놓고, 특정한 정보 데이터 '1480632'를 표현함에 있어서, 이들의 핵산서열을 구성하여 놓으면, 아래와 같이, 손쉽게 상기 인증정보를 확인할 수 있다.
인증정보 : 1 4 8 0 6 3 2
핵산서열 : A ATG C ATG TT ATG G ATG CCC ATG AAA ATG AA
두 번째 설정방식은 도 3b 및 도 3c에서와 같이, 특정한 염기(서열단위)를 서열조합의 개시 및/또는 종결 마커로서 사용하고 나머지 염기들의 하나 또는 둘 이상의 반복 연결횟수 또는 임의의 조합에 따라 순차적인 정보단위를 설정하는 방식이다.
도 3b는 염기들의 인위적 조합방식에 특정한 정보단위를 설정하는 방식 및 상기 설정방식을 이용하여 인증정보를 표현하는 방법의 다른 일 실시태양을 나타낸다.
도 3b에서 보듯이, T가 서열조합의 종결마커로서, A와 C가 서열조합의 반복 서열단위로서, 일정한 허용횟수는 5로서 각각 설정되어있다. 상기 주민등록번호 뒷자리 “1480632”의 인증정보를 상기 표 2의 방식으로 암호화하면 아래와 같다.
인증정보 : 1 4 8 0 6 3 2
핵산서열 : AT AAAAT CCCT CCCCCT CT AAAT AAT
또한, 도 3c에서 보듯이, A가 서열조합의 개시마커로서, A, T, C, G의 2 개의 조합이 서열조합으로서 각각 설정되어 있다. 상기 “1480632”의 정보데이터를 도 3c의 변환테이블을 이용하여 암호화하면 아래와 같다.
인증정보 : 1 4 8 0 6 3 2
핵산서열 : ACC ATC AGT AAA ATG ACG ACT
세 번째 설정방식은 도 3d에 도시한 바와 같이, 특정한 염기들의 둘 또는 셋 이상의 서열조합에 각각 특정한 정보단위를 설정하고 이들의 특정한 조합에 의해 인증정보를 설정하는 방식이다.
도 3d는 염기들의 인위적 조합방식에 특정한 정보단위를 설정하는 방식 및 상기 설정방식을 이용하여 정보 데이터를 표현하는 방법의 또 다른 일 실시예를 각각 나타낸다. 도 3d에서 보듯이, 3 개의 염기들은 제 1 염기, 제 2 염기 및 제 3 염기의 순서로 조합되어 하나의 정보단위(알파벳)를 나타낸다. 정보단위들은 표 4에서 A~Z로 표시되어 있다. 예를 들어, 제 1 염기로서 'A'와 제 2 염기로서 'T'와 제 3 염기로서 'T'의 조합에 의해 서열조합 'ATT'가 만들어지고, 그러한 서열조합에는 정보단위 'K'가 할당되어 있다. 핵산서열이 완벽한 정보를 담고있는지를 확인하기 위하여 종결마커로서 'CCC'의 서열조합이 설정되어있다. 한편, 핵산서열의 완벽성을 나타내기 위하여 'CCC'의 서열조합을 개시마커로 사용할 수도 있고, 경우에 따라서는 'CCC'를 개시 및 종결마커로서 동시에 사용할 수도 있다. 정보 데이터가 “JONG IL LEE”인 경우 이에 대한 암호화는 아래와 같이 수행된다.
인증정보 : J O N G I L L E E
핵산서열 : ATA TTC TTT CAA CAC ATC ATC TAT TAT CCC
본 발명의 인위적핵산서열정보는 앞에서 예시한 서열조합과 정보단위의 대응 방식 중 어느 하나를 선택하여 이루어진다. 그러나 앞에서 설명한 방식들은 수많은 서열조합과 정보단위를 대응시키는 방식 중의 일부에 지나지 않는다.
이러한 인위적핵산서열정보는 상기 대응 방식의 역으로 적용하여 인증을 수행할 수 있다. 예를 들어, 수신된 인증 정보에 상기 대응 방식을 역으로 적용함으로써 인증정보로부터 인위적핵산서열정보를 획득하고, 획득된 인위적핵산서열정보와 저장된 인위적핵산서열정보를 비교함으로써 인증을 수행할 수 있다.
전술한 바와 같이 인위적핵산서열정보는 캐릭터이미지저장부(400)에 의해 캐릭터이미지 및 유전체정보와 함께 저장된다. 특히 캐릭터이미지, 유전체정보 및 인위적핵산서열정보는 블록체인 상의 복수의 노드에 저장될 수 있다. 블록체인 상에 저장되는 정보는 위변조가 어렵기 때문에 블록체인 상에 저장되는 인위적핵산서열정보를 다양한 인증정보로 활용이 가능하다.
이러한 인위적핵산서열정보는 가상공간에서 캐릭터의 신분인증을 위해 사용되거나 온라인상에서 캐릭터의 거래인증을 위해 사용될 수 있다. 예를 들어, 캐릭터인증시스템(미도시)에서 인증(신분인증 또는 거래인증)을 요청하는 경우 사용자는 사용자단말을 통해 인증번호를 전송할 수 있다. 캐릭터신분인증시스템은 인증정보변환부(500)의 변환테이블을 이용하여 사용자로부터 수신한 인증정보를 인위적핵산서열정보로 변환한 값과, 블록체인상의 노드들로부터 읽어온 인위적핵산서열정보를 비교함으로써 인증을 수행할 수 있다.
한편, 캐릭터의 유전체정보는, 가상공간에서 캐릭터의 교배를 통해 새로운 캐릭터의 생성시 당해 새로운 캐릭터의 이미지 및 유전체정보를 생성하는데 이용될 수 있다. 당업계에 널리 알려진 바와 같이 우성 유전자와 열성 유전자가 만나는 경우 우성 유전자가 발현된다. 따라서, 캐릭터교배시스템(미도시)는 블록체인상의 노드들로부터 부모 캐릭터의 유전체정보를 읽어오고, 읽어온 유전체정보로부터 우성 유전자를 판별하고, 우성 유전자를 캐릭터생성모델에 적용함으로써 교배된 캐릭터 이미지를 생성할 수 있다.
도 4는 본 발명의 실시예에 따른 캐릭터생성방법의 흐름도이다.
도 4을 참조하면, 캐릭터생성방법은 캐릭터생성모델 학습 단계(S100) 및 캐릭터이미지 생성 단계(S200)를 포함한다.
캐릭터생성모델학습 단계(S100)는 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시킨다. 캐릭터이미지 생성 단계(S200)는 사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성한다.
실시예에 따라 캐릭터생성방법은 표현형유전체정보 생성 단계(S300)를 더 포함할 수 있다. 표현형유전체정보 생성 단계(S300)에서는 사용자데이터로부터 표현형유전체정보를 생성 또는 추출한다. 예를 들어, 표현형유전체정보 생성 단계(S300)에서는 사용자로부터 제공된 유전체정보 중에서 표현형유전체정보가 추출될 수 있다. 또는, 표현형유전체정보 생성 단계(S300)에서는 사용자로부터 제공된 이미지데이터로부터 표현형유전체정보를 생성할 수 있다. 이때, 이미지데이터로부터 표현형유전체정보를 추출하기 위한 제1 인공지능모델(310)이 이용될 수 있다.
캐릭터이미지 저장 단계(S400)는 캐릭터이미지 생성 단계(S200)에서 생성된 캐릭터이미지와, 사용자로부터 제공된 표현형유전체정보를 포함한 유전체정보가 서로 대응하여 저장된다.
실시예에 따라, 캐릭터생성방법은 인증정보 변환 단계(S500)를 더 포함할 수 있다. 인증정보 변환 단계(S500)에서는 인증정보가 인위적핵산서열정보로 변환된다. 구체적으로, 인증정보 변환 단계(S500)에서는 도 3a~도 3d에 예시된 바와 같이 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보가 일련의 핵산서열정보로 변환된다. 캐릭터이미지 저장 단계(S400)에서는 캐릭저 이미지 및 유전체정보와, 핵산서열정보를 대응시켜 저장할 수 있다.
도 5는 표현형유전체정보 생성 단계(S300)의 일 예를 나타내는 흐름도이다.
도 5를 참조하면, 표현형유전체정보 생성 단계(S300)는 사용자로부터 제공된 설명데이터에 대한 구문 분석 및 형태소 분석을 수행하는 자연어처리 단계(S320)와, 자연어처리 단계(S320)에 의해 분석된 구문 및 형태소로부터 외형, 성격, 취향, 습관, 행동패턴, 심리 중 적어도 하나에 관한 키워드를 추출하는 키워드 추출 단계(S330) 및 키워드를 제2 인공지능모델에 적용하여 표현형유전체정보를 생성하는 단계를 포함할 수 있다.
도 4 및 도 5의 각 단계의 동작은 캐릭터생성방법(1)과 관련하여 설명된 각 부의 동작과 대응하므로 그 구체적인 설명은 생략한다.
도 6a는 사용자로부터 제공된 이미지데이터를 나타내고, 도 6b는 상기 이미지데이터로부터 생성된 캐릭터이미지를 나타내고, 도 6c는 생성된 이미지데이터에 사용자로부터 제공된 캐릭터에 관한 설명데이터를 추가적으로 적용한 결과를 나타낸다. 도 6c에서 좌상단의 이미지는 안경을 쓴 정보, 우상단의 이미지는 남성이라는 정보, 좌측 중간의 2개의 이미지 및 좌하단의 이미지는 나이에 관한 정보, 우하단의 이미지는 표정에 관한 정보를 추가적으로 적용한 것을 나타낸다.
도 6a~도 6c에서는 사용자로부터 제공된 이미지데이터를 이용하여 캐릭터이미지를 생성한 후, 생성된 캐릭터이미지에 설명데이터를 적용하는 것으로 예시를 들어 설명하였다. 그러나, 본 발명의 범위는 이에 한하지 않으며, 사용자로부터 제공된 이미지데이터와 설명데이터를 동시에 적용하여 캐릭터이미지를 생성할 수도 있다.

Claims (21)

  1. AI 기반 캐릭터 생성 시스템에 의해 수행되는 AI 기반 캐릭터 생성 방법으로서,
    표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 단계; 및
    사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 단계
    를 포함하는 AI 기반 캐릭터 생성 방법.
  2. 제1항에 있어서,
    상기 생성된 캐릭터이미지와, 상기 제공된 표현형유전체정보를 포함한 유전체정보를 서로 대응시켜 저장하는 단계
    를 더 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  3. 제2항에 있어서,
    상기 저장하는 단계는, 블록체인으로 연결된 복수의 노드에 분산 저장하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  4. 제2항에 있어서,
    상기 저장하는 단계는, 상기 생성된 캐릭터이미지 및 상기 유전체정보와 대응하여 인위적핵산서열정보를 저장하고,
    상기 인위적핵산서열정보는, 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보를 일련의 핵산서열정보로 변환한 것인 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  5. 제4항에 있어서,
    상기 인위적핵산서열정보는, 가상공간에서 캐릭터의 신분인증을 위해 사용되는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  6. 제4항에 있어서,
    상기 인위적핵산서열정보는, 온라인상에서 캐릭터의 거래인증을 위해 사용되는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  7. 제2항에 있어서,
    상기 캐릭터의 유전체정보는, 가상공간에서 캐릭터의 교배를 통해 새로운 캐릭터의 생성시 당해 새로운 캐릭터의 이미지 및 유전체정보를 생성하는데 이용되는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  8. 제1항에 있어서,
    사용자로부터 유전체정보를 수신하는 단계; 및
    상기 유전체정보로부터 표현형유전체정보를 추출하는 단계
    를 더 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  9. 제1항에 있어서,
    사용자로부터 이미지데이터를 수신하는 단계; 및
    상기 이미지데이터로부터 표현형유전체정보를 생성하는 단계;
    를 더 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  10. 제9항에 있어서,
    이미지데이터와 표현형유전체정보를 포함하는 학습데이터를 이용하여 제1 인공지능모델을 학습시키는 단계;
    를 더 포함하고,
    상기 표현형유전체정보를 생성하는 단계는, 상기 제1 인공지능모델에 사용자로부터 수신한 이미지데이터를 적용함으로써 상기 표현형유전체정보를 생성하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  11. 제1항에 있어서,
    사용자로부터 캐릭터에 관한 음성 또는 텍스트 형식의 설명데이터를 수신하는 단계; 및
    상기 설명데이터로부터 표현형유전체정보를 생성하는 단계;
    를 더 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  12. 제11항에 있어서,
    캐릭터에 관한 외형, 성격, 취향, 습관, 행동패턴, 심리 중 적어도 하나에 관한 정보와 표현형유전체정보를 포함하는 학습데이터를 이용하여 제2 인공지능모델을 학습시키는 단계;
    를 더 포함하고,
    상기 표현형유전체정보를 생성하는 단계는,
    상기 수신된 설명데이터에 대해 구문 분석 및 형태소 분석을 수행하는 단계;
    상기 분석된 구문 및 형태소에서 외형, 성격, 취향, 습관, 행동패턴, 심리 중 적어도 하나를 나타내는 단어를 추출하는 단계; 및
    상기 추출된 단어에 상기 제2 인공지능모델을 적용함으로써 상기 표현형유전체정보를 생성하는 단계
    를 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  13. 제1항에 있어서,
    상기 표현형유전체정보는 사람, 동물 및 식물 중 어느 하나에 대한 것인 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  14. 제1항에 있어서,
    사용자로부터 제공된 표현형유전체정보는 사용자 본인의 것이거나 타인의 것인 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  15. 제1항에 있어서,
    사용자로부터 제공된 표현형유전체정보는 실재하는 것이거나 가상의 것인 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  16. 제1항에 있어서,
    상기 캐릭터이미지는 그림, 일러스트, 애니메이션, 홀로그램, 실사화 모델, 사진, 조형물 중 적어도 하나인 것을 특징으로 하는 AI 기반 캐릭터 생성 방법.
  17. 제1항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  18. 표현형유전체정보 및 캐릭터이미지데이터를 포함하는 학습데이터를 이용하여 캐릭터생성모델을 학습시키는 캐릭터생성모델학습부; 및
    사용자로부터 직접 또는 간접적으로 제공된 표현형유전체정보에 상기 캐릭터생성모델을 적용하여 캐릭터이미지를 생성하는 캐릭터이미지생성부
    를 포함하는 AI 기반 캐릭터 생성 시스템.
  19. 제18항에 있어서,
    상기 생성된 캐릭터이미지와, 상기 제공된 표현형유전체정보를 포함한 유전체정보를 서로 대응시켜 저장하는 캐릭터이미지저장부
    를 더 포함하는 것을 특징으로 하는 AI 기반 캐릭터 생성 시스템.
  20. 제19항에 있어서,
    상기 캐릭터이미지저장부는, 블록체인으로 연결된 복수의 노드에 분산 저장하는 것을 특징으로 하는 AI 기반 캐릭터 생성 시스템.
  21. 제19항에 있어서,
    상기 캐릭터이미지저장부는, 상기 생성된 캐릭터이미지 및 상기 유전체정보와 대응하여 인위적핵산서열정보를 저장하고,
    상기 인위적핵산서열정보는, 미리 설정된 핵산서열정보와 정보단위의 대응관계에 기초하여, 하나 이상의 정보단위로 구성된 인증정보를 일련의 핵산서열정보로 변환한 것인 것을 특징으로 하는 AI 기반 캐릭터 생성 시스템.
PCT/KR2022/006995 2021-05-14 2022-05-16 Ai 기반 캐릭터 생성 시스템 및 방법 WO2022240266A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0062718 2021-05-14
KR20210062718 2021-05-14
KR1020220059629A KR20220155239A (ko) 2021-05-14 2022-05-16 Ai 기반 캐릭터 생성 시스템 및 방법
KR10-2022-0059629 2022-05-16

Publications (1)

Publication Number Publication Date
WO2022240266A1 true WO2022240266A1 (ko) 2022-11-17

Family

ID=84028779

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/006995 WO2022240266A1 (ko) 2021-05-14 2022-05-16 Ai 기반 캐릭터 생성 시스템 및 방법

Country Status (1)

Country Link
WO (1) WO2022240266A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117034385A (zh) * 2023-08-30 2023-11-10 四开花园网络科技(广州)有限公司 一种支持人形角色创意设计的ai系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046456A (ko) * 2018-10-24 2020-05-07 비에이지노믹스(주) 개인의 유전자 표현형이 적용된 컬러드 코인
KR20210044056A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 중복 토큰 임베딩을 이용한 자연어 처리 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046456A (ko) * 2018-10-24 2020-05-07 비에이지노믹스(주) 개인의 유전자 표현형이 적용된 컬러드 코인
KR20210044056A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 중복 토큰 임베딩을 이용한 자연어 처리 방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANGKE LIN; YI YUAN; ZHENGXIA ZOU: "MeInGame: Create a Game Character Face from a Single Portrait", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 4 February 2021 (2021-02-04), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081874837 *
LIPPERT CHRISTOPH, SABATINI RICCARDO, MAHER M. CYRUS, KANG EUN YONG, LEE SEUNGHAK, ARIKAN OKAN, HARLEY ALENA, BERNAL AXEL, GARST P: "Identification of individuals by trait prediction using whole-genome sequencing data", PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES, NATIONAL ACADEMY OF SCIENCES, vol. 114, no. 38, 19 September 2017 (2017-09-19), pages 10166 - 10171, XP093004386, ISSN: 0027-8424, DOI: 10.1073/pnas.1711125114 *
NO HAE-SUN, RHEE DAE-WOONG: "A Game Character’s Ability Value Generation Method using Genetic Algorithm", JOURNAL OF KOREA GAME SOCIETY, KOREA, vol. 18, no. 4, 31 August 2018 (2018-08-31), Korea, pages 83 - 97, XP093004383, ISSN: 1598-4540, DOI: 10.7583/JKGS.2018.18.4.83 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117034385A (zh) * 2023-08-30 2023-11-10 四开花园网络科技(广州)有限公司 一种支持人形角色创意设计的ai系统
CN117034385B (zh) * 2023-08-30 2024-04-02 四开花园网络科技(广州)有限公司 一种支持人形角色创意设计的ai系统

Similar Documents

Publication Publication Date Title
KR20220155239A (ko) Ai 기반 캐릭터 생성 시스템 및 방법
US7599802B2 (en) V-life matching and mating system
CN108491486B (zh) 模拟病人问诊对话方法、装置、终端设备及存储介质
WO2022240266A1 (ko) Ai 기반 캐릭터 생성 시스템 및 방법
Massiceti et al. Visual dialogue without vision or dialogue
WO2022146050A1 (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
WO2018212396A1 (ko) 데이터를 분석하는 방법, 장치 및 컴퓨터 프로그램
WO2022107989A1 (ko) 질의문과 지식 그래프 관계 학습을 이용한 지식 완성 방법 및 장치
WO2022154376A1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 장치 및 방법
JP7248086B2 (ja) 情報処理装置、遺伝情報作成方法及びプログラム
CN113781271B (zh) 化妆教学方法及装置、电子设备、存储介质
WO2022065579A1 (ko) 블록체인을 기반으로 하는 유전자 정보 거래 시스템 및 그 방법
KR20220133665A (ko) 성격 정보 제공 서비스 장치 및 방법
WO2020045849A1 (ko) 트루뎁스 카메라를 이용하여 아이웨어 시착 및 추천 서비스를 제공하는 시스템 및 방법
WO2021256578A1 (ko) 이미지 캡션 자동 생성 장치 및 방법
Morgan Cross-cultural considerations for simulation-based learning environments
WO2017122872A1 (ko) 전자 출판물에 대한 정보를 생성하는 장치 및 방법
WO2020159276A1 (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
Mostafa et al. ARTIFICIAL INTELLIGENCE TO SUPPORT HEALTH DECISION SUPPORT A FAST CHANGING FIELD INTERPLAY BETWEEN HUMAN EXPERTISE AND AI-ALGORITHMS
WO2020138589A1 (ko) 신약 후보 물질 발굴을 위한 멀티오믹스 데이터 처리 장치 및 방법
WO2023101103A1 (ko) 관상 정보 기반 사용자 선택 컨텐츠 정보 제공방법, 그 서버 및 어플리케이션
WO2015137585A1 (ko) 채터봇을 이용한 온라인 채팅 커뮤니티 운용방법
WO2020138588A1 (ko) 신약 후보 물질 발굴을 위한 데이터 처리 장치 및 방법
Taneri et al. Human Genetics and Genomics: A Practical Guide
WO2022154378A1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 서버, 사용자 단말 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807913

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22807913

Country of ref document: EP

Kind code of ref document: A1