KR102565196B1 - Method and system for providing digital human in virtual space - Google Patents

Method and system for providing digital human in virtual space Download PDF

Info

Publication number
KR102565196B1
KR102565196B1 KR1020220164919A KR20220164919A KR102565196B1 KR 102565196 B1 KR102565196 B1 KR 102565196B1 KR 1020220164919 A KR1020220164919 A KR 1020220164919A KR 20220164919 A KR20220164919 A KR 20220164919A KR 102565196 B1 KR102565196 B1 KR 102565196B1
Authority
KR
South Korea
Prior art keywords
person
information
space
digital human
interest
Prior art date
Application number
KR1020220164919A
Other languages
Korean (ko)
Inventor
김남현
Original Assignee
주식회사 엘젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘젠 filed Critical 주식회사 엘젠
Priority to KR1020220164919A priority Critical patent/KR102565196B1/en
Priority to KR1020230101797A priority patent/KR20240081313A/en
Application granted granted Critical
Publication of KR102565196B1 publication Critical patent/KR102565196B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method for providing a digital human in a virtual space according to the present invention comprises the steps of: specifying a space of interest in a virtual space including a plurality of spaces; acquiring character information of a person associated with the space of interest; generating, by an artificial neural network, a digital human corresponding to the person on the basis of the acquired character information; and providing, in response to a user accessing the virtual space, the generated digital human to the space of interest in the virtual space, wherein the artificial neural network learns a method for generating the digital human with extracted character characteristics by receiving character information of a person associated with a specific space and extracting character characteristics from the received character information. According to the present invention, a service associated with a virtual space can be provided through a digital human suitable for spatial characteristics.

Description

가상 공간에서의 디지털 휴먼 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING DIGITAL HUMAN IN VIRTUAL SPACE}Method and system for providing digital human in virtual space {METHOD AND SYSTEM FOR PROVIDING DIGITAL HUMAN IN VIRTUAL SPACE}

본 발명은 가상 공간에서의 디지털 휴먼 제공 방법 및 시스템에 관한 것이다. 보다 구체적으로, 본 발명은 인공 신경망을 이용하여 특정 인물에 대한 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 디지털 휴먼을 가상 공간을 통해 제공하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing a digital human in a virtual space. More specifically, the present invention relates to a method and system for providing a digital human having extracted character characteristics through a virtual space by extracting character characteristics from information on a specific person using an artificial neural network.

기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC, 자동화 기기 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 전자기기에 대한 의존도가 점차적으로 높아지고 있다.As technology develops, the spread of electronic devices (eg, smart phones, tablet PCs, automated devices, etc.) has become popular, and accordingly, dependence on electronic devices is gradually increasing in many parts of daily life.

특히, 디스플레이 기술의 발전으로 사용자는 평면 이미지 뿐만 아니라, 다양한 수단을 통해 3차원적 이미지 및 3차원적 공간을 볼 수 있다. 이에 따라, 사용자에게 3차원적인 시각적 사용자 경험을 제공하기 위해 가상 현실(virtual reality) 및 증강 현실(augmented reality) 서비스가 제공되고 있다. 이처럼 현재 3차원적 공간을 경험하는 것은 사용자 경험의 새로운 트렌드가 되었으며, 사용자는 가상 공간에서 시뮬레이션하고, 시각적 및 기타 감각적 경험을 제공받고, 가상 이미지와 상호 작용할 수 있다.In particular, with the development of display technology, users can view not only flat images but also 3D images and 3D spaces through various means. Accordingly, virtual reality and augmented reality services are being provided to provide users with a 3D visual user experience. Experiencing a three-dimensional space has become a new trend in user experience, and users can simulate in virtual space, receive visual and other sensory experiences, and interact with virtual images.

더 나아가, 위의 개념들을 모두 포괄하며 혼합 현실 환경을 제공하는 대표적인 서비스로서, 메타버스(metaverse)가 있다. 이 메타버스는 가공, 추상을 의미하는 '메타(meta)'와 현실세계를 의미하는 '유니버스(universe)'의 합성어로 3차원 가상 공간과 현실 공간의 연결을 의미한다. 메타버스는 기존의 가상 현실 환경(virtual reality environment)이라는 용어보다 진보된 개념으로서, 웹과 인터넷 등의 가상세계가 현실세계에 흡수된 상술한 혼합 현실 환경(mixed reality environment)을 제공한다.Furthermore, as a representative service that encompasses all of the above concepts and provides a mixed reality environment, there is a metaverse. This metaverse is a compound word of 'meta', which means processing and abstraction, and 'universe', which means the real world, and means the connection between the three-dimensional virtual space and the real space. The metaverse is a more advanced concept than the existing virtual reality environment, and provides the above-described mixed reality environment in which virtual worlds such as the web and the Internet are absorbed into the real world.

메타버스(metaverse)는 사용자의 참여에 따라 무한한 확장이 가능하며, 캐릭터, 환경 및 공간 등을 자유자재로 선택할 수 있다. 예를 들어, 사용자는 지형을 생성하고, 지형에 원하는 자연물 및 시설물 등을 배치할 수 있다.The metaverse can be infinitely expanded according to user participation, and characters, environments, and spaces can be freely selected. For example, a user may create a terrain and place desired natural objects and facilities on the terrain.

한편, 디지털 휴먼은 가상 공간의 다른 사용자가 보고 상호 작용할 수 있는 사용자의 그래픽 표현의 하나의 방법이며, 현실 공간의 사용자는 디지털 휴먼을 사용하여 가상 공간의 다른 사용자의 디지털 휴먼들과 상호 작용하거나, 해당 가상 공간에서의 각종 경제 활동, 문화 활동, 교육 활동 등을 수행할 수 있다.On the other hand, a digital human is a method of graphical representation of a user that other users in the virtual space can see and interact with, and a user in the real space uses the digital human to interact with the digital humans of other users in the virtual space, Various economic activities, cultural activities, educational activities, etc. can be performed in the corresponding virtual space.

본 발명은 가상 공간 중 특정 관심 공간과 관련된 실제 인물의 인물 정보를 획득하고, 인경 신경망이 인물 정보를 이용하여 실제 인물과 대응되는 디지털 휴먼을 생성함으로써, 생성된 디지털 휴먼을 가상 공간을 통해 제공하는 방법 및 시스템에 관한 것이다.The present invention obtains person information of a real person related to a specific space of interest in a virtual space, and a human neural network creates a digital human corresponding to the real person using the person information, thereby providing the created digital human through the virtual space. It relates to methods and systems.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 디지털 휴먼 제공 방법은, 복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하는 단계, 상기 관심 공간과 관련된 인물의 인물 정보를 획득하는 단계, 인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하는 단계 및 사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하는 단계를 포함하고, 상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.In order to solve the problems described above, a method for providing a digital human according to the present invention includes the steps of specifying a space of interest in the virtual space including a plurality of spaces, obtaining character information of a person related to the space of interest, and artificial Generating, by a neural network, the digital human corresponding to the person based on the acquired person information, and in response to a user accessing the virtual space, the generated digital human is selected from the space of interest in the virtual space. A method for generating the digital human having the extracted character characteristics by receiving character information of a person related to a specific space and extracting character characteristics from the received character information. learning can be characterized.

나아가, 상기 인물 정보는 상기 인물에 대한 이미지 정보 및 음성 정보를 포함하고, 상기 인공 신경망은, 상기 이미지 정보로부터 추출된 외형 및 상기 음성 정보로부터 추출된 음성 중 적어도 일부를 갖도록 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Furthermore, the person information includes image information and voice information about the person, and the artificial neural network generates the digital human to have at least a part of an appearance extracted from the image information and a voice extracted from the voice information. It can be characterized by learning methods.

나아가, 상기 인물 정보 중 적어도 일부는, 상기 관심 공간과 대응되는 실제 공간 내의 상기 인물에 대하여 상기 실제 공간에 배치되는 정보 획득부를 통해 획득될 수 있다.Furthermore, at least some of the person information may be obtained through an information obtaining unit disposed in the real space with respect to the person in the real space corresponding to the space of interest.

나아가, 상기 인물 정보는, 상기 실제 공간 내에서의 상기 인물의 동작을 포함하는 영상 정보를 더 포함하고, 상기 인공 신경망은, 상기 영상 정보로부터 추출된 제스처(gesture)에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Furthermore, the person information further includes image information including motions of the person in the real space, and the artificial neural network controls the digital human operating according to a gesture extracted from the image information. It can be characterized by learning how to generate.

나아가, 상기 인물 정보는 상기 인물의 업무 정보를 포함하고, 상기 영상 정보를 포함하는 상기 인물 정보를 획득하는 단계는, 상기 영상 정보에 포함된 상기 인물의 복수의 동작 중, 기 설정된 기준에 근거하여, 상기 인물의 업무 정보와 대응되는 유효 동작을 식별하는 단계, 및 상기 유효 동작을 포함하는 영상 정보를 상기 인물 정보로써 획득하는 단계를 더 포함하고, 상기 인공 신경망은, 상기 유효 동작으로부터 추출된 제스처에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Furthermore, the person information includes work information of the person, and the obtaining of the person information including the image information may include performing a plurality of motions of the person included in the image information based on a predetermined criterion. , identifying an effective motion corresponding to the work information of the person, and acquiring image information including the valid motion as the person information, wherein the artificial neural network includes a gesture extracted from the valid motion It may be characterized in that learning a method of generating the digital human operating according to.

나아가, 상기 디지털 휴먼 제공 방법은, 상기 음성 정보로부터 상기 인물의 발화 내용을 식별하는 단계를 더 포함하고, 상기 인공 신경망은 상기 발화 내용으로부터 상기 인물의 발화 양식을 추출함으로써, 상기 가상 공간 내에서 상기 발화 양식에 따라 발화하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Furthermore, the method for providing a digital human further includes the step of identifying the speech content of the person from the voice information, wherein the artificial neural network extracts the speech style of the person from the speech content, thereby retrieving the speech content of the person in the virtual space. It may be characterized by learning a method of generating the digital human that speaks according to a speech style.

나아가, 상기 관심 공간에 상기 디지털 휴먼을 제공하는 단계는, 상기 가상 공간 내에서의 상기 사용자의 요청을 수신하는 단계, 및 상기 인물 특성을 가지고 상기 요청에 대한 대응을 수행하는 상기 디지털 휴먼을 상기 관심 공간에 제공하는 단계를 더 포함할 수 있다.Furthermore, providing the digital human to the space of interest may include receiving a request of the user in the virtual space, and sending the digital human that responds to the request with the person characteristics to the interest. A step of providing the space may be further included.

나아가, 상기 인공 신경망은, 상기 이미지 정보 및 상기 음성 정보 중 적어도 하나로부터 상기 인물의 성격 유형을 추출하고, 상기 추출된 성격 유형에 대응되는 상기 외형 및 상기 음성 중 적어도 일부를 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Furthermore, the artificial neural network extracts the personality type of the person from at least one of the image information and the voice information, and generates the digital human having at least a part of the appearance and voice corresponding to the extracted personality type. It can be characterized by learning how to do it.

한편, 본 발명에 따른 가상 공간에서의 디지털 휴먼 제공 시스템은, 제어부를 포함하고, 제어부는, 사용자 입력에 근거하여, 복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하고, 상기 관심 공간과 관련된 인물의 인물 정보를 획득하고, 인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하고, 상기 사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하고, 상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Meanwhile, a system for providing a digital human in a virtual space according to the present invention includes a control unit, and the control unit specifies a space of interest in the virtual space including a plurality of spaces based on a user input, and the space of interest Person information of a related person is acquired, and an artificial neural network generates the digital human corresponding to the person based on the acquired person information, and in response to the user accessing the virtual space, the generated A digital human is provided to the space of interest among the virtual spaces, and the artificial neural network receives character information of a person related to a specific space and extracts character characteristics from the received character information. It may be characterized as learning how to create a human.

한편, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서, 상기 프로그램은, 복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하는 단계, 상기 관심 공간과 관련된 인물의 인물 정보를 획득하는 단계, 인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하는 단계 및 사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하는 단계를 수행하는 명령어들을 포함하고, 상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 할 수 있다.Meanwhile, as a program that is executed by one or more processes in an electronic device and can be stored in a computer-readable medium, the program comprises: specifying a space of interest in the virtual space including a plurality of spaces; Acquiring person information of a person related to the person, generating, by an artificial neural network, the digital human corresponding to the person based on the acquired person information, and in response to a user accessing the virtual space, and instructions for performing a step of providing the generated digital human to the space of interest among the virtual spaces, wherein the artificial neural network receives character information of a person related to a specific space, and extracts character characteristics from the received character information. By doing so, it may be characterized in that a method of generating the digital human having the extracted character characteristics is learned.

본 발명의 다양한 실시 예에 따르면, 디지털 휴먼 제공 방법 및 시스템은 복수의 공간을 포함하는 가상 공간 중 특정 관심 공간과 관련된 인물과 대응되는 디지털 휴먼을 생성하여 제공함으로써, 공간 특성에 적합한 디지털 휴먼을 통해 가상 공간과 관련된 서비스를 제공할 수 있다. According to various embodiments of the present invention, a digital human providing method and system generates and provides a digital human corresponding to a person related to a specific space of interest among virtual spaces including a plurality of spaces, and provides the digital human through a digital human suitable for spatial characteristics. Services related to virtual space can be provided.

또한, 본 발명의 다양한 실시 예에 따른 디지털 휴먼 제공 방법 및 시스템은, 관심 공간과 관련된 인물의 인물 정보를 활용하여 인물 특성을 추출하고, 추출된 인물 특성을 갖도록 디지털 휴먼을 생성 및 제공함으로써, 실존 인물과의 이질감을 최소화하고, 사용자에게 보다 실제 공간과 유사한 사용자 경험을 제공할 수 있다.In addition, a digital human providing method and system according to various embodiments of the present invention extracts character characteristics using character information of a person related to a space of interest, generates and provides a digital human to have the extracted character characteristics, It is possible to minimize a sense of difference with a person and provide a user experience similar to a real space.

나아가, 본 발명의 다양한 실시 예에 따르면, 디지털 휴먼 제공 방법 및 시스템은, 실제 공간에서 인물이 수행하는 복수의 제스처 중 가상 공간 내 특정 공간에서의 업무와 관련된 제스처만을 식별하여 인공 신경망을 학습시킴으로써, 공간 특성 및 인물 특성을 모두 반영한 디지털 휴먼을 제공하고, 이를 통해 보다 실제 경험과 유사한 사용자 경험을 제공할 수 있다.Furthermore, according to various embodiments of the present invention, a method and system for providing a digital human identify only gestures related to work in a specific space in a virtual space among a plurality of gestures performed by a person in a real space and learn the artificial neural network, A digital human reflecting both spatial characteristics and character characteristics can be provided, and through this, a user experience similar to a real experience can be provided.

도 1은 본 발명에 따른 디지털 휴먼 제공 시스템을 도시한다.
도 2는 본 발명에 따른 디지털 휴먼 제공 방법을 나타내는 흐름도다.
도 3은 일 실시 예에 따라 복수의 공간을 포함하는 가상 공간 중 관심 공간을 특정하는 구성을 도시한다.
도 4는 본 발명에 따른 정보 획득부를 이용하여 실제 공간에서 특정 인물의 인물 정보를 획득하는 구성을 도시한다.
도 5는, 본 발명에 따른 정보 획득부를 통해 획득한 인물 정보를 이용하여 디지털 휴먼을 생성하도록 학습하는 인공 신경망을 도시한다.
도 6은, 본 발명에 따른 인물 정보 중 이미지 정보를 이용하여, 이미지 정보로부터 추출된 외형을 갖는 디지털 휴먼을 생성하는 구성을 도시한다.
도 7은, 본 발명에 따른 인물 정보 중 음성 정보를 이용하여, 음성 정보로부터 추출된 음성을 갖는 디지털 휴먼을 생성하는 구성을 도시한다.
도 8a 및 도 8b는, 본 발명에 따른 인물 정보 중 영상 정보를 이용하여, 영상 정보로부터 추출된 제스처 중 적어도 일부에 따라 동작하는 디지털 휴먼을 생성하는 구성을 도시한다.
도 9는, 본 발명에 따른 인물 정보로부터 발화 양식 및 성격 유형을 추출함으로써, 추출된 발화 양식 및 성격 유형에 따라 동작하는 디지털 휴먼을 생성하는 구성을 도시한다.
1 shows a digital human providing system according to the present invention.
2 is a flowchart illustrating a method for providing a digital human according to the present invention.
3 illustrates a configuration for specifying a space of interest among virtual spaces including a plurality of spaces according to an embodiment.
4 illustrates a configuration for obtaining character information of a specific person in a real space using an information acquisition unit according to the present invention.
5 illustrates an artificial neural network learning to create a digital human using person information acquired through an information acquisition unit according to the present invention.
6 illustrates a configuration for generating a digital human having an external appearance extracted from image information by using image information among person information according to the present invention.
7 illustrates a configuration for generating a digital human having a voice extracted from voice information by using voice information among person information according to the present invention.
8A and 8B illustrate a configuration for generating a digital human operating according to at least a part of gestures extracted from the image information using image information among person information according to the present invention.
9 illustrates a configuration for generating a digital human operating according to the extracted speech style and personality type by extracting a speech style and personality type from person information according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same reference numerals will be assigned to the same or similar components regardless of reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

도 1은 본 발명에 따른 디지털 휴먼 제공 시스템을 도시한다.1 shows a digital human providing system according to the present invention.

도 1을 참조할 때, 일 실시 예에 따른 디지털 휴먼 제공 시스템(100)은, 가상 공간 중 특정 공간과 관련된 인물 정보를 획득하고, 인공 신경망(150)이 획득한 인물 정보를 이용하여 생성한 디지털 휴먼(10)을 가상 공간(30)을 통해 사용자 단말(200)로 제공하도록 구성될 수 있다.Referring to FIG. 1 , a system for providing a digital human according to an embodiment 100 obtains character information related to a specific space among virtual spaces, and the artificial neural network 150 creates digital data using the acquired character information. It may be configured to provide the human 10 to the user terminal 200 through the virtual space 30 .

이때, 사용자 단말(200)은 다양한 형태의 전자 장치로 참조될 수 있다. 예를 들어, 사용자 단말(200)은 스마트폰, 태블릿 PC, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 가전 장치, 또는 웨어러블(wearable) 장치 중 적어도 하나로 참조될 수 있으나, 이에 한정되는 것은 아니다. 단, 설명의 편의를 위해서 아래에서 사용자 단말(200)은 웨어러블 장치 중 가상 현실(virtual reality) 환경을 제공하는 헤드 마운티드 디스플레이(HMD, head mounted display)로 참조하여 설명한다.At this time, the user terminal 200 may be referred to as various types of electronic devices. For example, the user terminal 200 may refer to at least one of a smart phone, a tablet PC, an e-book reader, a desktop PC, a laptop PC, a home appliance, or a wearable device, but is not limited thereto. However, for convenience of description, the user terminal 200 will be described with reference to a head mounted display (HMD) providing a virtual reality environment among wearable devices.

또한, 디지털 휴먼(10)은 가상 공간(30) 중 특정 관심 공간(170)에 제공되는 가상의 캐릭터(또는, 아바타)로 이해될 수 있다. 즉, 디지털 휴먼(10)은 캐릭터 또는 아바타로 명명될 수 있음은 물론이다.In addition, the digital human 10 may be understood as a virtual character (or avatar) provided in a specific space of interest 170 of the virtual space 30 . That is, of course, the digital human 10 may be named a character or an avatar.

보다 구체적으로, 디지털 휴먼(10)은 가상 공간(30) 중 관심 공간(170)에 제공됨으로써, 사용자 요청(101)에 대한 응답(102)을 제공하는 가상의 객체로 참조될 수 있다.More specifically, the digital human 10 may be referred to as a virtual object that provides a response 102 to a user request 101 by being provided in the space of interest 170 of the virtual space 30 .

예를 들어, 디지털 휴먼 제공 시스템(100)은 가상 공간(30) 중 특정 관심 공간(170)에 디지털 휴먼(10)을 제공함으로써, 디지털 휴먼(10)이 가상 공간(30) 내에서의 사용자 요청(101)에 대응하는 안내 또는 가이드를 제공하도록 할 수 있다.For example, the digital human providing system 100 provides the digital human 10 to a specific interest space 170 of the virtual space 30, so that the digital human 10 is requested by a user within the virtual space 30. A guide or guide corresponding to (101) may be provided.

따라서, 본 발명에 따른 디지털 휴먼 제공 시스템(100)은, 디지털 휴먼을 생성하고, 생성된 디지털 휴먼을 포함하는 가상 공간을 사용자 단말(200)을 통해 사용자에게 제공할 수 있다.Accordingly, the digital human provision system 100 according to the present invention can generate a digital human and provide a virtual space including the created digital human to the user through the user terminal 200 .

이를 위해, 일 실시 예에 따른 디지털 휴먼 제공 시스템(100)은, 통신부(110), 저장부(120), 정보 획득부(130), 제어부(140) 및 인공 신경망(150) 중 적어도 하나를 포함할 수 있다. To this end, the digital human providing system 100 according to an embodiment includes at least one of a communication unit 110, a storage unit 120, an information acquisition unit 130, a control unit 140, and an artificial neural network 150. can do.

한편, 본 발명에 따른 디지털 휴먼 제공 시스템(100)은 애플리케이션 또는 소프트웨어로 구현될 수 있다. 이와 같이 애플리케이션으로 구현되는 디지털 휴먼 제공 시스템(100)은 전자 기기 상에 애플리케이션을 다운받을 수 있는 프로그램(예: 플레이스토어, 앱스토어)을 통해 다운로드 되거나, 전자 기기 상에 초기 설치 프로그램을 통해 구현될 수 있다. 이 경우, 본 발명에 따른 통신부(110), 저장부(120), 정보 획득부(130) 및 제어부(140)는 전자 기기의 구성 요소로 활용될 수 있다.Meanwhile, the digital human provision system 100 according to the present invention may be implemented as an application or software. The digital human providing system 100 implemented as an application in this way can be downloaded through a program (eg, Play Store, App Store) capable of downloading applications on an electronic device, or implemented through an initial installation program on an electronic device. can In this case, the communication unit 110, the storage unit 120, the information acquisition unit 130, and the control unit 140 according to the present invention may be utilized as components of an electronic device.

또한, 본 발명에 따른 디지털 휴먼 제공 시스템(100)은 사용자 단말(200)을 통해 접근되는 웹페이지를 통하여 제공될 수 있다.In addition, the digital human providing system 100 according to the present invention may be provided through a web page accessed through the user terminal 200 .

본 발명에 따른 통신부(110)는 사용자 단말(200) 및 외부 서버(미도시) 중 적어도 하나와 유선 또는 무선으로 통신하도록 이루어질 수 있다. 통신부(110)는 유선 또는 무선 통신을 이용하여 사용자 단말(200)로 디지털 휴먼(10)을 포함하는 가상 공간(또는, 메타버스) 서비스를 전송하거나, 외부 서버로부터 특정 인물에 관한 인물 정보를 수신할 수 있다.The communication unit 110 according to the present invention may be configured to communicate with at least one of the user terminal 200 and an external server (not shown) by wire or wirelessly. The communication unit 110 transmits a virtual space (or metaverse) service including the digital human 10 to the user terminal 200 using wired or wireless communication, or receives person information about a specific person from an external server. can do.

이 때, 통신부(110)는 통신하는 사용자 단말(200) 및 외부 서버 중 적어도 하나의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.At this time, the communication unit 110 may support various communication methods according to a communication standard of at least one of the communicating user terminal 200 and an external server.

예를 들어, 통신부(110)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 사용자 단말(200) 및 외부 서버 중 적어도 하나와 통신하도록 구성될 수 있다.For example, the communication unit 110 may include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), WiMAX ( World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5th Generation Mobile Telecommunication (5G) , Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi Direct, Wireless USB (Wireless Universal) It may be configured to communicate with at least one of the user terminal 200 and an external server using at least one of Serial Bus) technologies.

또한, 본 발명에 따른 저장부(120)는 정보 획득부(130) 또는 외부 서버(미도시)로부터 획득한 인물 정보를 저장하도록 구성될 수 있다. 일 실시 예에 따른 저장부(120)는 디지털 휴먼 제공 시스템(100) 자체에 구비될 수 있다. 다른 실시 예에 따르면, 저장부(120)의 적어도 일부는, 외부 서버의 클라우드 서버 및 데이터베이스 중 적어도 하나로 참조될 수 있다. 즉, 저장부(120)는 일 실시 예에 따른 특정 인물에 대한 인물 정보가 저장되는 공간으로 참조되며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다.Also, the storage unit 120 according to the present invention may be configured to store person information acquired from the information acquisition unit 130 or an external server (not shown). The storage unit 120 according to an embodiment may be provided in the digital human providing system 100 itself. According to another embodiment, at least a portion of the storage unit 120 may be referred to as at least one of a cloud server and a database of external servers. That is, the storage unit 120 is referred to as a space in which person information for a specific person is stored according to an embodiment, and it may be understood that there is no restriction on physical space.

이 때, 인물 정보는, 특정 인물의 i) 이미지 정보, ii) 음성 정보, iii) 해당 인물의 동작을 포함하는 영상 정보 및 iv) 해당 인물과 디지털 휴먼 간의 대화 정보 중 적어도 하나를 포함할 수 있다.In this case, the person information may include at least one of i) image information of a specific person, ii) audio information, iii) video information including motions of the person, and iv) conversation information between the person and the digital human. .

한편, 본 발명에 따른 정보 획득부(130)는 특정 인물에 대한 인물 정보를 획득하기 위한 수단으로 이해될 수 있다. 보다 구체적으로, 제어부(140)는 정보 획득부(130)를 이용하여 가상 공간(30) 중 관심 공간(170)과 관련된 인물의 인물 정보를 획득할 수 있다.Meanwhile, the information acquisition unit 130 according to the present invention may be understood as a means for obtaining person information on a specific person. More specifically, the controller 140 may obtain character information of a person related to the space of interest 170 in the virtual space 30 by using the information acquisition unit 130 .

일 실시 예에 따른 정보 획득부(130)는 관심 공간(170)과 대응되는 실제 공간에서, 특정 인물의 인물 정보를 획득하기 위한 수단으로 이해될 수 있다. 예를 들어, 정보 획득부(130)는 실제 공간에서 인물의 이미지 또는 영상 정보를 획득하기 위한, 카메라, 캠코더 또는 CCTV(closed-circuit television)로 이해될 수 있으나, 이에 한정되는 것은 아니며, 이미지 또는 영상 정보를 획득할 수 있는 다양한 수단으로 이해될 수 있다.The information acquisition unit 130 according to an embodiment may be understood as a means for obtaining person information of a specific person in a real space corresponding to the space of interest 170 . For example, the information acquisition unit 130 may be understood as a camera, camcorder, or CCTV (closed-circuit television) for acquiring image or video information of a person in a real space, but is not limited thereto, and images or It can be understood as various means capable of acquiring image information.

다른 예를 들어, 정보 획득부(130)는, 관심 공간(170)과 대응되는 실제 공간에서 인물의 음성 정보를 획득하기 위한, 녹음기(recorder)로 이해될 수 있으나, 이에 한정되는 것은 아니며, 음성 정보를 획득하기 위한 다양한 수단으로 이해될 수 있다.For another example, the information acquisition unit 130 may be understood as a recorder for acquiring voice information of a person in a real space corresponding to the space of interest 170, but is not limited thereto, and voice information is not limited thereto. It can be understood as various means for obtaining information.

다른 실시 예에 따른 정보 획득부(130)는, 관리자로부터 입력되는 인물 정보를 획득하기 위한 것으로서, 관리자와 디지털 휴먼 제공 시스템(100) 사이의 매개체가 될 수 있다. 보다 구체적으로, 정보 획득부(130)는 관리자로부터, 특정 인물에 대한 인물 정보를 수신하는 입력 수단을 의미할 수 있다.The information acquisition unit 130 according to another embodiment is for obtaining person information input from a manager and may be a medium between the manager and the digital human providing system 100 . More specifically, the information acquisition unit 130 may refer to an input means for receiving person information on a specific person from a manager.

이때, 정보 획득부(130)는 다양한 종류의 입력 부재로 참조될 수 있다. 일 실시 예에 따른 정보 획득부(130)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stick), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나로 참조될 수 있다. 다른 실시 예에 따른, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 참조되거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 참조될 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.At this time, the information acquisition unit 130 may be referred to as various types of input members. The information acquisition unit 130 according to an embodiment may include a mechanical input means (or a mechanical key, for example, a mouse, a joy stick, a physical button, a dome switch, jog wheel, jog switch, etc.) and at least one of touch input means. According to another embodiment, the touch input means is referred to as a virtual key, soft key, or visual key displayed on the touch screen through software processing, or other than the touch screen. It may be referred to as a touch key disposed in a part of. On the other hand, the virtual key or visual key can be displayed on the touch screen while having various forms, for example, graphic (graphic), text (text), icon (icon), video (video) or these may be made of a combination of

다음으로, 제어부(140)는 디지털 휴먼 제공 시스템(100)의 전반적인 동작을 제어할 수 있다. 일 실시 예에 따르면, 제어부(140)는, 정보 획득부(130)를 통해 입력되거나 통신부(110)를 통해 외부 서버로부터 수신된, 인물 정보와 관련된 데이터를 처리할 수 있다. 또한, 획득한 인물 정보를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 디지털 휴먼(10)을 생성하거나 디지털 휴먼(10)을 생성하는 방법을 학습하도록 제어할 수 있다. 또한, 제어부(140)는 획득한 인물 정보 및/또는 사용자 단말(200)로부터 수신한 데이터를 저장부(120)로 저장할 수 있다.Next, the controller 140 may control overall operations of the digital human providing system 100 . According to an embodiment, the controller 140 may process data related to person information input through the information acquisition unit 130 or received from an external server through the communication unit 110 . In addition, by inputting the obtained person information to the artificial neural network 150, the artificial neural network 150 can be controlled to generate the digital human 10 or learn how to generate the digital human 10. In addition, the control unit 140 may store acquired person information and/or data received from the user terminal 200 in the storage unit 120 .

또한, 제어부(140)는, 디지털 휴먼(10) 및 가상 공간(30)과 관련된 데이터를 사용자 단말(200)로 전송함으로써, 사용자 단말(200)에 구비된 디스플레이를 통해 디지털 휴먼(10)을 포함하는 가상 공간이 출력되도록 제어를 수행할 수 있다. 이 때, 사용자 단말(200)에 구비된 디스플레이의 종류에는 제한이 없다.In addition, the control unit 140 transmits data related to the digital human 10 and the virtual space 30 to the user terminal 200, thereby including the digital human 10 through a display provided in the user terminal 200. It is possible to perform control so that the virtual space to be output. At this time, the type of display provided in the user terminal 200 is not limited.

또한, 본 발명에 따른 인공 신경망(150)은, 연결선에 의해 연결된 복수의 인공 뉴런들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 인식 모델로 이해될 수 있다. 인공 신경망(150)은 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런들을 이용하고, 인공 뉴런들은 연결 가중치(connection weight)를 가지는 연결선을 통해 상호 연결될 수 있다. 인공 신경망(150)의 파라미터인 연결 가중치는 연결선이 가지는 값으로써, 연결 강도를 나타낼 수 있다. 인공 신경망(150)은 인공 뉴런들을 통해 인간의 인지 작용 또는 학습 과정을 수행할 수 있다. 이 때, 인공 신경망(150)의 인공 뉴런은 노드(node)로 지칭될 수 있다.In addition, the artificial neural network 150 according to the present invention can be understood as a recognition model that imitates the computational capability of a biological system by using a plurality of artificial neurons connected by connection lines. The artificial neural network 150 uses artificial neurons that simplify the functions of biological neurons, and the artificial neurons may be interconnected through a connection line having a connection weight. The connection weight, which is a parameter of the artificial neural network 150, is a value of a connection line and may indicate connection strength. The artificial neural network 150 may perform a human cognitive function or learning process through artificial neurons. At this time, the artificial neurons of the artificial neural network 150 may be referred to as nodes.

인공 신경망(150)은 복수의 레이어를 포함할 수 있다. 예를 들어, 인공 신경망(150)은 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함할 수 있다. 입력 레이어는 인공 신경망(150)의 학습을 위한 입력 데이터를 수신하여 히든 레이어로 전달할 수 있고, 출력 레이어는 히든 레이어의 노드들로부터 수신된 신호에 기초하여 인공 신경망(150)의 출력 데이터를 생성할 수 있다. 하나 이상의 히든 레이어가 입력 레이어 및 출력 레이어 사이에 위치할 수 있고, 입력 레이어를 통해 전달된 입력 데이터를 예측하기 쉬운 값으로 변환할 수 있다. 입력 레이어 및 하나 이상의 히든 레이어에 포함된 노드들은 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있고, 히든 레이어 및 출력 레이어에 포함된 노드들도 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있다. 히든 레이어는 CNN(convolution neural networ)에서의 콘볼루션 필터(convolution filter) 또는 완전 연결 레이어(fully connected layer)이거나, 특별한 기능이나 특징을 기준으로 묶인 다양한 종류의 필터 또는 레이어를 나타낼 수 있다.The artificial neural network 150 may include a plurality of layers. For example, the artificial neural network 150 may include an input layer, one or more hidden layers, and an output layer. The input layer may receive input data for learning of the artificial neural network 150 and pass it to the hidden layer, and the output layer may generate output data of the artificial neural network 150 based on signals received from nodes of the hidden layer. can One or more hidden layers may be positioned between the input layer and the output layer, and may convert input data transmitted through the input layer into values that are easy to predict. Nodes included in the input layer and one or more hidden layers may be connected to each other through a connection line having a connection weight, and nodes included in the hidden layer and the output layer may also be connected to each other through a connection line having a connection weight. The hidden layer may represent a convolution filter or a fully connected layer in a convolution neural network (CNN), or various types of filters or layers grouped based on special functions or characteristics.

인공 신경망 중에서 복수의 히든 레이어를 포함하는 인공 신경망을 딥 신경망(deep neural network)라 하고, 딥 신경망을 학습시키는 것을 딥러닝(deep learning)이라고 한다.Among artificial neural networks, an artificial neural network including a plurality of hidden layers is referred to as a deep neural network, and learning a deep neural network is referred to as deep learning.

본 발명에 따른, 인공 신경망(150)은 이러한 딥러닝을 통해 인물 정보로부터 인물 특성(또는, 페르소나)을 추출하고, 추출된 인물 특성을 갖는 디지털 휴먼(10)을 생성하도록 학습된 모델로 이해될 수 있다. 예를 들어, 인공 신경망(150)은 DNN(deep neural network), RNN(recurrent neural network), BRDNN(bidirectional recurrent deep neural network)와 같은 기계 학습 모델로 이해될 수 있다. 나아가, 인공 신경망(150)은 기계 학습 모델(machine learning model) 또는 딥러닝 모델(deep learning model)로 지칭될 수 있다.According to the present invention, the artificial neural network 150 can be understood as a model trained to extract character characteristics (or personas) from character information through such deep learning and generate a digital human 10 having the extracted character characteristics. can For example, the artificial neural network 150 may be understood as a machine learning model such as a deep neural network (DNN), a recurrent neural network (RNN), or a bidirectional recurrent deep neural network (BRDNN). Furthermore, the artificial neural network 150 may be referred to as a machine learning model or a deep learning model.

보다 구체적으로, 인공 신경망(150)은 가상 공간(30) 중 특정 관심 공간(170)과 관련된 인물의 인물 정보를 입력 받고, 입력된 인물 정보로부터 인물 특성을 추출하고, 추출된 인물 특성 중 적어도 일부를 갖는 디지털 휴먼(10)을 생성하는 방법을 학습하도록 설계될 수 있다.More specifically, the artificial neural network 150 receives character information of a person related to a specific space of interest 170 in the virtual space 30, extracts character characteristics from the input character information, and extracts at least some of the extracted character characteristics. It can be designed to learn how to create a digital human 10 with

이 때, 인공 신경망(150)는 디지털 휴먼 제공 시스템(100) 내부에 구현되거나, 통신부(110)를 통해 디지털 휴먼 제공 시스템(100)과 연결된 외부 장치(또는, 서버)에 구현될 수 있다. 즉, 인공 신경망(150)이 구현되는 공간은, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다.At this time, the artificial neural network 150 may be implemented inside the digital human providing system 100 or implemented in an external device (or server) connected to the digital human providing system 100 through the communication unit 110. That is, a space in which the artificial neural network 150 is implemented may be understood as having no restrictions on a physical space.

이상에서 살펴본 디지털 휴먼 제공 시스템(100)의 구성에 근거하여, 아래에서는 학습된 인공 신경망이 인물 정보를 이용하여 디지털 휴먼을 생성하고, 생성된 디지털 휴먼을 포함하는 가상 공간 서비스를 사용자 단말(200)을 통해 사용자에게 제공하는 방법에 대해 보다 구체적으로 설명하도록 한다.Based on the configuration of the digital human providing system 100 reviewed above, the learned artificial neural network creates a digital human using person information, and provides a virtual space service including the created digital human to the user terminal 200. Let us explain in more detail how to provide it to the user through

도 2는 본 발명에 따른 디지털 휴먼 제공 방법을 나타내는 흐름도다. 도 3은 일 실시 예에 따라 복수의 공간을 포함하는 가상 공간 중 관심 공간을 특정하는 구성을 도시한다. 도 4는 본 발명에 따른 정보 획득부를 이용하여 실제 공간에서 특정 인물의 인물 정보를 획득하는 구성을 도시한다. 도 5는, 본 발명에 따른 정보 획득부를 통해 획득한 인물 정보를 이용하여 디지털 휴먼을 생성하도록 학습하는 인공 신경망을 도시한다. 도 6은, 본 발명에 따른 인물 정보 중 이미지 정보를 이용하여, 이미지 정보로부터 추출된 외형을 갖는 디지털 휴먼을 생성하는 구성을 도시한다. 도 7은, 본 발명에 따른 인물 정보 중 음성 정보를 이용하여, 음성 정보로부터 추출된 음성을 갖는 디지털 휴먼을 생성하는 구성을 도시한다. 도 8a 및 도 8b는, 본 발명에 따른 인물 정보 중 영상 정보를 이용하여, 영상 정보로부터 추출된 제스처 중 적어도 일부에 따라 동작하는 디지털 휴먼을 생성하는 구성을 도시한다. 도 9는, 본 발명에 따른 인물 정보로부터 발화 양식 및 성격 유형을 추출함으로써, 추출된 발화 양식 및 성격 유형에 따라 동작하는 디지털 휴먼을 생성하는 구성을 도시한다.2 is a flowchart illustrating a method for providing a digital human according to the present invention. 3 illustrates a configuration for specifying a space of interest among virtual spaces including a plurality of spaces according to an embodiment. 4 illustrates a configuration for obtaining character information of a specific person in a real space using an information acquisition unit according to the present invention. 5 illustrates an artificial neural network learning to create a digital human using person information acquired through an information acquisition unit according to the present invention. 6 illustrates a configuration for generating a digital human having an external appearance extracted from image information by using image information among person information according to the present invention. 7 illustrates a configuration for generating a digital human having a voice extracted from voice information by using voice information among person information according to the present invention. 8A and 8B illustrate a configuration for generating a digital human operating according to at least a part of gestures extracted from the image information using image information among person information according to the present invention. 9 illustrates a configuration for generating a digital human operating according to the extracted speech style and personality type by extracting a speech style and personality type from person information according to the present invention.

본 발명에 따른 디지털 휴먼 제공 시스템(100)은 가상 공간 중 특정 공간과 관련된 인물 정보를 획득하고, 인공 신경망이 인물 정보를 이용하여 생성한 디지털 휴먼을 사용자 단말(200)에 표시되는 가상 공간을 통해 사용자에게 제공할 수 있다. 단, 아래에서는 설명의 편의를 위하여, 디지털 휴먼(10)을 제공하기 위한 동작들이 디지털 휴먼 제공 시스템(100)의 제어부(140)에 의해 수행되는 것으로 설명한다.The digital human providing system 100 according to the present invention acquires person information related to a specific space among virtual spaces, and displays a digital human generated by an artificial neural network using the person information through the virtual space displayed on the user terminal 200. can be provided to the user. However, below, for convenience of description, operations for providing the digital human 10 will be described as being performed by the control unit 140 of the digital human providing system 100 .

본 발명에 따른 제어부(140)는, 복수의 공간을 갖는 가상 공간(30)에서, 관심 공간(170)을 특정할 수 있다(S201). The controller 140 according to the present invention may specify a space of interest 170 in the virtual space 30 having a plurality of spaces (S201).

보다 구체적으로, 제어부(140)는 가상 공간(30)에 포함된 복수의 공간(301 내지 304) 중 하나에 대한 사용자 입력에 근거하여, 선택된 공간을 관심 공간(170)으로 특정할 수 있다.More specifically, the controller 140 may specify a selected space as the space of interest 170 based on a user input for one of the plurality of spaces 301 to 304 included in the virtual space 30 .

도 3에 도시된 것과 같이, 본 발명에 따른 제어부(140)는 사용자 단말(200)을 통해 사용자에게 표시된 복수의 가상 공간(301 내지 304) 중 적어도 하나에 대한 입력(예: 터치 입력 또는 음성 발화)에 근거하여, 관심 공간을 특정할 수 있다.As shown in FIG. 3 , the controller 140 according to the present invention may input (eg, touch input or voice speech) to at least one of a plurality of virtual spaces 301 to 304 displayed to the user through the user terminal 200. ), it is possible to specify the space of interest.

다른 실시 예에 따르면, 제어부(140)는 복수의 가상 공간(301 내지 304) 중 적어도 하나에 대한, 사용자의 사용자 단말(200)의 디스플레이를 통한 물리적 입력에 근거하여, 관심 공간을 특정할 수 있다.According to another embodiment, the controller 140 may specify a space of interest based on a user's physical input to at least one of the plurality of virtual spaces 301 to 304 through the display of the user terminal 200. .

예를 들어, 제어부(140)는 복수의 가상 공간(301 내지 304) 중 “시청”을 포함하는 제1 가상 공간(301)에 대한 사용자의 입력에 응답하여, “시청”을 관심 공간으로 특정할 수 있다.For example, the controller 140 may specify “viewing” as a space of interest in response to a user input for a first virtual space 301 including “viewing” among a plurality of virtual spaces 301 to 304. can

또 다른 실시 예에 따르면, 제어부(140)는 저장부(120)에 사용자 단말(200)에 관한 정보와 연동되어 저장된 정보 중 적어도 일부에 근거하여, 사용자가 사용자 단말(200)을 통해 가상 공간(30)에 접속하는 것에 응답하여, 복수의 가상 공간(301 내지 304) 중 하나를 관심 공간으로 특정할 수 있다.According to another embodiment, the control unit 140 allows the user to enter the virtual space ( 30), one of the plurality of virtual spaces 301 to 304 may be specified as a space of interest.

나아가, 제어부(140)는 특정된 관심 공간과 관련된 인물을 특정할 수 있다. 보다 구체적으로, 제어부(140)는 관심 공간이 특정되는 경우, 관심 공간과 연계하여 저장된 정보에 근거하여 관심 공간과 관련된 인물을 특정할 수 있다.Furthermore, the controller 140 may specify a person related to the specified space of interest. More specifically, when the space of interest is specified, the controller 140 may specify a person related to the space of interest based on information stored in association with the space of interest.

예를 들어, 제어부(140)는 “시청(City hall)”이 관심 공간으로 특정되는 것에 응답하여, “시청” 공간과 연계되어 저장부(120)에 저장된 정보에 근거하여, “시장(mayor)”을 관심 공간과 관련된 인물로 특정할 수 있다.For example, in response to specifying “City hall” as a space of interest, the controller 140 may determine “mayor” based on information stored in the storage unit 120 in association with the “city hall” space. ” can be specified as a person related to the space of interest.

저장부(120)에는 가상 공간에 포함된 복수의 가상 공간 각각에 대응되는 인물 정보가 저장될 수 있다. 즉, 복수의 가상 공간과, 복수의 가상 공간 각각에 대응되는 인물에 대한 정보는 서로 매칭되어 매칭 정보로서 저장부(120)에 존재할 수 있다. 이때, 복수의 가상 공간 각각에 대응되는 인물에 대한 정보는, 복수의 가상 공간에 대응되는 실제 공간에서 생활(ex: 근무 또는 거주)하는 인물에 해당할 수 있다. 한편, 실제 공간에서 생활하는 인물이 변경되는 경우, 예를 들어, 제1 인물이, 특정 실제 공간에서 퇴사하는 경우, 또는 임기가 만료된 경우, 실제 공간에는 제1 인물이 아닌 제2 인물이 생활할 수 있다. 이러한 인물에 대한 정보가 업데이트 되는 경우, 저장부(120)의 매칭 정보도 연동되어 업데이트될 수 있다. 한편, 인물에 대한 정보의 업데이트는, 다양한 경로를 통해 이루어질 수 있으므로, 이에 대한 구체적인 설명은 생략한다.Person information corresponding to each of a plurality of virtual spaces included in the virtual space may be stored in the storage unit 120 . That is, information about a plurality of virtual spaces and a person corresponding to each of the plurality of virtual spaces may be matched with each other and exist in the storage unit 120 as matching information. In this case, the information on the person corresponding to each of the plurality of virtual spaces may correspond to a person living (ex: working or living) in a real space corresponding to the plurality of virtual spaces. On the other hand, when the person living in the real space is changed, for example, when the first person resigns from a specific real space, or when the term of office expires, a second person, not the first person, lives in the real space. can do. When information on such a person is updated, matching information in the storage unit 120 may also be linked and updated. Meanwhile, since information on a person can be updated through various routes, a detailed description thereof will be omitted.

한편, 관심 공간이 특정되는 것에 응답하여 관심 공간과 관련된 인물이 복수인 경우, 복수의 인물 정보(예를 들면, 복수의 인물 각각에 대한 사진 정보, 이름 정보, 직책, 직함 정보 등)를 사용자 단말(200)을 통해 표시할 수 있다. 이때, 제어부(140)는 표시된 복수의 인물 정보 중 어느 하나, 또는, 적어도 하나에 대한 사용자 입력에 근거하여, 관심 공간과 관련된 인물을 특정할 수 있다.On the other hand, when there are a plurality of persons related to the space of interest in response to the space of interest being specified, a plurality of person information (eg, photo information, name information, job title information, etc. for each of the plurality of persons) is transmitted to the user terminal. It can be displayed through (200). At this time, the controller 140 may specify a person related to the space of interest based on any one or a user input for at least one of the plurality of displayed person information.

예를 들어, 제어부(140)는 “시청”이 관심 공간으로 특정되는 것에 응답하여 “시청”과 관련된 인물, 예를 들면, “시장”, “행정부시장”, 및 “민원담당관”에 대한 정보를 사용자 단말(200)을 통해 표시하고, 표시된 정보 중 “시장(mayor)”에 대한 사용자 입력에 근거하여, “시장”을 관심 공간과 관련된 인물로 특정할 수 있다.For example, the controller 140 transmits information on persons related to "city hall", for example, "mayor", "deputy mayor", and "civil affairs officer" in response to specifying "city hall" as a space of interest. It is displayed through the user terminal 200, and based on a user input for “mayor” among the displayed information, “mayor” may be specified as a person related to the space of interest.

다만, 관심 공간 및 관심 공간과 관련된 인물을 특정하는 방법은 상술한 예시들에 한정되는 것은 아니며, 복수의 가상 공간 중 하나의 공간 및 특정된 공간과 관련된 인물을 특정하기 위한 다양한 수단으로 이해될 수 있다.However, the method of specifying the space of interest and the person related to the space of interest is not limited to the above examples, and can be understood as various means for specifying one of a plurality of virtual spaces and a person related to the specified space. there is.

나아가, 본 발명에 따른 제어부(140)는 특정된 관심 공간과 관련된 인물의 인물 정보를 획득할 수 있다(S203).Furthermore, the controller 140 according to the present invention may acquire person information of a person related to the specified space of interest (S203).

보다 구체적으로, 제어부(140)는 정보 획득부(130)를 제어함으로써, 관심 공간(170)과 관련된 인물로 특정된 인물(20)의 인물 정보(501)를 획득할 수 있다.More specifically, the controller 140 may acquire person information 501 of the person 20 specified as a person related to the space of interest 170 by controlling the information acquisition unit 130 .

도 4에 도시된 것과 같이, 제어부(140)는 가상 공간(30) 중 관심 공간(170)과 대응되는 실제 공간(172)에 배치된 정보 획득부(130)를 이용하여, 실제 공간(172)에 존재하는 인물(20)에 대한 인물 정보(501)를 획득할 수 있다.As shown in FIG. 4 , the controller 140 uses the information acquisition unit 130 disposed in the real space 172 corresponding to the space of interest 170 in the virtual space 30 to obtain the real space 172. Person information 501 for a person 20 existing in may be acquired.

예를 들어, 제어부(140)는 실제 공간(172)에 배치된 정보 획득부(130)(예: 카메라)를 통해 촬영한 인물(20)의 이미지 정보 또는 영상 정보를, 인물(20)에 대한 인물 정보(501)로써 획득할 수 있다. 다른 예를 들어, 제어부(140)는 실제 공간(172)에 배치된 정보 획득부(130)(예: 녹음기)를 통해 녹음한 인물(20)의 음성 정보를, 인물(20)에 대한 인물 정보(501)로써 획득할 수 있다. 나아가, 제어부(140)는 실제 공간과 다른 공간에 배치되거나, 또는 다른 수단을 이용하여 인물(20)에 대한 인물 정보(501)를 획득할 수 있음은 물론이다.For example, the controller 140 transmits image information or image information of the person 20 captured through the information acquisition unit 130 (eg, a camera) disposed in the real space 172 to the person 20. It can be obtained as person information 501 . For another example, the control unit 140 converts the voice information of the person 20 recorded through the information acquisition unit 130 (eg, a recorder) disposed in the real space 172 to the person information about the person 20. It can be obtained as (501). Furthermore, it goes without saying that the controller 140 may acquire the person information 501 for the person 20 by being disposed in a space different from the actual space or by using other means.

예를 들어, 제어부(140)는 통신부(110)를 통해 외부 서버로부터 인물 정보를 수신함으로써, 관심 공간(170)과 관련된 인물(20)의 인물 정보(501)를 획득할 수 있다. 제어부(140)는 통신부(110)를 통해 외부 서버로부터 특정 인물(20)에 대한 이미지 파일 또는 음성 파일을 수신할 수 있다.For example, the controller 140 may obtain the person information 501 of the person 20 related to the space of interest 170 by receiving person information from an external server through the communication unit 110 . The controller 140 may receive an image file or a voice file for a specific person 20 from an external server through the communication unit 110 .

나아가, 제어부(140)는 관심 공간(170) 및 관심 공간(170)과 관련된 인물(20)이 특정되는 것에 응답하여, 관심 공간(170) 및 인물(20)과 연계하여 저장부(120)에 저장된 인물 정보(501)를 호출 또는 로드(load)함으로써 획득할 수 있다. 이러한 경우에, 인물 정보(501)는 저장부(120)에 인물(20)과 매칭되어 기 존재할 수 있다.Furthermore, in response to the space of interest 170 and the person 20 related to the space of interest 170 being specified, the controller 140 stores information in the storage unit 120 in association with the space of interest 170 and the person 20 . It can be obtained by calling or loading the stored person information 501 . In this case, the person information 501 may already exist in the storage unit 120 by being matched with the person 20 .

나아가, 본 발명에 따른 제어부(140)는, 인공 신경망(150)이 인물 정보(501)을 이용하여 인물(20)과 대응되는 디지털 휴먼(10)을 생성하도록 제어할 수 있다(S205).Furthermore, the controller 140 according to the present invention may control the artificial neural network 150 to generate a digital human 10 corresponding to the person 20 using the person information 501 (S205).

도 5에 도시된 것과 같이, 제어부(140)는 획득한 인물 정보(501)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 인물 정보(501)를 이용하여 인물(20)과 대응되는 디지털 휴먼(10)을 생성하도록 할 수 있다. As shown in FIG. 5 , the controller 140 inputs the acquired person information 501 to the artificial neural network 150, so that the artificial neural network 150 corresponds to the person 20 using the person information 501. A digital human 10 may be created.

보다 구체적으로, 제어부(140)는 획득한 인물 정보(501)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 인물 정보(501)로부터 인물 특성(또는, 페르소나)을 추출하고, 추출된 인물 특성(또는, 페르소나(Persona)(예를 들면, 외형, 음성, 제스처(Gesture))을 가짐으로써 실제 공간에 실존하는 인물(20)과 대응되는 디지털 휴먼(10)을 생성하도록 할 수 있다.More specifically, the controller 140 inputs the acquired person information 501 to the artificial neural network 150, so that the artificial neural network 150 extracts a person characteristic (or persona) from the person information 501 and extracts it. It is possible to generate a digital human 10 corresponding to a person 20 existing in a real space by having a person characteristic (or persona (eg, appearance, voice, gesture)) .

이 때, 인공 신경망(150)은 인물 정보(501)을 입력 받아, 인물 정보(501)에 기반하여 디지털 휴먼(10)을 생성하는 방법을 학습하도록 설계될 수 있다. 보다 구체적으로, 인공 신경망(150)은 인물 정보(501)를 입력 받고, 입력 받은 인물 정보(501)로부터 인물 특성(또는, 페르소나)을 추출하고, 추출된 인물 특성을 갖는 디지털 휴먼(10)을 생성하는 방법을 학습하도록 설계될 수 있다.At this time, the artificial neural network 150 may be designed to receive the person information 501 and learn how to generate the digital human 10 based on the person information 501 . More specifically, the artificial neural network 150 receives character information 501, extracts character characteristics (or personas) from the received character information 501, and creates a digital human 10 having the extracted character characteristics. can be designed to learn how to create

예를 들어, 인공 신경망(150)은 획득한 인물 정보(501) 중 이미지 정보로부터 추출된 외형 및/또는 음성 정보로부터 추출된 음성을 갖는 디지털 휴먼(10)을 생성하는 방법을 학습하도록 설계될 수 있다.For example, the artificial neural network 150 may be designed to learn how to generate a digital human 10 having an appearance extracted from image information and/or a voice extracted from voice information among the acquired person information 501. there is.

본 발명에 따른 제어부(140)는 인공 신경망(150)이 실제 공간(172)에 실존하는 인물(20)의 외형과 대응되는 외형(602)을 갖는 디지털 휴먼(10)을 생성하도록 제어할 수 있다.The control unit 140 according to the present invention can control the artificial neural network 150 to create a digital human 10 having an external appearance 602 corresponding to that of a person 20 existing in the real space 172. .

보다 구체적으로, 도 6에 도시된 바와 같이, 제어부(140)는 인물 정보(501) 중 이미지 정보(601)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 이미지 정보(601)로부터 추출된 외형(602)을 갖는 디지털 휴먼(10)을 생성하도록 할 수 있다.More specifically, as shown in FIG. 6 , the controller 140 inputs the image information 601 of the person information 501 to the artificial neural network 150 so that the artificial neural network 150 can obtain from the image information 601 The digital human 10 having the extracted appearance 602 may be created.

제어부(140)는 인공 신경망(150)을 통해, 이미지 정보(601)에 기반한 2차원 또는 3차원의 이미지에 해당하는 디지털 휴먼(10)을 생성할 수 있다.The controller 140 may generate a digital human 10 corresponding to a 2D or 3D image based on the image information 601 through the artificial neural network 150 .

이때, 이미지 정보(601)는 인물(20)의 얼굴 이미지, 체형 이미지, 서로 다른 의미를 갖는 복수의 제스처(예를 들면, 인사 제스처, 거절 제스처 등)에 해당하는 제스처 이미지 중 적어도 하나를 포함할 수 있다. 인공 신경망(150)은, 이러한 다양한 이미지 정보에 기반하여, 관심 공간에서 디지털 휴먼(10)이 다양한 표정 및 행동을 취하도록, 디지털 휴먼(10)을 생성할 수 있다. 한편, 인공 신경망(150)은 인물(20)의 얼굴 이미지와 기 확보된 다양한 표정 이미지를 합성하여, 인물(20)에 대한 다양한 표정을 갖는 디지털 휴먼(10)을 생성할 수 있다. 나아가, 인공 신경망(150)은 인물(20)의 체형 이미지 및 복수의 제스처 이미지와, 기 확보된 다양한 제스처 이미지를 합성하여, 다양한 상황에서의 다양한 제스처를 취하는 디지털 휴먼(10)을 생성할 수 있다.At this time, the image information 601 may include at least one of a face image, a body shape image, and a gesture image corresponding to a plurality of gestures having different meanings (eg, a greeting gesture, a rejection gesture, etc.) of the person 20. can The artificial neural network 150 may generate the digital human 10 so that the digital human 10 takes various facial expressions and actions in the space of interest based on such various image information. Meanwhile, the artificial neural network 150 may generate the digital human 10 having various facial expressions of the person 20 by synthesizing the face image of the person 20 and various previously secured facial expression images. Furthermore, the artificial neural network 150 may generate a digital human 10 that takes various gestures in various situations by synthesizing a body shape image and a plurality of gesture images of the person 20 and various previously secured gesture images. .

이 때, 인공 신경망(150)은 이미지 정보(601)를 처리하는 다양한 종류의 인공지능 모델로 이해될 수 있다. 예를 들어, 인공 신경망(150)은 FACS(facial action coding system), SER(speech emotion recognition), FER(facial expression recognition), Gaze tracking, Lucas-Kanade Fitting Algorithm, Face Reenactment 및 Face Synthesis 중 적어도 하나의 기술을 활용하는 인공지능 모델로서, 상술한 기술들 중 적어도 하나를 이용하여 이미지 정보(601)로부터 외형(602)을 추출하고, 추출된 외형(602)을 갖는 디지털 휴먼(10)을 생성하는 방법을 학습할 수 있다.At this time, the artificial neural network 150 may be understood as various types of artificial intelligence models that process the image information 601 . For example, the artificial neural network 150 uses at least one of facial action coding system (FACS), speech emotion recognition (SER), facial expression recognition (FER), gaze tracking, Lucas-Kanade Fitting Algorithm, face reenactment, and face synthesis. As an artificial intelligence model using technology, a method of extracting an external appearance 602 from image information 601 using at least one of the above-described technologies and generating a digital human 10 having the extracted external appearance 602 can learn

단, 인공 신경망(150)이 이미지 정보(601)로부터 외형(602)을 추출하는 기술 또는 방식은 상술한 예시에 한정되는 것은 아니며, 생물학적인 뉴런 시스템을 이용하여 이미지 정보(601)로부터 외형(602)을 추출하는 다양한 모델로 이해될 수 있다.However, the technique or method of extracting the external appearance 602 from the image information 601 by the artificial neural network 150 is not limited to the above example, and the external appearance 602 from the image information 601 using a biological neuron system. ) can be understood as a variety of models for extracting.

또한, 본 발명에 따른 제어부(140)는 인공 신경망(150)이 실제 공간(172)에 실존하는 인물(20)의 음성과 대응되는 음성(702)을 갖는 디지털 휴먼(10)을 생성하도록 제어할 수 있다.In addition, the controller 140 according to the present invention controls the artificial neural network 150 to generate the digital human 10 having a voice 702 corresponding to that of the person 20 existing in the real space 172. can

도 7에 도시된 바와 같이, 제어부(140)는 인물 정보(501) 중 음성 정보(701)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 음성 정보(701)로부터 추출한 음성(702)을 갖는 디지털 휴먼(10)을 생성하도록 할 수 있다. As shown in FIG. 7 , the controller 140 inputs voice information 701 of person information 501 to the artificial neural network 150, so that the artificial neural network 150 extracts a voice 702 from the voice information 701. ).

보다 구체적으로, 제어부(140)는 인물(20)의 발화에 따라 획득된 음성 정보(701)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 음성 정보(701)로부터 추출한 음성(702)으로 발화하는 디지털 휴먼(10)을 생성하도록 할 수 있다.More specifically, the controller 140 inputs the voice information 701 obtained according to the speech of the person 20 to the artificial neural network 150, so that the artificial neural network 150 extracts the voice 702 from the voice information 701. ).

이 때, 인공 신경망(150)은 음성 정보(701)를 처리하는 다양한 종류의 인공지능 모델로 이해될 수 있다. 예를 들어, 인공 신경망(150)은 Wavenet 기반의 TTS(text to speech) 합성 기술, Multi-Speaker TTS, Multi-Language TTS, Voice conversion 및 Self-Attention 기술 중 적어도 하나를 활용하는 인공지능 모델로서, 상술한 기술들 중 적어도 하나를 이용하여 음성 정보(701)로부터 음성(702)을 추출하고, 추출된 음성(702)을 갖는 디지털 휴먼(10)을 생성하는 방법을 학습할 수 있다.At this time, the artificial neural network 150 may be understood as various types of artificial intelligence models that process the voice information 701 . For example, the artificial neural network 150 is an artificial intelligence model that utilizes at least one of Wavenet-based text to speech (TTS) synthesis technology, multi-speaker TTS, multi-language TTS, voice conversion, and self-attention technology, A method of extracting a voice 702 from the voice information 701 using at least one of the above-described techniques and generating a digital human 10 having the extracted voice 702 may be learned.

단, 인공 신경망(150)이 음성 정보(701)로부터 음성(702)을 추출하는 기술 또는 방식은 상술한 예시에 한정되는 것은 아니며, 생물학적인 뉴런 시스템을 이용하여 음성 정보(701)로부터 음성(702)을 추출하는 다양한 모델로 이해될 수 있다.However, the technology or method of extracting the voice 702 from the voice information 701 by the artificial neural network 150 is not limited to the above example, and the voice 702 from the voice information 701 using a biological neuron system. ) can be understood as a variety of models for extracting.

상술한 구성을 통해, 디지털 휴먼 제공 시스템(100)은 관심 공간과 관련된 인물의 외형 및/또는 음성을 갖는 디지털 휴먼을 생성하여 제공함으로써, 보다 실제 경험과 유사한 사용자 경험(UX, user experience)을 가상 공간(또는, 메타버스 공간)을 통해 제공할 수 있다.Through the above-described configuration, the digital human providing system 100 generates and provides a digital human having the appearance and/or voice of a person related to the space of interest, thereby providing a virtual user experience (UX) similar to a real experience. It can be provided through space (or metaverse space).

나아가, 본 발명에 따른 제어부(140)는 인공 신경망(150)이 실제 공간(172)에 실존하는 인물(20)의 동작과 대응되는 제스처에 따라 동작하는 디지털 휴먼(10)을 생성하도록 제어할 수 있다.Furthermore, the controller 140 according to the present invention can control the artificial neural network 150 to create a digital human 10 that operates according to a gesture corresponding to the motion of the person 20 existing in the real space 172. there is.

이를 위해, 도 8a 및 도 8b에 도시된 것과 같이, 제어부(140)는 관심 공간(170)과 관련된 인물(20)의 동작을 포함하는 영상 정보(801)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 영상 정보(801)로부터 추출한 제스처(802)에 따라 동작하는 디지털 휴먼(10)을 생성하도록 할 수 있다.To this end, as shown in FIGS. 8A and 8B , the controller 140 inputs image information 801 including the motion of the person 20 related to the space of interest 170 to the artificial neural network 150, thereby The artificial neural network 150 may generate the digital human 10 operating according to the gesture 802 extracted from the image information 801 .

도 8a를 참조하면, 제어부(140)는 관심 공간(170)과 대응되는 실제 공간(172)에 배치되는 정보 획득부(130)(예: 카메라)를 제어함으로써, 실제 공간(172)에서의 인물(20)의 동작을 포함하는 영상 정보(801)를 획득할 수 있다.Referring to FIG. 8A , the controller 140 controls the information acquisition unit 130 (eg, camera) disposed in the real space 172 corresponding to the space of interest 170, so that the person in the real space 172 Image information 801 including the operation of (20) can be obtained.

보다 구체적으로, 제어부(140)는 실제 공간(172)에 배치된 복수의 정보 획득부(131 내지 134)를 통해 획득한 정보에 기반하여, 인물(20)의 동작을 포함하는 영상 정보(801)를 획득할 수 있다.More specifically, the controller 140 generates image information 801 including the motion of the person 20 based on information obtained through the plurality of information acquisition units 131 to 134 disposed in the real space 172. can be obtained.

다만, 다른 실시 예에 따르면, 실제 공간(172)에 배치된 복수의 정보 획득부(131 내지 134)는, 단일한 정보 획득부(예: 카메라)가 위치를 변경하며 이동하는 구성으로 이해될 수 있다.However, according to another embodiment, the plurality of information acquisition units 131 to 134 disposed in the real space 172 may be understood as a configuration in which a single information acquisition unit (eg, camera) moves while changing its location. there is.

예를 들어, 제어부(140)는 SfM(structure from motion)을 이용함으로써, 실제 공간(172)에 배치된 복수의 정보 획득부(131 내지 134)를 통해 획득한 복수의 이미지(image i 내지 image i+3)로부터 인물(20)의 동작을 포함하는 영상 정보(801)를 획득할 수 있다.For example, the control unit 140 uses structure from motion (SfM) to obtain a plurality of images (image i to image i) obtained through the plurality of information acquisition units 131 to 134 disposed in the real space 172. +3), image information 801 including the motion of the person 20 may be obtained.

보다 구체적으로, 제어부(140)는 인물(20)에 포함된 복수의 특징점들을 기준으로, 복수의 정보 획득부(131 내지 134)가 획득한 복수의 이미지 및 복수의 이미지 간 시야각에 근거하여, 인물(20)의 동작과 관련된 정보를 획득할 수 있다.More specifically, the controller 140 determines the person 20 based on the plurality of images acquired by the plurality of information acquisition units 131 to 134 and the viewing angle between the plurality of images, based on the plurality of feature points included in the person 20 . Information related to the operation of (20) can be obtained.

나아가, 도 8b에 도시된 것과 같이, 제어부(140)는 인물 정보(501) 중 영상 정보(801)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 영상 정보(801)로부터 추출한 제스처(802)에 따라 동작하는 디지털 휴먼(10)을 생성하도록 할 수 있다.Furthermore, as shown in FIG. 8B , the controller 140 inputs the image information 801 of the person information 501 to the artificial neural network 150, so that the artificial neural network 150 extracts the gesture from the image information 801. A digital human 10 operating according to 802 may be created.

이 때, 인공 신경망(150)은 영상 정보(801)를 처리하는 다양한 종류의 인공지능 모델로 이해될 수 있다. 예를 들어, 인공 신경망(150)은 ASM(active shape model), Lipsync animation, DCGAN(deep convolutional generative adversarial network) 구조, 3D reconstruction 기술 중 적어도 하나를 활용하는 인공지능 모델로서, 상술한 기술들 중 적어도 하나를 이용하여 영상 정보(801)로부터 제스처(802)을 추출하고, 추출된 제스처(802)에 따라 동작하는 디지털 휴먼(10)을 생성하는 방법을 학습할 수 있다.At this time, the artificial neural network 150 may be understood as various types of artificial intelligence models that process the image information 801 . For example, the artificial neural network 150 is an artificial intelligence model using at least one of an active shape model (ASM), lipsync animation, a deep convolutional generative adversarial network (DCGAN) structure, and a 3D reconstruction technique, and includes at least one of the above techniques. A method of extracting the gesture 802 from the image information 801 and generating the digital human 10 operating according to the extracted gesture 802 can be learned using one.

단, 인공 신경망(150)이 영상 정보(801)로부터 제스처(802)을 추출하는 기술 또는 방식은 상술한 예시에 한정되는 것은 아니며, 생물학적인 뉴런 시스템을 이용하여 영상 정보(801)로부터 제스처(802)을 추출하는 다양한 모델로 이해될 수 있다.However, the technique or method of extracting the gesture 802 from the image information 801 by the artificial neural network 150 is not limited to the above example, and the gesture 802 from the image information 801 using a biological neuron system. ) can be understood as a variety of models for extracting.

또한, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중 유효 동작을 식별하고, 유효 동작을 포함하는 영상을 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 유효 동작에 기반하여 추출한 제스처에 따라 동작하는 디지털 휴먼(10)을 생성하도록 할 수 있다.In addition, the controller 140 identifies an effective motion among a plurality of motions of the person 20 included in the image information 801, and inputs an image including the effective motion to the artificial neural network 150, so that the artificial neural network 150 ) can generate the digital human 10 operating according to the gesture extracted based on the effective motion.

여기에서, 유효 동작은 가상 공간에서 디지털 휴먼(10)의 제스처로서 생성해야 할 의미있는 동작으로서, 가상 공간의 목적, 성질 또는 종류에 따라, 서로 다를 수 있다. 또한, 유효 동작은 가상 공간 별로 복수의 유효 동작이 정의되어 존재할 수 있으며, 이는 저장부(120)에 저장될 수 있다. 즉, 저장부(120)에는, 가상 공간 별로 매칭된 적어도 하나의 유효 동작 정보가 존재할 수 있다. 예를 들어, "병원”에 해당하는 가상 공간의 경우, i) 접수 동작, ii) 휠체어를 미는 동작, iii) 인사하는 동작 등이 유효 동작으로 정의되어 존재할 수 있다. 나아가, “시청”에 해당하는 가상 공간의 경우, i) 인사하는 동작, ii) 서류 작성을 안내하는 동작 등이 유효 동작으로 정의되어 존재할 수 있다.Here, the valid motion is a meaningful motion to be generated as a gesture of the digital human 10 in the virtual space, and may be different depending on the purpose, nature, or type of the virtual space. In addition, a plurality of valid operations may be defined for each virtual space and may be stored in the storage unit 120 . That is, at least one piece of valid motion information matched for each virtual space may exist in the storage unit 120 . For example, in the case of a virtual space corresponding to "hospital", i) receptionist action, ii) wheelchair pushing action, iii) greeting action, etc. may be defined and exist as valid actions. Furthermore, they correspond to "viewing". In the case of a virtual space, i) a greeting operation, ii) an operation of guiding document preparation, and the like may be defined as valid operations.

한편, 이러한 유효 동작의 정의는 다양한 방식으로 이루어질 수 있으며, 실제 공간(172)에서 획득된 영상 정보(801)로부터 인물(20)의 업무를 정의하는 것을 통해 이루어질 수 있다. 예를 들어, 제어부(140)는 인물 정보(501)로써, 관심 공간(170) 또는 관심 공간(170)과 대응되는 실제 공간(172)에서 인물(20)의 업무 정보를 획득할 수 있다.Meanwhile, the definition of such an effective motion may be performed in various ways, and may be performed by defining the task of the person 20 from the image information 801 acquired in the real space 172 . For example, the controller 140 may obtain work information of the person 20 in the space of interest 170 or the real space 172 corresponding to the space of interest 170 as the person information 501 .

보다 구체적으로, 제어부(140)는 실제 공간(172)에서 인물(20)의 영상 정보(801)로부터 실제 공간(172)에서의 인물(20)의 업무 정보를 추출할 수 있다. 예를 들어, 제어부(140)는 실제 시청 공간에서의 시장(mayor)의 영상 정보에 기반하여, 시장의 안내 업무에 관한 정보를 추출할 수 있다. 그리고, 제어부(140)는 추출된 업무 정보 및 업무 정보에 해당하는 업무를 수행할 때의 인물(20)의 동작 정보를 유효 동작으로서 추출(또는 정의)할 수 있다. 그리고, 제어부(140)는 추출된 유효 동작을 영상 정보(801)부터 획득함으로써 저장부에 저장하고, 디지털 휴먼을 생성하는데 활용할 수 있다.More specifically, the controller 140 may extract work information of the person 20 in the real space 172 from image information 801 of the person 20 in the real space 172 . For example, the controller 140 may extract information about guidance work of the mayor based on image information of the mayor in the actual viewing space. In addition, the control unit 140 may extract (or define) the extracted work information and motion information of the person 20 when performing a task corresponding to the work information as an effective motion. Then, the control unit 140 obtains the extracted valid motion from the image information 801, stores it in a storage unit, and can use it to create a digital human.

이와 다르게, 제어부(140)는 관심 공간(170)이 특정되는 것에 응답하여, 관심 공간(170)에 대한 정보와 연계되어 저장부(120)에 저장된 업무 정보를 획득할 수 있다. 예를 들어, 제어부(140)는 가상 공간(30) 내 시청 공간이 관심 공간으로 특정되는 것에 응답하여, 시청 공간과 연계되어 저장된 안내 업무에 관한 정보를 획득할 수 있다. 이러한 업무 정보는 다양한 경로로 입수되는 업무 관련 매뉴얼, 업무 지침, 업무 리스트 등으로부터 획득될 수 있다. 그리고, 제어부(140)는 영상에서, 상기 업무 정보에 따른 업무를 수행할 때, 인물(20)이 어떠한 동작을 취했는지 추출하고, 추출된 동작 정보를 상기 업무 정보에 대한 유효 동작으로서 정의할 수 있다. 이에 따라, 가상 공간(관심 가상 공간)에서, 정의된 유효 동작을 수행하는 디지털 휴먼을 생성할 수 있다.Alternatively, in response to the space of interest 170 being specified, the controller 140 may acquire work information stored in the storage 120 in association with information on the space of interest 170 . For example, the controller 140 may obtain information about a guide service stored in association with the viewing space in response to specifying a viewing space within the virtual space 30 as a space of interest. Such work information may be acquired from work-related manuals, work guidelines, work lists, etc. obtained through various channels. In addition, the control unit 140 may extract what motion the person 20 took when performing the task according to the task information from the image, and define the extracted motion information as an effective motion for the task information. there is. Accordingly, in the virtual space (virtual space of interest), it is possible to create a digital human performing a defined valid operation.

나아가, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중 기 설정된 기준에 근거하여, 인물(20)의 업무 정보와 대응되는 적어도 하나의 동작을 유효 동작으로 식별할 수 있다.Furthermore, the controller 140 identifies at least one motion corresponding to the work information of the person 20 as a valid motion based on a predetermined criterion among the plurality of motions of the person 20 included in the image information 801. can do.

예를 들어, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중, 관심 공간(170) 내에서 인물(20)의 업무 정보와 연계되어 저장된 동작들과 대응되는 동작을 유효 동작으로 식별할 수 있다.For example, the controller 140 corresponds to motions stored in association with work information of the person 20 in the space of interest 170, among a plurality of motions of the person 20 included in the image information 801. An action can be identified as a valid action.

다른 예를 들어, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중, 관리자(예를 들면, 디지털 휴먼 생성 관련 업무 수행자)로부터 수신한 입력을 통해 선택된 적어도 하나의 동작을 유효 동작으로 식별할 수 있다.For another example, the controller 140 may select at least one of the plurality of actions of the person 20 included in the image information 801 through an input received from a manager (eg, a person performing a task related to creating a digital human). The operation of can be identified as a valid operation.

또 다른 예를 들어, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작으로부터, 업무 정보에 해당하는 업무와 무관하게 수행되는 동작으로 저장된 일반 동작에 해당하는 동작을 제외한 적어도 하나의 동작을 유효 동작으로 식별할 수 있다.For another example, the control unit 140 determines an operation corresponding to a general operation stored as an operation performed regardless of a job corresponding to work information from a plurality of operations of the person 20 included in the image information 801. At least one operation excepted may be identified as a valid operation.

한편, 제어부(140)는 인물 정보(501)를 획득하는 과정에서, 관심 공간(170) 또는 관심 공간(170)과 대응되는 실제 공간(172)에서 배치되는 객체의 객체 정보를 획득할 수 있다. 이러한 경우에, 가상 공간(또는, 관심 공간)에는 획득된 객체 정보에 대응하는 가상 객체가 상호작용이 가능하도록 배치될 수도 있다. 이때, 가상 객체에는 객체 정보의 일부 또는 전체가 매칭될 수 있으며, 이를 통해, 사용자는 가상 공간에서 디지털 휴먼을 통해, 실제 객체에 대응되는 가상 객체와의 상호작용을 수행할 수 있다.Meanwhile, in the process of acquiring the person information 501, the controller 140 may obtain object information of an object disposed in the space of interest 170 or the real space 172 corresponding to the space of interest 170. In this case, a virtual object corresponding to the obtained object information may be disposed in the virtual space (or the space of interest) so as to be interactive. In this case, part or all of the object information may be matched with the virtual object, and through this, the user may interact with the virtual object corresponding to the real object through the digital human in the virtual space.

이와 관련하여, 제어부(140)는 실제 공간(172)에서 인물(20)의 영상 정보(801)로부터 실제 공간(172)에서의 인물(20)이 이용하거나, 또는 인물에 인접한 객체의 객체 정보를 추출할 수 있다. 예를 들어, 제어부(140)는 실제 시청 공간에서의 시장(mayor)의 영상 정보에 기반하여, 시장의 안내 업무에 따라 안내하는 자동화 기기에 관한 정보를 추출할 수 있다.In this regard, the controller 140 obtains object information of an object used by the person 20 in the real space 172 or adjacent to the person from image information 801 of the person 20 in the real space 172. can be extracted. For example, the control unit 140 may extract information about an automated device that guides according to the mayor's guidance work, based on image information of a mayor in an actual viewing space.

다른 실시 예에 따르면, 제어부(140)는 관심 공간(170)이 특정되는 것에 응답하여, 관심 공간(170)에 대한 정보와 연계되어 저장부(120)에 저장된 객체 정보를 획득할 수 있다. 예를 들어, 제어부(140)는 가상 공간(30) 내 시청 공간이 관심 공간으로 특정되는 것에 응답하여, 시청 공간과 연계되어 저장된 자동화 기기에 관한 정보를 획득할 수 있다.According to another embodiment, the controller 140 may acquire object information stored in the storage 120 in association with information on the space of interest 170 in response to the space of interest 170 being specified. For example, the controller 140 may obtain information about an automated device stored in association with the viewing space in response to the viewing space within the virtual space 30 being specified as the space of interest.

나아가, 제어부(140)는 영상 정보(801)에서 객체 정보를 이용하여 객체의 위치를 인식하고, 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중, 인식된 객체의 위치와 인물(20)의 위치가 미리 설정된 범위 이내인 경우에 행해진 동작만을 유효 동작으로 식별할 수 있다.Furthermore, the controller 140 recognizes the position of the object using object information in the image information 801, and among the plurality of movements of the person 20 included in the image information 801, the position of the recognized object and the person Only an operation performed when the position of (20) is within a preset range can be identified as a valid operation.

이때, 제어부(140)는 식별된 유효 동작과, 인식된 객체의 객체 정보를 매칭시킬 수 있다. 여기에서, 유효 동작에 매칭될 객체 정보는 가상 객체에 매칭된 객체 정보와 동일할 수 있다. 이를 통해, 제어부(140)는 가상 공간(또는, 관심 공간)에서 디지털 휴먼이 가상 객체와 상호작용하는 경우에, 가상 객체에 매칭된 유효 동작을 수행하도록 디지털 휴먼을 생성할 수 있다.At this time, the control unit 140 may match the identified effective operation with object information of the recognized object. Here, object information to be matched to the valid operation may be the same as object information matched to the virtual object. Through this, the controller 140 may generate a digital human to perform an effective operation matched with the virtual object when the digital human interacts with the virtual object in the virtual space (or space of interest).

이와 관련하여, 제어부(140)는 영상 정보(801)에 대해, 특징점 추출 및 경계 결정 등의 과정을 적용하여 특징들의 패턴을 획득하고, 획득된 패턴을 미리 마련된 객체 정보와 비교하여 객체를 인식할 수 있다. 예를 들어, 제어부(140)는 SVM(Support Vector Machine)와 같은 종래의 기법을 이용하여 영상 정보(801)로부터 객체를 인식할 수 있다. 또한, 제어부(140)는 별도의 딥러닝 알고리즘을 통해 학습된 객체 인식 모델을 이용하여 영상 정보(801)에서 객체를 인식할 수도 있다.In this regard, the controller 140 acquires a pattern of features by applying a process such as feature point extraction and boundary determination to the image information 801, and compares the obtained pattern with pre-prepared object information to recognize an object. can For example, the controller 140 may recognize an object from the image information 801 using a conventional technique such as SVM (Support Vector Machine). In addition, the controller 140 may recognize an object from the image information 801 using an object recognition model learned through a separate deep learning algorithm.

한편, 유효 동작을 식별하는 과정에 대해 예를 들면, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중, 관심 공간(170) 내에서 관심 공간(170)과 연계되어 저장된 객체들과 인접한 인물(20)의 동작을 유효 동작으로 식별할 수 있다.Meanwhile, for the process of identifying a valid motion, for example, the controller 140 determines the space of interest 170 and A motion of the person 20 adjacent to objects stored in association with each other may be identified as a valid motion.

다른 예를 들어, 제어부(140)는 영상 정보(801)에 포함된 복수의 객체 중, 관리자로부터 수신한 입력을 통해 선택된 적어도 하나의 객체에 인접한 인물(20)의 동작을 유효 동작으로 식별할 수 있다.For another example, the controller 140 may identify, as a valid motion, a motion of the person 20 adjacent to at least one object selected through an input received from a manager among a plurality of objects included in the image information 801. there is.

또 다른 예를 들어, 제어부(140)는 영상 정보(801)에 포함된 복수의 객체 중, 관심 공간(170)과 무관하게 배치된 객체로 저장된 일반 객체에 해당하는 객체를 제외한 적어도 하나의 객체에 인접한 인물(20)의 동작을 유효 동작으로 식별할 수 있다.For another example, the control unit 140 controls at least one of the plurality of objects included in the image information 801 except for an object corresponding to a general object stored as an object disposed regardless of the space of interest 170. The motion of the adjacent person 20 may be identified as a valid motion.

이와 관련하여, 제어부(140)는 영상 정보(801)에서 객체 정보를 이용하여 객체의 위치를 인식하고, 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중, 인식된 객체의 위치와 인물(20)의 위치가 미리 설정된 범위 이내인 경우에 행해진 적어도 하나의 동작을 추출하고, 추출된 적어도 하나의 동작 중, 기 설정된 기준에 근거하여, 인물(20)의 업무 정보와 대응되는 적어도 하나의 동작을 유효 동작으로 식별할 수도 있다.In this regard, the controller 140 recognizes the position of the object using object information in the image information 801, and among the plurality of movements of the person 20 included in the image information 801, the position of the recognized object extracts at least one motion performed when the position of the person 20 and the person 20 is within a preset range, and among the extracted at least one motion, at least one corresponding to the work information of the person 20 based on a predetermined criterion; An action may be identified as a valid action.

나아가, 본 발명에 따른 제어부(140)는 유효 동작만을 포함하는 영상 정보를 인물 정보(501)로써 획득할 수 있다. 보다 구체적으로, 제어부(140)는 영상 정보(801)에 포함된 인물(20)의 복수의 동작 중 유효 동작을 포함하는 영상 부분을 인물 정보(501)로써 획득하고, 인공 신경망(150)에 입력할 수 있다.Furthermore, the controller 140 according to the present invention may obtain image information including only effective motions as person information 501 . More specifically, the controller 140 obtains an image portion including an effective motion among a plurality of motions of the person 20 included in the image information 801 as the person information 501 and inputs the obtained image to the artificial neural network 150. can do.

즉, 본 발명에 따른 제어부(140)는 인물(20)의 복수의 동작 중 유효 동작만을 포함하는 영상 정보를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 유효 동작으로부터 제스처를 추출하고 추출된 제스처에 따라 동작하는 디지털 휴먼을 생성(또는 생성하는 방법을 학습)하도록 할 수 있다.That is, the controller 140 according to the present invention inputs image information including only effective motions among a plurality of motions of the person 20 to the artificial neural network 150, so that the artificial neural network 150 extracts a gesture from the effective motions and It is possible to create (or learn how to create) a digital human that operates according to the extracted gesture.

또한, 제어부(140)는 실제 공간(172)에서 인물(20)에 대한 영상 정보(801)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 인물(20)의 상황별 행동 양식을 추출하고, 추출된 행동 양식에 따른 제스처를 수행하는 디지털 휴먼(10)을 생성하도록 할 수 있다. 보다 구체적으로, 제어부(140)는 실제 공간(172)에서 인물(20)에 대한 영상 정보(801)를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 실제 공간(172)에서 발생하는 상황 및 각 상황에 대응되는 인물(20)의 행동 양식을 추출하고, 관심 공간(170)에서의 상황에 응답하여 추출된 행동 양식에 따른 제스처를 수행하는 디지털 휴먼(10)을 생성하도록 할 수 있다.In addition, the controller 140 inputs the image information 801 of the person 20 in the real space 172 to the artificial neural network 150, so that the artificial neural network 150 determines the situational behavior of the person 20. It is possible to extract and generate a digital human 10 performing a gesture according to the extracted behavioral pattern. More specifically, the control unit 140 inputs the image information 801 of the person 20 in the real space 172 to the artificial neural network 150, so that the artificial neural network 150 generates data generated in the real space 172. A situation and a behavior pattern of the person 20 corresponding to each situation may be extracted, and a digital human 10 performing a gesture according to the extracted behavior pattern in response to a situation in the space of interest 170 may be generated. .

이를 통해, 본 발명에 따른 디지털 휴먼 제공 시스템(100)은 실제 공간에서 인물의 동작 중 업무와 관련된 유효 동작을 통해 학습한 인공 신경망이 유효 동작으로부터 추출된 제스처에 따라 동작하는 디지털 휴먼을 생성하여 제공함으로써, 보다 정확하고 실제 경험과 유사한 가상 공간에서의 사용자 경험을 제공할 수 있다.Through this, the digital human provision system 100 according to the present invention generates and provides a digital human operating according to a gesture extracted from an effective motion by an artificial neural network learned through an effective motion related to work among motions of a person in a real space. By doing so, it is possible to provide a user experience in a virtual space that is more accurate and similar to a real experience.

나아가, 도 9에 도시된 것과 같이, 본 발명에 따른 제어부(140)는 인물 정보로부터 식별된 인물의 발화 내용(902)을 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 발화 내용(902)으로부터 발화 양식을 추출하고, 추출된 발화 양식에 따라 발화하는 디지털 휴먼(10)을 생성하도록 할 수 있다.Furthermore, as shown in FIG. 9 , the control unit 140 according to the present invention inputs the speech contents 902 of the person identified from the person information to the artificial neural network 150, so that the artificial neural network 150 converts the speech contents ( 902), a speech style can be extracted, and the digital human 10 uttered according to the extracted speech style can be generated.

이 때, 발화 내용(902)은 실제 공간(172) 내의 인물(20)의 음성 정보(701)로부터 획득될 수 있다. In this case, the speech content 902 may be obtained from voice information 701 of the person 20 in the real space 172 .

실시 예에 따르면, 발화 내용(902)는 영상 정보(801)에서 유효 동작이 식별된 시점과 동일한 시점에 작성된 음성 정보(701)로부터 획득될 수 있다. 이러한 경우에, 제어부(140)는 유효 동작과 발화 내용(902)을 매칭시킬 수 있다.According to the embodiment, the content of speech 902 may be obtained from audio information 701 created at the same time point as the valid motion is identified in the video information 801 . In this case, the controller 140 may match the valid motion with the utterance 902 .

이때, 제어부(140)는 서로 다른 영상 정보(801)에서 추출된 어느 한 종류의 유효 동작(예를 들면, 인사 동작)에 다수의 음성 정보(701)(예를 들면, "안녕하세요.", "반갑습니다.")가 매칭되면, 매칭된 다수의 음성 정보(701) 중 기 설정된 기준을 만족하는 음성 정보(701)만을 이용할 수 있다. 예를 들어, 제어부(140)는 서로 다른 영상 정보(801)에서 추출된 어느 한 종류의 유효 동작에 다수의 음성 정보(701)가 매칭되면, 다수의 음성 정보(701) 중 가장 높은 빈도로 나타나는 음성 정보(701)를 이용할 수 있다.At this time, the controller 140 sends a plurality of voice information 701 (eg, "Hello", "Hello", "Hello") to any one type of effective operation (eg, greeting operation) extracted from different video information 801. Nice to meet you") is matched, only voice information 701 that satisfies a preset standard among a plurality of matched voice information 701 may be used. For example, the control unit 140, when a plurality of voice information 701 is matched to any one type of valid operation extracted from different video information 801, appears with the highest frequency among the plurality of voice information 701 Voice information 701 is available.

이를 통해, 제어부(140)는 유효 동작을 취하는 시점에, 상기의 유효 동작에 매칭된 발화 내용(902)을 발화하도록 디지털 휴먼(10)을 생성할 수 있다. Through this, the control unit 140 can generate the digital human 10 to utter the utterance 902 matched to the valid motion at the time of taking the effective motion.

다른 실시 예에 따르면, 발화 내용(902)은 가상 공간(30) 내에서 사용자와 디지털 휴먼(10)이 대화한 대화 이력으로부터 획득될 수 있다. 또한, 발화 내용(902)은 가상 공간(30) 중 관심 공간(170) 내에서 현재 사용자를 제외한 다른 사용자들이 디지털 휴먼(10)와 대화한 대화 이력으로부터 획득될 수 있다.According to another embodiment, the utterance content 902 may be obtained from a conversation history of a conversation between the user and the digital human 10 in the virtual space 30 . In addition, the utterance content 902 may be obtained from a conversation history of conversations with the digital human 10 by other users other than the current user within the space of interest 170 of the virtual space 30 .

또한, 인공 신경망(150)은 발화 내용(902)을 처리하는 다양한 종류의 인공지능 모델로 이해될 수 있다. 예를 들어, 인공 신경망(150)은 STT(speech to text), DM(dialog management), Self-Attention, NLP(natural language processing) 및 Deep QA(question answering) 중 적어도 하나를 활용하는 인공지능 모델로서, 상술한 기술들 중 적어도 하나를 이용하여 발화 내용(902)로부터 발화 양식을 추출하고, 추출된 발화 양식에 따라 발화하는 디지털 휴먼(10)을 생성하는 방법을 학습할 수 있다.In addition, the artificial neural network 150 may be understood as various types of artificial intelligence models that process the speech contents 902 . For example, the artificial neural network 150 is an artificial intelligence model that utilizes at least one of speech to text (STT), dialog management (DM), self-attention, natural language processing (NLP), and deep question answering (QA). , A method of extracting a speech pattern from the speech contents 902 using at least one of the above-described techniques and generating a digital human 10 that speaks according to the extracted speech style may be learned.

단, 인공 신경망(150)이 발화 내용(902)으로부터 발화 양식을 추출하는 기술 또는 방식은 상술한 예시에 한정되는 것은 아니며, 생물학적인 뉴런 시스템을 이용하여 발화 내용(902)으로부터 발화 양식을 추출하는 다양한 모델로 이해될 수 있다.However, the technique or method of extracting the speech pattern from the speech contents 902 by the artificial neural network 150 is not limited to the above example, and extracting the speech pattern from the speech contents 902 using a biological neuron system It can be understood in various models.

또한, 제어부(140)는 인물 정보(501)로부터 인물(20)의 성격 유형(901)(“Persona”)을 식별할 수 있다. Also, the controller 140 may identify the personality type 901 (“Persona”) of the person 20 from the person information 501 .

보다 구체적으로, 제어부(140)는 이미지 정보(601) 및 음성 정보(701) 중 적어도 하나를 인공 신경망(150)에 입력함으로써, 인공 신경망(150)이 이미지 정보(601) 및 음성 정보(701) 중 적어도 하나에 기반하여 인물(20)의 성격 유형(901)을 추출하고, 추출된 성격 유형(901)에 따라 동작하는 디지털 휴먼(10)을 생성하도록 할 수 있다.More specifically, the controller 140 inputs at least one of the image information 601 and the audio information 701 to the artificial neural network 150 so that the artificial neural network 150 converts the image information 601 and the audio information 701 The personality type 901 of the person 20 may be extracted based on at least one of the extracted personality types 901, and the digital human 10 operating according to the extracted personality type 901 may be generated.

한편, 제어부(140)는 인물 정보(501)로부터 식별된 발화 내용(902) 및 인물(20)의 성격 유형(901)을 포함하는 지식 베이스(“knowledge Base”)(910)를 생성할 수 있다.Meanwhile, the controller 140 may create a knowledge base ("knowledge base") 910 including the identified utterance content 902 from the person information 501 and the personality type 901 of the person 20. .

본 발명에 따른 제어부(140)는, 인공 신경망(150)이 발화 내용(902) 및/또는 성격 유형(901)을 이용하여, 사용자 요청(101)에 따른 응답(102)을 제공하는 디지털 휴먼(10)을 생성하도록 할 수 있다.The control unit 140 according to the present invention is a digital human (for which the artificial neural network 150 provides a response 102 according to the user request 101 using the speech content 902 and/or the personality type 901). 10) can be created.

보다 구체적으로, 제어부(140)는 발화 내용(902) 및 성격 유형(901)을 포함하는 지식 베이스(910)를 생성함으로써, 인공 신경망(150)이 사용자 요청(101)에 응답하여 지식 베이스(910)를 로드(load)하고, 지식 베이스(910)에 포함된 발화 내용(902) 및/또는 성격 유형(901)에 기반한 응답(102)을 제공하는 디지털 휴먼(10)을 생성하도록 할 수 있다.More specifically, the controller 140 generates the knowledge base 910 including the utterance content 902 and the personality type 901 so that the artificial neural network 150 responds to the user request 101 to generate the knowledge base 910. ) and create a digital human 10 that provides a response 102 based on the utterances 902 and/or the personality type 901 included in the knowledge base 910.

이를 통해, 본 발명에 따른 디지털 휴먼 제공 시스템(100)은, 실제 공간(172)에서의 인물(20)의 발화 양식 및 성격 유형에 대응되는 발화 양식 및 성격 유형(901)을 갖는 디지털 휴먼(10)을 통해 사용자 요청(101)에 대한 응답(102)을 제공할 수 있다. 예를 들어, 제어부(140)는 사용자 요청(101)에 응답하여, 공적(official) 발화 양식 및 상냥한 성격을 가지고 응답(102)을 제공하는 디지털 휴먼(10)을 생성하여 제공할 수 있다.Through this, the digital human provision system 100 according to the present invention is a digital human 10 having a speech style and personality type 901 corresponding to the speech style and personality type of the person 20 in the real space 172. ), a response 102 to the user request 101 may be provided. For example, in response to the user request 101 , the controller 140 may generate and provide a digital human 10 that provides a response 102 with an official speech style and a friendly personality.

나아가, 본 발명에 따른 제어부(140)는 사용자가 가상 공간(30)(또는 관심 공간(170))에 접속하는 것에 응답하여, 관심 공간(170)을 통해 디지털 휴먼(10)을 제공할 수 있다(S207). 보다 구체적으로, 제어부(140)는 사용자가 가상 공간(30)에 접속하거나, 가상 공간(30)을 통해 사용자 요청(101)을 제공하는 것에 응답하여, 관심 공간(170)에 실제 인물의 외형, 음성 및 제스처 중 적어도 하나를 갖는 디지털 휴먼(10)을 제공할 수 있다.Furthermore, the controller 140 according to the present invention may provide the digital human 10 through the space of interest 170 in response to the user accessing the virtual space 30 (or the space of interest 170). (S207). More specifically, in response to the user accessing the virtual space 30 or providing the user request 101 through the virtual space 30, the controller 140 displays the appearance of a real person in the space of interest 170, The digital human 10 having at least one of voice and gesture may be provided.

즉, 제어부(140)는 사용자가 가상 공간(30)에 접속하거나, 가상 공간(30)을 통해 사용자 요청(101)을 제공하는 것에 응답하여, 관심 공간(170)에 실제 인물의 외형, 음성 및 제스처 중 적어도 하나를 갖는 디지털 휴먼(10)을 제공함으로써, 디지털 휴먼(10)이 사용자 요청(101)에 대한 응답(102)을 제공(또는, 수행)하도록 할 수 있다.That is, in response to the user accessing the virtual space 30 or providing the user request 101 through the virtual space 30, the controller 140 displays the appearance, voice, and appearance of a real person in the space of interest 170. By providing the digital human 10 having at least one of the gestures, the digital human 10 may provide (or perform) a response 102 to the user request 101 .

예를 들어, 제어부(140)는 사용자가 가상 공간(30)에 접속하는 것에 응답하여, 가상 시청 민원실 내에, “시장”의 외형, 음성 및 제스처를 가지고 동작하는 디지털 휴먼(10)을 제공함으로써, 디지털 휴먼(10)이 가상 공간(30)(또는 관심 공간(170))에서 민원에 대한 사용자 요청(101)에 대한 응답(102)을 제공하도록 할 수 있다.For example, in response to the user accessing the virtual space 30, the control unit 140 provides a digital human 10 operating with the appearance, voice and gesture of the “market” in the virtual viewing service center, The digital human 10 may provide a response 102 to a user request 101 for a civil petition in the virtual space 30 (or the space of interest 170 ).

상술한 바에 따라, 본 발명의 다양한 실시 예에 따른 디지털 휴먼 제공 시스템(100)은, 관심 공간(170)과 관련된 인물(20)의 인물 정보로부터 추출된 인물 특성을 갖도록 디지털 휴먼을 생성 및 제공함으로써, 실존 인물과의 이질감을 최소화하고, 사용자에게 보다 실제 공간과 유사한 사용자 경험을 제공할 수 있다.As described above, the digital human providing system 100 according to various embodiments of the present invention creates and provides a digital human to have character characteristics extracted from the character information of the person 20 related to the space of interest 170. , it is possible to minimize a sense of difference with a real person and provide a user experience similar to a real space.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. On the other hand, the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the above-described computer is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.On the other hand, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

가상 공간에서의 디지털 휴먼 제공 방법에 있어서,
복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하는 단계;
상기 관심 공간과 관련된 인물의 인물 정보를 획득하는 단계;
인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하는 단계; 및
사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하는 단계를 포함하고,
상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하되,
상기 인물 정보는 상기 인물에 대한 영상 정보 및 상기 인물의 업무 정보를 포함하고,
상기 인물 정보를 획득하는 단계는,
상기 영상 정보에 포함된, 실제 공간 내에서의 상기 인물의 복수의 동작 중, 기 설정된 기준에 근거하여, 상기 인물의 업무 정보와 대응되는 유효 동작을 식별하는 단계; 및
상기 유효 동작을 포함하는 영상 정보를 상기 인물 정보로서 획득하는 단계;를 포함하며,
상기 인공 신경망은, 상기 유효 동작으로부터 추출된 제스처에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
In the method of providing a digital human in a virtual space,
specifying a space of interest in the virtual space including a plurality of spaces;
acquiring person information of a person related to the space of interest;
generating, by an artificial neural network, the digital human corresponding to the person based on the acquired person information; and
In response to a user accessing the virtual space, providing the created digital human to the space of interest among the virtual spaces;
The artificial neural network learns a method of generating the digital human having the extracted character characteristics by receiving character information of a person related to a specific space and extracting character characteristics from the input character information,
The person information includes image information about the person and business information of the person,
Acquiring the person information,
identifying an effective motion corresponding to work information of the person, based on a predetermined criterion, among a plurality of motions of the person included in the image information in a real space; and
Acquiring image information including the effective motion as the person information; includes,
The method of providing a digital human, characterized in that the artificial neural network learns a method of generating the digital human operating according to the gesture extracted from the effective motion.
제1항에 있어서,
상기 인물 정보는 상기 인물에 대한 이미지 정보 및 음성 정보를 포함하고,
상기 인공 신경망은, 상기 이미지 정보로부터 추출된 외형 및 상기 음성 정보로부터 추출된 음성 중 적어도 일부를 갖도록 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
According to claim 1,
The person information includes image information and voice information about the person,
The method of providing a digital human, characterized in that the artificial neural network learns a method of generating the digital human to have at least a part of an appearance extracted from the image information and a voice extracted from the voice information.
제2항에 있어서,
상기 인물 정보 중 적어도 일부는, 상기 관심 공간과 대응되는 실제 공간 내의 상기 인물에 대하여 상기 실제 공간에 배치되는 정보 획득부를 통해 획득되는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
According to claim 2,
Wherein at least some of the person information is obtained through an information acquisition unit disposed in the real space with respect to the person in the real space corresponding to the space of interest.
제2항에 있어서,
상기 관심 공간에 상기 디지털 휴먼을 제공하는 단계는:
상기 가상 공간 내에서의 상기 사용자의 요청을 수신하는 단계, 및
상기 인물 특성을 가지고 상기 요청에 대한 대응을 수행하는 상기 디지털 휴먼을 상기 관심 공간에 제공하는 단계를 더 포함하는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
According to claim 2,
Providing the digital human to the space of interest includes:
receiving the user's request within the virtual space; and
and providing the digital human having the character characteristics and responding to the request to the space of interest.
제4항에 있어서,
상기 인공 신경망은, 상기 이미지 정보 및 상기 음성 정보 중 적어도 하나로부터 상기 인물의 성격 유형을 추출하고, 상기 추출된 성격 유형에 대응되는 상기 외형 및 상기 음성 중 적어도 일부를 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
According to claim 4,
The artificial neural network extracts the personality type of the person from at least one of the image information and the voice information, and generates the digital human having at least a part of the appearance and voice corresponding to the extracted personality type. Characterized in that learning, digital human provision method.
가상 공간에서의 디지털 휴먼 제공 방법에 있어서,
복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하는 단계;
상기 관심 공간과 관련된 인물의 인물 정보를 획득하는 단계;
인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하는 단계; 및
사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하는 단계를 포함하고,
상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하되,
상기 인물 정보는 상기 인물에 대한 영상 정보를 포함하고,
상기 인물 정보를 획득하는 단계는,
상기 관심 공간에 배치되는 객체의 객체 정보를 획득하는 단계;
상기 객체 정보를 이용하여 상기 영상 정보에서 상기 객체를 인식하는 단계;
상기 영상 정보에 포함된 상기 인물의 복수의 동작 중, 상기 인식된 객체의 위치와 상기 인물의 위치가 미리 설정된 범위 이내인 경우에 행해진 동작만을 유효 동작으로 식별하는 단계; 및
상기 유효 동작을 포함하는 영상 정보를 상기 인물 정보로서 획득하는 단계;를 포함하고,
상기 인공 신경망은, 상기 유효 동작으로부터 추출된 제스처에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는, 디지털 휴먼 제공 방법.
In the method of providing a digital human in a virtual space,
specifying a space of interest in the virtual space including a plurality of spaces;
acquiring person information of a person related to the space of interest;
generating, by an artificial neural network, the digital human corresponding to the person based on the acquired person information; and
In response to a user accessing the virtual space, providing the created digital human to the space of interest among the virtual spaces;
The artificial neural network learns a method of generating the digital human having the extracted character characteristics by receiving character information of a person related to a specific space and extracting character characteristics from the input character information,
The person information includes image information about the person,
Acquiring the person information,
obtaining object information of an object disposed in the space of interest;
Recognizing the object from the image information using the object information;
identifying only an operation performed when the position of the recognized object and the position of the person are within a preset range among the plurality of motions of the person included in the image information as a valid motion; and
Acquiring image information including the effective motion as the person information;
The method of providing a digital human, characterized in that the artificial neural network learns a method of generating the digital human operating according to the gesture extracted from the effective motion.
삭제delete 삭제delete 가상 공간에서의 디지털 휴먼 제공 시스템에 있어서,
상기 디지털 휴먼 제공 시스템의 제어부는:
사용자 입력에 근거하여, 복수의 공간을 포함하는 상기 가상 공간에서 관심 공간을 특정하고,
상기 관심 공간과 관련된 인물의 인물 정보를 획득하고,
인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 상기 디지털 휴먼을 생성하고,
상기 사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하고,
상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하되,
상기 인물 정보는 상기 인물에 대한 영상 정보 및 상기 인물의 업무 정보를 포함하고,
상기 제어부는,
상기 영상 정보에 포함된, 실제 공간 내에서의 상기 인물의 복수의 동작 중, 기 설정된 기준에 근거하여, 상기 인물의 업무 정보와 대응되는 유효 동작을 식별하고, 상기 유효 동작을 포함하는 영상 정보를 상기 인물 정보로서 획득하며,
상기 인공 신경망은, 상기 유효 동작으로부터 추출된 제스처에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는, 디지털 휴먼 제공 시스템.
In the digital human providing system in virtual space,
The controller of the digital human providing system:
Based on a user input, specifying a space of interest in the virtual space including a plurality of spaces;
Obtaining person information of a person related to the space of interest;
An artificial neural network generates the digital human corresponding to the person based on the acquired person information;
In response to the user accessing the virtual space, providing the generated digital human to the space of interest in the virtual space;
The artificial neural network learns a method of generating the digital human having the extracted character characteristics by receiving character information of a person related to a specific space and extracting character characteristics from the input character information,
The person information includes image information about the person and business information of the person,
The control unit,
Among the plurality of motions of the person in the real space included in the image information, based on a predetermined criterion, an effective motion corresponding to the work information of the person is identified, and image information including the effective motion is Obtained as the person information,
Wherein the artificial neural network learns a method of generating the digital human operating according to the gesture extracted from the effective motion.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서,
상기 프로그램은,
복수의 공간을 포함하는 가상 공간에서 관심 공간을 특정하는 단계;
상기 관심 공간과 관련된 인물의 인물 정보를 획득하는 단계;
인공 신경망이, 상기 획득한 인물 정보에 기반하여, 상기 인물과 대응되는 디지털 휴먼을 생성하는 단계; 및
사용자가 상기 가상 공간에 접속하는 것에 응답하여, 상기 생성된 디지털 휴먼을 상기 가상 공간 중 상기 관심 공간에 제공하는 단계를 수행하는 명령어들을 포함하고,
상기 인공 신경망은, 특정 공간과 관련된 인물의 인물 정보를 입력 받고, 입력 받은 인물 정보로부터 인물 특성을 추출함으로써, 추출된 인물 특성을 갖는 상기 디지털 휴먼을 생성하는 방법을 학습하되,
상기 인물 정보는 상기 인물에 대한 영상 정보 및 상기 인물의 업무 정보를 포함하고,
상기 인물 정보를 획득하는 단계는,
상기 영상 정보에 포함된, 실제 공간 내에서의 상기 인물의 복수의 동작 중, 기 설정된 기준에 근거하여, 상기 인물의 업무 정보와 대응되는 유효 동작을 식별하는 단계; 및
상기 유효 동작을 포함하는 영상 정보를 상기 인물 정보로서 획득하는 단계;를 포함하며,
상기 인공 신경망은, 상기 유효 동작으로부터 추출된 제스처에 따라 동작하는 상기 디지털 휴먼을 생성하는 방법을 학습하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.

As a program that is executed by one or more processes in an electronic device and can be stored in a computer-readable medium,
said program,
specifying a space of interest in a virtual space including a plurality of spaces;
acquiring person information of a person related to the space of interest;
generating, by an artificial neural network, a digital human corresponding to the person based on the acquired person information; and
In response to a user accessing the virtual space, instructions for performing a step of providing the generated digital human to the space of interest among the virtual spaces;
The artificial neural network learns a method of generating the digital human having the extracted character characteristics by receiving character information of a person related to a specific space and extracting character characteristics from the input character information,
The person information includes image information about the person and business information of the person,
Acquiring the person information,
identifying an effective motion corresponding to work information of the person, based on a predetermined criterion, among a plurality of motions of the person included in the image information in a real space; and
Acquiring image information including the effective motion as the person information; includes,
The artificial neural network learns a method of generating the digital human operating according to the gesture extracted from the effective motion.

KR1020220164919A 2022-11-30 2022-11-30 Method and system for providing digital human in virtual space KR102565196B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220164919A KR102565196B1 (en) 2022-11-30 2022-11-30 Method and system for providing digital human in virtual space
KR1020230101797A KR20240081313A (en) 2022-11-30 2023-08-03 Method and system for providing digital human in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220164919A KR102565196B1 (en) 2022-11-30 2022-11-30 Method and system for providing digital human in virtual space

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230101797A Division KR20240081313A (en) 2022-11-30 2023-08-03 Method and system for providing digital human in virtual space

Publications (1)

Publication Number Publication Date
KR102565196B1 true KR102565196B1 (en) 2023-08-11

Family

ID=87565773

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220164919A KR102565196B1 (en) 2022-11-30 2022-11-30 Method and system for providing digital human in virtual space
KR1020230101797A KR20240081313A (en) 2022-11-30 2023-08-03 Method and system for providing digital human in virtual space

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230101797A KR20240081313A (en) 2022-11-30 2023-08-03 Method and system for providing digital human in virtual space

Country Status (1)

Country Link
KR (2) KR102565196B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117744051A (en) * 2023-12-21 2024-03-22 江苏云工场信息技术有限公司 Digital person identity right-determining method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100031877A (en) * 2008-09-16 2010-03-25 주식회사 엔씨소프트 System and method for processing english study using communication network, and method for processing npc operation in virtual space
KR20220129989A (en) * 2021-03-17 2022-09-26 주식회사 디엠랩 Avatar-based interaction service method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100031877A (en) * 2008-09-16 2010-03-25 주식회사 엔씨소프트 System and method for processing english study using communication network, and method for processing npc operation in virtual space
KR20220129989A (en) * 2021-03-17 2022-09-26 주식회사 디엠랩 Avatar-based interaction service method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117744051A (en) * 2023-12-21 2024-03-22 江苏云工场信息技术有限公司 Digital person identity right-determining method

Also Published As

Publication number Publication date
KR20240081313A (en) 2024-06-07

Similar Documents

Publication Publication Date Title
CN107340859B (en) Multi-modal interaction method and system of multi-modal virtual robot
Bojanova The digital revolution: what's on the horizon?
US20220150285A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
US11877203B2 (en) Controlled exposure to location-based virtual content
US9805493B2 (en) Social identity models for automated entity interactions
KR102148151B1 (en) Intelligent chat based on digital communication network
CN113168526B (en) System and method for virtual and augmented reality
CN107480766B (en) Method and system for content generation for multi-modal virtual robots
CN110168571A (en) It is generated for artificial intelligence interface, the system and method for evolution and/or adjusting
CN109643540A (en) System and method for artificial intelligent voice evolution
US20240119682A1 (en) Recording the complete physical and extended reality environments of a user
CN113793398A (en) Drawing method and device based on voice interaction, storage medium and electronic equipment
KR102565196B1 (en) Method and system for providing digital human in virtual space
CN113703585A (en) Interaction method, interaction device, electronic equipment and storage medium
CN116071452A (en) Style image generation method and device, computer equipment and storage medium
CN117632109A (en) Virtual digital assistant construction method, device, electronic equipment and storage medium
US20230393659A1 (en) Tactile messages in an extended reality environment
US11948263B1 (en) Recording the complete physical and extended reality environments of a user
CN116610777A (en) Conversational AI platform with extracted questions and answers
Piva et al. A flexible architecture for ambient intelligence systems supporting adaptive multimodal interaction with users
KR20230130580A (en) Autonomous generation, deployment, and personalization of real-time interactive digital agents
US11494996B2 (en) Dynamic interaction deployment within tangible mixed reality
Rincon et al. Using emotions in intelligent virtual environments: the EJaCalIVE framework
KR20230048959A (en) Communication method using metaverse agent and device and system therefor
WO2021229692A1 (en) Avatar control program, avatar control method and information processing device

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant