KR20230071053A - Method for analyzing personality or aptitude based on metaverse - Google Patents

Method for analyzing personality or aptitude based on metaverse Download PDF

Info

Publication number
KR20230071053A
KR20230071053A KR1020220112115A KR20220112115A KR20230071053A KR 20230071053 A KR20230071053 A KR 20230071053A KR 1020220112115 A KR1020220112115 A KR 1020220112115A KR 20220112115 A KR20220112115 A KR 20220112115A KR 20230071053 A KR20230071053 A KR 20230071053A
Authority
KR
South Korea
Prior art keywords
personality
user
voice
metaverse
face
Prior art date
Application number
KR1020220112115A
Other languages
Korean (ko)
Inventor
배영식
Original Assignee
배영식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배영식 filed Critical 배영식
Priority to CN202211389395.XA priority Critical patent/CN117679027A/en
Priority to US17/986,712 priority patent/US20230154093A1/en
Publication of KR20230071053A publication Critical patent/KR20230071053A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Primary Health Care (AREA)

Abstract

Provided is a method for analyzing a personality based on metaverse and artificial intelligence comprising: a step of obtaining at least one among speech information and visual information of a user; a step of analyzing a personality of the user using at least one among the speech information, the visual information, and the bio information; a step of generating data per user comprising a personality analysis result of the user; and a step of generating an avatar of the user using the data per user.

Description

메타버스 및 인공지능에 기반한 인적성 분석 방법{METHOD FOR ANALYZING PERSONALITY OR APTITUDE BASED ON METAVERSE}Personality analysis method based on metaverse and artificial intelligence {METHOD FOR ANALYZING PERSONALITY OR APTITUDE BASED ON METAVERSE}

본 발명은 인적성 분석 방법에 관한 것으로서, 보다 상세하게는 메타버스 및 인공지능에 기반한 인적성 분석 방법에 관한 것이다.The present invention relates to a personality analysis method, and more particularly, to a personality analysis method based on metaverse and artificial intelligence.

메타버스(metaverse)는 가상, 초월을 의미하는 '메타(meta)'와 세계, 우주를 의미하는 '유니버스(universe)'의 합성어로서, 3차원에서 실제 생활과 법적으로 인정되는 활동인 직업, 금융, 학습 등이 연결된 가상 세계를 뜻한다. 즉, 메타버스는 가상현실(VR)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고, 실제 현실과 같은 사회문화적 활동을 할 수 있다는 특징이 있다.Metaverse is a compound word of 'meta', meaning virtual and transcendent, and 'universe', meaning world and universe. It means a virtual world where learning, learning, etc. are connected. In other words, metaverse is a concept that has evolved one step further than virtual reality (VR), and is characterized by using avatars to not only enjoy games or virtual reality, but also to engage in social and cultural activities like real life.

비영리 기술 연구 단체인 ASF(Acceleration Studies Foundation)는 메타버스를 증강현실(augmented reality), 라이프로깅(life logging), 거울세계(mirror worlds) 및 가상세계(virtual worlds)의 네 가지 유형으로 분류한다.The Acceleration Studies Foundation (ASF), a non-profit technology research organization, categorizes metaverses into four types: augmented reality, life logging, mirror worlds, and virtual worlds.

증강현실은 현실공간에 2D 또는 3D로 표현한 가상의 겹쳐 보이는 물체를 통해 상호작용하는 환경을 의미한다. 사람들에게서 가상세계에 대한 거부감을 줄이고, 몰입감을 높이는 특징을 지닌다. 사용자가 단말기 카메라로 현재는 유적만 남은 흔적을 촬영하면 디지털로 구축된 과거의 건물이 사용자 단말기에 중첩해 보이는 장면이 증강현실의 일례이다.Augmented reality refers to an environment that interacts through virtual overlapping objects expressed in 2D or 3D in real space. It has the characteristics of reducing people's resistance to the virtual world and increasing their immersion. An example of augmented reality is a scene in which a digitally constructed building in the past is superimposed on a user terminal when a user photographs a trace of the current ruins with a terminal camera.

라이프로깅은 사물과 사람에 대한 일상적인 경험과 정보를 캡처하고 저장하고 묘사하는 기술이다. 사용자는 일상생활에서 일어나는 모든 순간을 텍스트, 영상, 사운드 등으로 캡처하고 그 내용을 서버에 저장하여 정리하고, 다른 사용자들과 공유가 가능하다. 센서가 부착된 스포츠 웨어를 네트워크 연결이 가능한 MP3 플레이어와 연동하여 달린 거리, 소비 칼로리, 선곡 음악 등의 정보를 저장하고 공유하는 등의 행위가 일상기록의 예시이다.Lifelogging is a technology that captures, stores, and describes everyday experiences and information about objects and people. Users can capture every moment in their daily life as text, video, sound, etc., store the contents on the server, organize them, and share them with other users. An example of a daily record is an act of storing and sharing information such as distance run, calories consumed, music selection, etc. by interlocking sensor-attached sportswear with an MP3 player that can be connected to a network.

거울세계는 실제세계를 가능한 한 사실적으로, 있는 그대로 반영하되 정보적으로 확장된 가상세계를 말한다. 대표적인 예로 구글 어스(Google Earth)를 들 수 있다. 구글 어스는 세계 전역의 위성사진을 모조리 수집하여 일정 주기로 사진을 업데이트하면서 시시각각 변화하는 현실세계의 모습을 그대로 반영하고 있다. 기술의 발전이 계속될수록 현실이 반영된 거울세계는 점점 현실세계에 근접해갈 것이며, 이는 향후 가상현실의 커다란 몰입적 요소가 된다. 이 같은 거울세계 사용자는 가상세계를 열람함으로써 현실세계에 대한 정보를 얻게 된다.The mirror world refers to a virtual world that reflects the real world as realistically and as it is, but is expanded informationally. A typical example is Google Earth. Google Earth collects satellite images from all over the world and updates them at regular intervals, reflecting the ever-changing real world as it is. As technology continues to develop, the mirror world that reflects reality will gradually approach the real world, which will become a great immersive factor in virtual reality in the future. The user of the mirror world obtains information about the real world by viewing the virtual world.

가상세계는 현실과 유사하거나 혹은 완전히 다른 대안적 세계를 디지털 데이터로 구축한 것이다. 가상세계에서 사용자들은 아바타를 통해 현실세계의 경제적, 사회적 활동과 유사한 활동을 한다는 특징이 있다. 가상세계는 가장 친숙한 형태의 메타버스로서, 온라인 롤플레잉 게임에서부터 샌드박스(SANDBOX), 제페토(ZEPETO), 로블록스(Roblox)와 같은 생활형 가상세계에 이르기까지 3차원 컴퓨터 그래픽 환경에서 구현되는 커뮤니티를 총칭하는 개념이다.The virtual world is an alternative world that is similar to or completely different from the real world built with digital data. In the virtual world, users are characterized by performing activities similar to economic and social activities in the real world through avatars. The virtual world is the most familiar type of metaverse, from online role-playing games to living virtual worlds such as SANDBOX, ZEPETO, and Roblox, a community implemented in a 3D computer graphic environment. is a concept that encompasses

한국 공개특허공보 제10-2019-0108523호(2019.09.24.)Korean Patent Publication No. 10-2019-0108523 (2019.09.24.)

인적성 검사는 실제 현실에서 사람을 대상으로 실시하고 있어 참여자가 직접 대면하여 진행하지 않으면 쉽게 검사를 실시하기가 어렵다. 따라서 메타버스에 기반하여 상대적으로 간단하게 인적성 검사를 실시할 수 있는 방법이 필요하다.Since the personality test is conducted on people in real life, it is difficult to easily conduct the test unless the participant conducts it face-to-face. Therefore, there is a need for a relatively simple way to conduct a personality test based on the metaverse.

본 발명의 목적은 사용자의 음성 정보 및/또는 시각 정보를 취득하고 인공지능을 이용하여 사용자의 인적성을 분석하여 사용자별 데이터를 생성하며, 사용자별 데이터를 이용하여 메타버스 내에서 활동하는 사용자의 아바타를 생성할 수 있는 메타버스 및 인공지능에 기반한 인적성 분석 방법을 제공하는 것이다.An object of the present invention is to acquire user voice information and/or visual information, analyze the user's personality using artificial intelligence, generate user-specific data, and use the user-specific data to create avatars of users active in the metaverse. It is to provide a personality analysis method based on metaverse and artificial intelligence that can generate

본 발명의 다른 목적은 초기 사용자별 데이터를 이용하여 생성한 아바타의 메타버스에서의 말 또는 행동에 따라 실시간으로 인적성을 업데이트할 수 있는 메타버스 및 인공지능에 기반한 인적성 분석 방법을 제공하는 것이다.Another object of the present invention is to provide a personality analysis method based on a metaverse and artificial intelligence capable of updating a personality in real time according to words or actions of an avatar created using initial user-specific data in the metaverse.

본 발명의 또 다른 목적은 사용자의 인적성이 반영된 아바타를 통해 진로, 학습, 커뮤니케이션, 기업의 인사/채용, 여행 추천, 제품 추천 등 다양한 분야에서 활용할 수 있는 메타버스 및 인공지능에 기반한 인적성 분석 방법을 제공하는 것이다.Another object of the present invention is to provide a personality analysis method based on metaverse and artificial intelligence that can be used in various fields such as career path, learning, communication, corporate personnel/recruitment, travel recommendation, and product recommendation through an avatar reflecting the user's personality. is to provide

다만, 본 발명의 해결하고자 하는 과제는 이에 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the problem to be solved by the present invention is not limited thereto, and may be expanded in various ways without departing from the spirit and scope of the present invention.

본 발명의 일 실시예에 따른 인적성 분석 시스템에서 수행되는 메타버스 및 인공지능에 기반한 인적성 분석 방법은, 사용자의 음성 정보, 시각 정보 및 뇌파, DNA 등의 바이오 정보 중 적어도 하나를 취득하는 단계와, 상기 음성 정보, 시각 정보 중 및 뇌파, DNA 등의 바이오 정보 중 적어도 하나를 이용하여 상기 사용자의 인적성을 분석하는 단계와, 상기 사용자의 인적성 분석 결과를 포함하는 사용자별 데이터를 생성하는 단계와, 상기 사용자별 데이터를 이용하여 상기 사용자의 아바타를 생성하는 단계를 포함한다.The personality analysis method based on the metaverse and artificial intelligence performed in the personality analysis system according to an embodiment of the present invention includes the steps of acquiring at least one of the user's voice information, visual information and bio information such as brain waves and DNA; Analyzing the personality of the user using at least one of the voice information and visual information and bio information such as brain waves and DNA; generating data for each user including the result of analyzing the user's personality; and generating an avatar of the user using data for each user.

상기 사용자의 인적성을 분석하는 단계는, 상기 음성 정보를 분석하는 단계와, 상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계와, 상기 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계를 포함할 수 있다.Analyzing the personality of the user includes analyzing the voice information, predicting the personality of the user based on the analysis result of the voice information, and recommending the personality of the user based on the prediction. steps may be included.

상기 음성 정보를 분석하는 단계는, 상기 음성 정보에서 소음을 제거하고 상기 음성 정보를 정규화하는 단계와, 상기 음성 정보에 기초하여 시간의 축(timeline)으로 마킹 가능한 음성 데이터를 생성하는 단계와, 상기 음성 정보에 기초하여 속도(tempo), 휴지구간(idle time), 음색(tone) 및 크기(volume) 중 적어도 하나를 포함하는 음성 스타일을 생성하는 단계를 포함할 수 있다.Analyzing the voice information may include removing noise from the voice information and normalizing the voice information; generating voice data that can be marked on a timeline based on the voice information; The method may include generating a voice style including at least one of a tempo, an idle time, a tone, and a volume based on the voice information.

상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 음성 데이터에 기초하여 상기 사용자의 인적성을 예측하되, 상기 음성 데이터를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 데이터에 의해 학습된 제1 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the voice information, predicting the personality of the user based on the voice data, taking the voice data as an input, and using the voice data for learning classified by personality type The personality of the user may be predicted by the first engine learned by

상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 판독이 용이한 특정 부분에 대한 상기 음성 스타일의 평균치를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 스타일에 의해 학습된 제2 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the voice information, the personality of the user is predicted based on the voice style, but the average value of the voice style for a specific part that is easy to read is input. , Personality of the user may be predicted by the second engine learned by learning voice styles classified by personality types.

상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 일정 시간간격으로 마킹된 상기 음성 스타일을 입력으로 하여, 마킹별 데이터 또는 마킹 구간의 연속 패턴 데이터에 의해 학습된 제3 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the voice information, predicting the personality of the user based on the voice style, using the voice style marked at regular time intervals as an input, data for each marking Alternatively, the user's personality may be predicted by a third engine learned from continuous pattern data of the marking section.

상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 음성 데이터 및 상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 상기 음성 데이터에 기초하여 예측한 결과 및 상기 음성 스타일에 기초하여 예측한 결과를 통계 처리하여 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the voice information, the personality of the user is predicted based on the voice data and the voice style, and the predicted result based on the voice data and the voice style It is possible to predict the personality of the user by statistically processing the predicted result based on .

상기 사용자의 인적성을 분석하는 단계는, 상기 시각 정보를 분석하는 단계와, 상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계와, 상기 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계를 포함할 수 있다.Analyzing the personality of the user includes analyzing the visual information, predicting the personality of the user based on the analysis result of the visual information, and recommending the personality of the user based on the prediction. steps may be included.

상기 시각 정보를 분석하는 단계는, 상기 시각 정보에서 상기 사용자의 얼굴을 인식하고 상기 사용자의 얼굴을 추출하는 단계와, 상기 시각 정보에 기초하여 특정 영상의 한 장면 또는 상기 특정 영상 전체로서 시간의 축(timeline)으로 마킹 가능한 얼굴 데이터를 생성하는 단계와, 상기 시각 정보에 기초하여 얼굴의 모양 및 크기, 눈의 모양 및 위치, 코의 모양 및 위치, 입의 모양 및 위치, 귀의 모양 및 위치, 눈썹의 모양 및 위치, 표정, 및 헤어스타일 중 적어도 하나를 포함하는 얼굴 스타일을 생성하는 단계를 포함할 수 있다.Analyzing the visual information may include recognizing the user's face from the visual information and extracting the user's face, and based on the visual information, one scene of a specific image or the entire specific image as an axis of time. (timeline) generating face data that can be marked, and based on the visual information, the shape and size of the face, the shape and position of the eyes, the shape and position of the nose, the shape and position of the mouth, the shape and position of the ears, and the eyebrows It may include generating a face style including at least one of a shape and position, a facial expression, and a hairstyle of the face.

상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 얼굴 데이터에 기초하여 상기 사용자의 인적성을 예측하되, 상기 얼굴 데이터를 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 데이터에 의해 학습된 제4 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the visual information, predicting the personality of the user based on the face data, taking the face data as an input, and using the face data for learning classified by personality type The personality of the user may be predicted by the fourth engine learned by

상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 판독이 용이한 상기 특정 영상의 한 장면의 상기 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제5 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.The step of predicting the personality of the user based on the analysis result of the visual information may include predicting the personality of the user based on the face style, based on the face style of one scene of the specific image that is easy to read With the generated 2D or 3D face pattern as an input, the user's personality can be predicted by the fifth engine learned by the learning face style classified by personality type.

상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 상기 특정 영상의 전체에 대하여 시간별로 마킹된 상기 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제6 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다.In the step of predicting the personality of the user based on the analysis result of the visual information, predicting the personality of the user based on the face style, based on the face style marked for each time with respect to the entirety of the specific image With the generated 2D or 3D face pattern as an input, the personality of the user can be predicted by the sixth engine learned by the face style for learning classified by personality type.

상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는, 상기 얼굴 데이터 및 상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되, 상기 얼굴 데이터에 기초하여 예측한 결과 및 상기 얼굴 스타일에 기초하여 예측한 결과를 통계 처리하여 상기 사용자의 인적성을 예측할 수 있다.Predicting the personality of the user based on the analysis result of the visual information may include predicting the personality of the user based on the face data and the face style, and the predicted result based on the face data and the face style. It is possible to predict the personality of the user by statistically processing the predicted result based on .

상기 사용자의 인적성을 분석하는 단계는, 상기 바이오 정보를 분석하는 단계와, 상기 바이오 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계와, 상기 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계를 포함할 수 있다.Analyzing the personality of the user includes analyzing the bio information, predicting the personality of the user based on the analysis result of the bio information, and recommending the personality of the user based on the prediction. steps may be included.

상기 바이오 정보를 분석하는 단계는, 시각, 청각, 미각, 촉각 및 후각 중적어도 하나의 다양한 자극에서 반응하는 뇌파를 특정 시간 동안 취득하여 분석하는 뇌파 분석 단계, DNA 요소별 구조별 특징이 분석된 데이터 정보 맵과 비교하여 고유한 DNA 정보를 분석 하는 DNA 정보 분석 단계를 포함하는 바이오 정보 분석을 포함할 수 있다.The step of analyzing the bio-information may include an EEG analysis step of acquiring and analyzing brain waves responding to at least one of various stimuli among visual, auditory, taste, touch, and smell for a specific period of time, and DNA element-specific structural characteristics analyzed data It may include bioinformation analysis including a DNA information analysis step of analyzing unique DNA information by comparing it with an information map.

상기 바이오 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는. 축적된 바이오 분석을 통한 예측 되는 결과들과 비교 분석한 인적성을 예측한 단계를 포함할 수 있다.The step of predicting the personality of the user based on the analysis result of the bio-information. It may include a step of predicting the predicted results through the accumulated bio-analysis and the analyzed personality.

상기 인적성 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계는, 하나 이상의 분석을 통해 예측된 인적성 결과치를 단일 또는 통합 분석을 통해서 최종 추천 인적성을 안내하고 아바타 생성시 적용할 것인지 묻는 단계를 포함할 수 있다. 상기 메타버스 및 인공지능에 기반한 인적성 분석 방법은 메타버스 내에서 상기 생성된 아바타의 행동, 대화, 말 또는 글을 반영하여 상기 사용자의 인적성 분석 결과를 포함하는 사용자별 데이터를 실시간으로 또는 주기적으로 업데이트하는 단계를 더 포함할수 있다.The step of recommending the personality of the user based on the personality prediction may include guiding the personality result predicted through one or more analyzes to the final recommended personality through a single or integrated analysis and asking whether to apply it when creating an avatar. there is. The personality analysis method based on the metaverse and artificial intelligence updates the user-specific data including the user's personality analysis result in real time or periodically by reflecting the generated avatar's actions, conversations, words or writings in the metaverse. It may include more steps.

상기 메타버스 및 인공지능에 기반한 인적성 분석 방법은 멀티모달 행동 패턴 관점에서, 메타버스 내에서 상기 생성된 아바타가 사용하는 말, 대화 또는 글과 아바타의 행동-상기 행동은 상기 아바타의 손, 머리, 시선의 움직임을 포함함-을 함께 고려하여 상기 아바타를 사용하는 사용자의 관심분야 및 성향 중 적어도 하나를 분석하하는 단계를 더 포함할 수 있다.The personality analysis method based on the metaverse and artificial intelligence, from the viewpoint of multimodal behavioral patterns, words, conversations or texts used by the created avatar in the metaverse and the behavior of the avatar-the behavior is the avatar's hands, head, The method may further include analyzing at least one of a field of interest and a tendency of a user using the avatar in consideration of including eye movement.

생성 된 아바타는 인공지능 성질을 가질 수 있으며 사용자 접속 없이도 능동적으로 활동 가능하며 다른 아바타와 상호작용하여 운영 될 수 있다. 또한 조건에 따라서 다른 곳으로 이동 될 수 있고 복제 될 수 있으며 다양한 실험이나 메타버스(가상화, 디지털트윈화) 구성에 활용 될 수 있다.The created avatar can have artificial intelligence properties, can be active without user access, and can be operated by interacting with other avatars. Also, depending on the conditions, it can be moved to another place, copied, and used for various experiments or metaverse (virtualization, digital twinning) configuration.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, it does not mean that a specific embodiment must include all of the following effects or only the following effects, so it should not be understood that the scope of rights of the disclosed technology is limited thereby.

전술한 본 발명의 실시예들에 따른 메타버스 및 인공지능에 기반한 인적성 분석 방법에 따르면, 사용자의 음성 정보 및/또는 시각 정보를 취득하고 인공지능을 이용하여 사용자의 인적성을 분석하여 사용자별 데이터를 생성하며, 사용자별 데이터를 이용하여 메타버스 내에서 활동하는 사용자의 아바타를 생성할 수 있다.According to the above-described personality analysis method based on the metaverse and artificial intelligence according to the embodiments of the present invention, the user's voice information and / or visual information is acquired, and the user's personality is analyzed using artificial intelligence to obtain data for each user. Avatar of a user who is active in the metaverse can be created using user-specific data.

전술한 본 발명의 실시예들에 따른 메타버스 및 인공지능에 기반한 인적성 분석 방법에 따르면, 초기 사용자별 데이터를 이용하여 생성한 아바타의 메타버스에서의 말 또는 행동에 따라 실시간으로 인적성을 업데이트할 수 있다.According to the personality analysis method based on the metaverse and artificial intelligence according to the above-described embodiments of the present invention, the personality can be updated in real time according to the words or actions of the avatar created using the initial user-specific data in the metaverse. there is.

전술한 본 발명의 실시예들에 따른 메타버스 및 인공지능에 기반한 인적성 분석 방법에 따르면, 사용자의 인적성이 반영된 아바타를 인적성 분석을 위한 인공지능의 학습, 커뮤니케이션 서비스 제공, 기업의 채용과정 등 다양한 분야에서 활용할 수 있다.According to the personality analysis method based on the metaverse and artificial intelligence according to the above-described embodiments of the present invention, the avatar reflecting the user's personality is used in various fields such as artificial intelligence learning for personality analysis, communication service provision, and corporate recruitment process. can be utilized in

도 1은 본 발명의 일 실시예에 따른 메타버스 및 인공지능에 기반한 인적성 분석 방법의 순서도이다.
도 2는 본 발명의 일 실시예에 따른 아바타를 생성하기 위한 전체적인 과정을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 음성 정보를 분석하는 과정을 도시한다.
도 4는 본 발명의 일 실시예에 따른 음성 정보를 이용하여 인적성을 분석하는 과정을 도시한다.
도 5는 본 발명의 일 실시예에 따른 시각 정보를 분석하는 과정을 도시한다.
도 6은 본 발명의 일 실시예에 따른 시각 정보를 이용하여 인적성을 분석하는 과정을 도시한다.
1 is a flowchart of a personality analysis method based on metaverse and artificial intelligence according to an embodiment of the present invention.
2 schematically illustrates an overall process for generating an avatar according to an embodiment of the present invention.
3 illustrates a process of analyzing voice information according to an embodiment of the present invention.
4 illustrates a process of analyzing personality using voice information according to an embodiment of the present invention.
5 illustrates a process of analyzing visual information according to an embodiment of the present invention.
6 illustrates a process of analyzing personality using visual information according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail.

그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It should be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. something to do. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in this application. .

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 본 발명이 속하는 기술분야에서 통상의 지식을 가진 사람이 본 발명을 쉽게 실시할 수 있도록 명확하고 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described clearly and in detail so that those skilled in the art can easily practice the present invention.

도 1은 본 발명의 일 실시예에 따른 인적성 분석 시스템에서 수행되는 메타버스 및 인공지능에 기반한 인적성 분석 방법의 순서도이다.1 is a flowchart of a personality analysis method based on a metaverse and artificial intelligence performed in a personality analysis system according to an embodiment of the present invention.

도 1을 참조하면, 인적성 분석 시스템에서는, 단계 S110에서, 음성 정보 및 시각 정보 중 적어도 하나를 취득한다. 음성 정보는 온톨로지(자연어 기계학습) 기반의 음성인식 기술에 의해 취득될 수 있으며, 시각 정보는 사용자의 글씨체, 사용자가 들고 있는 객체에 표시된 모델명 등의 텍스트 정보, 사용자의 생김새, 표정, 평상시와 힘든 활동을 했을 때의 외형 변화 등의 얼굴 정보, 사용자의 제스처 정보, 사용자가 있고 있는 옷 등의 객체 정보 등 시각에 의해 판단할 수 있는 정보를 제한 없이 포함할 수 있다. 상기 취득하는 단계에서는 음성 정보 및 시각 정보 이외에 적절한 센서를 활용하여 획득할 수 있는 뇌파, DNA 등 바이오 정보를 포함한 다양한 정보가 더 이용될 수도 있다. 주고 받는 대화, 기록 정보 및 패턴 등도 분석 및 학습 정보로 이용될 수 있다.Referring to FIG. 1 , in the personality analysis system, at least one of voice information and visual information is acquired in step S110. Voice information can be acquired by ontology (natural language machine learning)-based voice recognition technology, and visual information is text information such as the user's handwriting and model name displayed on the object held by the user, the user's appearance, facial expression, and Information that can be judged by sight, such as face information such as appearance change during activity, user gesture information, and object information such as clothes worn by the user, may be included without limitation. In the obtaining step, various types of information including bio information such as brain waves and DNA that can be acquired by using appropriate sensors may be further used in addition to voice information and visual information. Exchanging conversations, recorded information, and patterns can also be used as analysis and learning information.

인적성 분석 시스템에서는, 단계 S130에서, 사용자의 인적성에 대한 간이 선별 단계로서, 상기 음성 정보, 상기 시각 정보 및 상기 바이오 정보 중 적어도 하나를 이용하여 사용자의 인적성을 분석한다. 구체적으로, 사용자의 음성 정보, 시각 정보 및 바이오 정보 중 적어도 하나를 분석하고, 분석된 데이터를 이용하여 사용자의 인적성을 1차로 분석할 수 있다. 상기 바이오 정보의 분석은 시각, 청각, 미각, 촉각, 및 후각 중 적어도 하나의 자극에서 반응하는 뇌파를 특정 시간 동안 취득하여 뇌파 분석을 수행할 수 있다. 또한, 상기 바이오 정보의 분석은 DNA 요소별 구조별 특징이 분석된 데이터 정보 맵과 비교하여 고유한 DNA 정보를 분석할 수 있다. 상기 바이오 정보의 경우, 축적된 바이오 분석을 통한 예측 되는 결과들과 비교 분석하여 사용자의 인적성을 예측할 수 있다.In the personality analysis system, in step S130, as a simple screening step for the user's personality, the user's personality is analyzed using at least one of the voice information, the visual information, and the bio information. Specifically, at least one of voice information, visual information, and bio information of the user may be analyzed, and the user's personality may be first analyzed using the analyzed data. The analysis of the bio-information may be performed by acquiring brain waves responding to at least one of visual, auditory, taste, touch, and smell stimuli for a specific period of time. In addition, the analysis of the bio-information may analyze unique DNA information by comparing it with a data information map in which characteristics of each DNA element and structure are analyzed. In the case of the bio information, it is possible to predict the user's personality by comparing and analyzing the predicted results through the accumulated bio analysis.

인적성 분석 시스템에서는, 단계 S130에서 1차 분석된 사용자의 인적성은 1차 인적성 데이터이며, 이에 기초하여 사용자의 인적성을 추천할 수 있다. 예를 들어, 1차 인적성 데이터를 생성하는 경우에는 인공지능 학습을 통해 관상학적인 측면에서 사용자의 직업이나 인적성을 분석할 수 있다. 즉, 사용자의 얼굴이나 목소리에 대하여 학습된 인공지능을 이용하여 사용자의 음성이나 얼굴 정보에 대하여 사용자의 직업이 대통령 또는 운동선수라고 분석할 수 있으며, 또한 인적성에 대한 1차 인적성 데이터가 분석될 수 있다. 이러한 1차 인적성 데이터는 추후 사용자의 아바타의 행동이나 말에 따라 업데이트되어 2차 인적성 데이터가 생성 될 수 있다.In the personality analysis system, the personality of the user primarily analyzed in step S130 is primary personality data, and based on this, the personality of the user can be recommended. For example, in the case of generating primary personality data, it is possible to analyze the user's job or personality from an astronomical perspective through artificial intelligence learning. That is, the user's voice or face information can be analyzed as the user's job is president or athlete using artificial intelligence learned for the user's face or voice, and the primary personality data for personality can be analyzed. there is. Such primary personality data may be updated according to actions or words of the user's avatar later to generate secondary personality data.

인적성 분석 시스템에서는, 단계 S150에서, 상기 간이 선별 단계에서의 사용자의 인적성 분석 결과를 포함하는 사용자별 데이터(user data)를 생성한다. 사용자별 데이터는 예를 들어, 사용자의 아이디(ID), 패스워드, 인적성 분석 결과 데이터를 포함할 수 있다. 사용자별 데이터는 사용자의 음성 데이터, 얼굴 이미지 데이터 자체를 포함한다기 보다는 사용자의 음성 또는 얼굴 이미지를 분석한 데이터를 포함할 수 있다. In the personality analysis system, in step S150, user data including the personality analysis result of the user in the simple screening step is generated. The user-specific data may include, for example, the user's ID, password, and personality analysis result data. The user-specific data may include data obtained by analyzing the user's voice or face image rather than the user's voice data or face image data itself.

여기서의 사용자별 데이터는 아바타의 행동이나 말에 기초하여 분석되어 얻어지는 2차 인적성 데이터 생성 이전 단계에서 임시적으로 취득한 사용자의 사용자 개인별 데이터이다.여기서 상기 사용자별 데이터는 시간축으로 업데이트될 수 있다. 예를들어, 사용자의 인적성에 대한 간이 선별 단계에서 사용자의 목소리 또는 얼굴등 관상학적인 측면에서 분석된 데이터를 이후에 시간축으로 인적성 데이터를 계속 갱신하면서 업데이트될 수 있다.Here, the data for each user is the user's individual data temporarily obtained in a step prior to generation of the secondary personality data obtained by analyzing the avatar's actions or words. Here, the data for each user may be updated on a time axis. For example, in the simple selection step for the user's personality, data analyzed in terms of physiognomy, such as the user's voice or face, can be updated while continuously updating the personality data on a time axis.

인적성 분석 시스템에서는, 단계 S170에서, 사용자별 데이터를 이용하여 사용자의 아바타를 생성한다. 사용자별 데이터에 따라 아바타의 외형이나 옷차림 등이 결정될 수 있으며, 사용자는 생성된 아바타를 통해 메타버스 내에서 생활할 수 있다.In the personality analysis system, in step S170, a user's avatar is created using data for each user. The appearance or attire of the avatar can be determined according to the data for each user, and the user can live in the metaverse through the created avatar.

인적성 분석 시스템에서는, 단계 S190에서, 상기 아바타를 이용하여 실시간으로 사용자의 인적성을 분석하고, 인공지능을 학습시킨다. 즉, 단계 S130에서 인공지능에 의해 분석된 사용자의 인적성은 고정된 것이 아니다. 최소의 음성 정보 및/또는 시각 정보에 의해 사용자의 인적성을 간이 선별하여 초기 데이터를 생성하고, 이후 메타버스 내에서 사용자의 아바타의 행동이나 말을 반영하여 사용자의 인적성 데이터가 실시간으로 또는 주기적으로 업데이트 될 수 있다. In the personality analysis system, in step S190, the personality of the user is analyzed in real time using the avatar, and artificial intelligence is trained. That is, the personality of the user analyzed by artificial intelligence in step S130 is not fixed. Initial data is generated by simply screening the user's personality with minimal voice information and/or visual information, and then the user's personality data is updated in real time or periodically by reflecting the user's avatar's actions or words within the metaverse. It can be.

아바타의 행동을 반영하는 예로서, 아바타가 특정 장소로 이동하는데 뛰어가는지 또는 걸어가는지의 행동에 따라 사용자의 인적성 데이터가 업데이트 될 수 있다. 또는, 아바타가 특정 장소로 이동하는데 특정장소로 직선 경로를 통해 이동하는지 또는 우회 경로를 통해 우회하여 이동하는지의 행동에 따라 사용자의 인적성 데이터가 업데이트 될 수 있다. As an example of reflecting the avatar's behavior, the user's personality data may be updated according to whether the avatar runs or walks to a specific place. Alternatively, the user's personality data may be updated according to whether the avatar moves to a specific place through a straight path or detour through a detour route to the specific place.

아바타의 말을 반영하는 예로서, 아바타가 사용하는 말, 대화 또는 글에서 주긱적 또는 반복적으로 사용되는 단어(주어, 목적어, 부사, 조사, 동사)를 중복성 검사를 통해 추출후 아바타를 사용하는 사용자의 관심분야, 성향을 분석할 수 있다.As an example of reflecting the avatar's speech, a user who uses the avatar after extracting words (subject, object, adverb, particle, verb) used repeatedly or repeatedly from the words, conversations, or texts used by the avatar through redundancy check of interests and tendencies can be analyzed.

멀티모달 행동 패턴 관점에서, 아바타가 사용하는 말, 대화 또는 글과 아바타의 행동(손, 머리, 시선의 움직임)을 함께 고려하여 아바타를 사용하는 사용자의 관심분야, 성향을 분석할 수 있다. 예를 들어, 아바타가 사용하는 특정 단어에서 아바타의 손 또는 머리를 흔들거나 더 활발히 움직이는 경우, 아바타의 시선이 가상 공간내에서 특정 위치 또는 특정한 대상으로 이동하는지, 시선이 멈추는지, 특정 행동의 지속시간등을 고려하여 아바타를 사용하는 사용자의 관심분야, 성향등을 분석할 수 있다.From the multimodal behavioral pattern perspective, it is possible to analyze the interests and tendencies of users who use avatars by considering the words, conversations, or texts used by the avatars and the behaviors of the avatars (movements of hands, head, gaze). For example, if the avatar's hand or head is shaken or moved more actively at a specific word used by the avatar, whether the avatar's gaze moves to a specific location or a specific target in the virtual space, whether the gaze stops, or continues a specific action It is possible to analyze the field of interest and tendency of the user who uses the avatar in consideration of the time and the like.

한편, 사용자의 행동이나 말이 아닌 아바타의 행동이나 말을 이용하여 인적성 데이터를 업데이트 하는 것이므로, 사용자는 본인의 실제 인적성을 알고 싶은 경우 메타버스 내에서 본인이 실제로 행동 또는 말하는 것과 동일하게 행동 또는 말할 수 있다. 반면, 사용자가 원하는 인적성을 갖는 아바타를 생성하기 위해 사용자는 본인이 평소에 행동 또는 말하는 것과 다르게 메타버스 내에서 행동 또는 말할 수 있으며, 이를 반영하여 사용자가 원하는 인적성으로 업데이트 될 수 있다.On the other hand, since the personality data is updated using the actions or words of the avatar, not the actions or words of the user, if the user wants to know his or her actual personality, he or she can act or speak the same as he or she actually acts or speaks within the metaverse. there is. On the other hand, in order to create an avatar with the personality desired by the user, the user may act or speak within the metaverse differently from what he or she normally does or say, and the personality may be updated to reflect this.

분석된 사용자별 데이터 또는 사용자의 아바타를 통해 메타버스 내에서 사용자와 비슷한 인적성을 가진 다른 사용자와 매칭시키거나 사용자와 반대의 인적성을 가진 다른 사용자와 매칭시키는 등의 방법을 통해 커뮤니케이션 서비스를 제공할 수 있다.Communication services can be provided through methods such as matching with other users with similar personalities to users within the metaverse or matching with other users with opposite personalities to users within the metaverse through analyzed user-specific data or user avatars. there is.

또한, 분석된 사용자별 데이터 또는 사용자의 아바타를 통해 기업의 채용과정의 일부로서 인적성 검사를 실시할 수도 있다. 예컨대, 기업에서 업무 환경을 설정하고, 해당 설정에 따라 메타버스를 구성한 뒤 사용자의 아바타가 기업이 설정한 업무 환경에 잘 적응하면서 업무를 수행할 수 있는지 검사할 수 있다. 예를들어, 사용자의 아바타가 근무하는 기업의 업무 환경을 넓은 공간에서 좁은 공간(예: 사람이 북적이는 공간 또는 빛이 안들어오는 공간)으로 업무 공간 설정을 변경한 경우, 사용자의 업무 진척도가 떨어지는지를 검사할 수 있다. 또는, 개발자의 직무를 가진 사용자의 아바타에게 개발부서가 아닌 영업부서로 기업의 소속부서를 변경한 경우, 사용자의 업무 적응 정도를 검사할 수 있다.In addition, a personality test may be conducted as a part of a company's recruitment process through the analyzed user-specific data or the user's avatar. For example, a company can set up a work environment, configure a metaverse according to the settings, and then check whether the user's avatar can perform work while adapting well to the work environment set by the company. For example, if you change the workspace setting of the company where the user's avatar works from a wide space to a narrow space (e.g., a crowded space or a space without light), the user's work progress You can check if it falls. Alternatively, when the company's affiliated department is changed to a sales department rather than a development department for the avatar of a user having a developer job, the degree of adaptation of the user to work may be examined.

또한, 예를 들어, 신규 채용 예정자에 대하여, 신규 채용 예정자의 인적성이 반영된 인공지능화된 아바타가 가상 업무 환경에서 어떻게 활동하는지를 시뮬레이션하여 채용시의 효과를 검증해볼 수 있다. In addition, for example, for a prospective new hire, the effect of hiring may be verified by simulating how an artificially intelligent avatar reflecting the personality of the prospective new hire operates in a virtual work environment.

또한, 예를 들어, 신규 채용 예정자에 대하여, 기업내 부서별로 메타버스에서 신규 채용 예정자의 아바타가 업무를 수행시 인사 고과 차원에서 업무성과를 평가함으로써 채용시의 효과를 검증해볼 수 있다. In addition, for example, for new hires, the effect of hiring can be verified by evaluating the work performance of the new hires in the metaverse for each department in the company in terms of personnel evaluation when the avatar of the new hires performs work.

또한, 예를 들어, 기업내 신규 프로젝트를 수행하기 위한 가상의 팀에 기업내 이미 채용된 인력 또는 신규 채용 예정자의 아바타를 넣어 메타버스 공간에서 신규 프로젝트를 수행해보도록 하여 어떤 시너지 효과가 나는지 프로젝트의 효과를 검증해 볼 수 있다.In addition, for example, by putting the avatars of already hired personnel or new recruits in the company into a virtual team to carry out a new project in the company, and having them carry out the new project in the metaverse space, what kind of synergy effect the project has can be verified.

현실에서 인적성 검사를 받거나 채용과정이 진행되는 경우와 비교하여 사용자가 직접 검사를 받으러 다니지 않아도 되므로 효율적인 인적성 검사 또는 채용과정이 이루어질 수 있고, 따라서 기업의 입장에서 ESG(Environmental, Social and Governance) 경영에 기여할 수 있다.Compared to the case of taking a personality test or hiring process in reality, the user does not have to go to the test in person, so an efficient personality test or recruitment process can be performed, and therefore, from the standpoint of a company, ESG (Environmental, Social and Governance) management can contribute

아바타를 생성할 때 분석된 사용자별 데이터가 반영되지만, 사용자별 데이터 자체를 타인에게 공개할지 여부는 사용자의 선택에 의해 결정될 수 있다.When an avatar is created, the analyzed user-specific data is reflected, but whether to disclose the user-specific data itself to others may be determined by the user's choice.

본 발명의 일 실시예에 따른 인적성 분석 방법은 사용자(즉, 사람)의 인적성을 분석하는 것뿐만 아니라 동물이나 사물의 적성을 분석하는 데 사용될 수도 있다.The personality analysis method according to an embodiment of the present invention may be used not only to analyze the personality of a user (ie, a person) but also to analyze the personality of an animal or object.

전술한 단계 S130, S150, S170 및 S190은 인적성 분석 시스템의 인공지능 엔진에 의해 수행될 수 있으며, 상세한 동작은 도 2 내지 도 6을 참조하여 후술하기로 한다.The aforementioned steps S130, S150, S170 and S190 may be performed by the artificial intelligence engine of the personality analysis system, and detailed operations will be described later with reference to FIGS. 2 to 6.

도 2는 본 발명의 일 실시예에 따른 아바타를 생성하기 위한 전체적인 과정을 개략적으로 도시한다.2 schematically illustrates an overall process for generating an avatar according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 인적성 분석 방법은 메타버스 인적성 솔루션으로서 사용자에게 서비스 될 수 있다. 메타버스 인적성 솔루션은 온라인 기반으로 사용자가 실시간으로 접속하면 인적성 분석 서비스를 제공할 수도 있으며, 온라인 접속이 불가능한 경우에는 기존에 저장된 데이터에 기초하여 오프라인으로 인적성 분석 서비스를 제공할 수도 있다. 추후 오프라인 데이터는 온라인 데이터와 동기화되어 오프라인에서 분석된 결과를 온라인에 반영할 수도 있다.The personality analysis method according to an embodiment of the present invention can be serviced to users as a metaverse personality solution. The metaverse personality solution can provide a personality analysis service if a user accesses it in real time on an online basis, or if online access is not possible, it can provide a personality analysis service offline based on previously stored data. Later, the offline data may be synchronized with the online data to reflect the results analyzed offline.

메타버스는 현실 세계를 복사한 가상 세계일 수 있으며, 현실과 동일하게 작동하는 디지털 트윈일 수도 있다. 또한 현실을 그대로 반영한 것이 아닌 특수한 목적 또는 상상에 의해 만들어진 세계일 수도 있다.The metaverse can be a virtual world copied from the real world, or it can be a digital twin that operates the same as the real world. It may also be a world created for a special purpose or imagination rather than a reflection of reality.

사용자는 HMD(Head Mounted Display) 등의 VR 장비를 통해 메타버스 공간에 접속하거나 스마트폰, PC 등의 애플리케이션 또는 브라우저를 통해 메타버스 공간에 접속하는 등 다양한 방법으로 메타버스 공간에 접속할 수 있다.Users can access the metaverse space in a variety of ways, such as accessing the metaverse space through VR equipment such as HMD (Head Mounted Display), or accessing the metaverse space through applications or browsers such as smartphones and PCs.

도 2에 도시된 바와 같이, 사용자가 메타버스 공간에 접속하여 로그인(Login)하면 아바타 생성을 위한 등록 과정(203)을 진행한다. 등록 과정(203)은 기본 모드(Basic Mode)(210)와 전문가 모드(Expert Mode)(291)로 구성될 수 있으며, 기본 모드(210)는 음성 정보(205) 및/또는 얼굴 정보(207)를 이용하여 간이 인적성 선별에 의해 아바타를 생성하는 것이고, 전문가 모드(291)는 정밀검사로서 스트롱검사, MLST 학습전략검사, MBTI, 에니어그램 성격유형검사, 바이오 정보 분석(뇌파 , DNA) 등 다양한 검사에 의해 인적성을 보다 정밀하게 분석하는 것이다. 전문가 모드는 선택 사항으로서 사용자의 선택에 따라 수행 여부가 결정될 수 있다.As shown in FIG. 2, when a user accesses the metaverse space and logs in, a registration process 203 for creating an avatar is performed. The registration process 203 may consist of a basic mode 210 and an expert mode 291, and the basic mode 210 includes voice information 205 and/or face information 207 Avatar is created by simple personality screening using, and the expert mode (291) is a detailed test, such as strong test, MLST learning strategy test, MBTI, enneagram personality type test, bio information analysis (brain wave, DNA), etc. It is to analyze the personality more precisely by. The expert mode is optional, and whether to perform it can be determined according to the user's choice.

인적성 분석은 인공지능 엔진(200)에 의해 수행될 수 있다.Personality analysis may be performed by the artificial intelligence engine 200 .

기본 모드(210)에서는 음성 정보(205) 및/또는 얼굴 정보(207)를 분석하고(211, 213), 인공지능 프로세스에 의해 인적성을 분석하며(231, 233, 235), 그 결과로서 사용자의 인적성을 추천하고(250), 아바타를 추천한다(270). 구체적인 설명은 후술한다.In the basic mode 210, voice information 205 and/or face information 207 are analyzed (211, 213), personality is analyzed by an artificial intelligence process (231, 233, 235), and as a result, the user's Personality is recommended (250) and an avatar is recommended (270). A detailed description will be given later.

전문가 모드(291)에서는 전문가 인적성 프로세스에 의해 인적성을 분석하거나(293), 실제 인적성 검사를 통해 인적성을 분석하며(295), 그 결과에 따라 인적성을 추천하고(297), 아바타를 추천한다(270). 구체적인 설명은 후술한다.In the expert mode (291), personality is analyzed by an expert personality process (293) or personality is analyzed through an actual personality test (295), and personality is recommended according to the result (297) and an avatar is recommended (270). ). A detailed description will be given later.

즉, 인공지능 엔진(200)은 음성 정보(205) 및/또는 얼굴 정보(207)를 이용하여 사용자의 인적성을 분석한 후 아바타를 추천한다. 사용자는 인공지능 엔진(200)에 의해 추천된 아바타(270)를 그대로 자신의 아바타로 사용할 수도 있고, 커스터마이징 할 수도 있다.That is, the artificial intelligence engine 200 analyzes the user's personality using voice information 205 and/or face information 207 and then recommends an avatar. The user may use the avatar 270 recommended by the artificial intelligence engine 200 as his or her own avatar, or may customize it.

아바타가 생성되면, 사용자는 메타버스 세계에 입장하여 자신의 아바타로 메타버스에서 생활하게 된다.When the avatar is created, the user enters the metaverse world and lives in the metaverse with his/her avatar.

도 3은 본 발명의 일 실시예에 따른 음성 정보를 분석하는 과정을 도시한다.3 illustrates a process of analyzing voice information according to an embodiment of the present invention.

도 3을 참조하면, 먼저, 음성 정보(205)에서 소음을 제거하고(Noise cancel) 정규화한다(Normalize)(211-1). 즉, 취득된 음성 정보(205)에서 사용자의 음성 이외에 나머지 소리를 없애고 음성 구간을 최대 크기로 보정한다.Referring to FIG. 3, first, noise is canceled and normalized from voice information 205 (211-1). That is, other sounds other than the user's voice are removed from the acquired voice information 205 and the voice section is corrected to the maximum level.

다음으로, 음성 정보(205)에 기초하여 시간의 축(timeline)으로 마킹 가능한 음성 데이터(Voice Data)(211-3)를 생성한다. 음성 데이터는 인적성 예측용 입력 데이터로서 전체 음성의 길이를 기준으로 시간의 축으로 마킹 가능한 데이터를 제공할 수 있으며, 음성 정보(205)의 특정 영역의 일부분 또는 음성 정보(205)의 전체 영역일 수 있다. 상기 시간의 축(timeline)상으로 마킹 가능한 음성 데이터(Voice Data)(211-3)는 예를 들어, 사용자가 말을 빠르게 하는 구간인지, 말을 느리게 하는 구간인지, 또는 말을 강조하는 구간인지를 음성 패턴 인식을 통해 구분하는데 사용될 수 있다. 상기 시간의 축(timeline)으로 마킹 가능한 음성 데이터(Voice Data)(211-3)는 어느 시점에 어떤 음성 패턴에 해당되는지를 수작업이 아닌 자동으로 분석되어 마킹될 수 있다. 말을 빠르게 하다가 천천히 말하는 경우를 말을 강조하는 구간으로 판단할 수 있다. 또는 말을 빠르게 하다가 천천히 말하는 경우에도 말을 강조하는 구간이 아닐수 있으므로 사용자의 억양 또는 톤이 올라가는지 여부 또는 사용자의 시선등도 함께 고려하여 사용자가 말을 강조하는 구간인지를 판단할 수 있다.Next, based on the voice information 205, voice data 211-3 that can be marked on a timeline is generated. Voice data is input data for personality prediction, and may provide data that can be marked on the time axis based on the length of the entire voice, and may be a part of a specific region of the voice information 205 or the entire region of the voice information 205. there is. The voice data 211-3 that can be marked on the timeline is, for example, whether the user speaks fast, slows down, or emphasizes speech. It can be used to distinguish through voice pattern recognition. The voice data 211-3 that can be marked on the timeline can be automatically analyzed and marked to determine which voice pattern corresponds to which point in time, rather than manually. The case where the speaker speaks quickly and then speaks slowly can be judged as a section emphasizing speech. Alternatively, even if the user speaks quickly and then speaks slowly, it may not be the section where the user emphasizes the speech, so whether the user's intonation or tone rises or the user's gaze is also considered to determine whether the user emphasizes the speech.

멀티모달 관점에서, 시간의 축(timeline)상의 특정 구간에서, 사용자의 말 뿐만 아니라 사용자의 손 동작 유무, 시선의 위치등과 같은 행동 데이터를 함께 시간의 축(timeline)으로 마킹할 수 있다.From a multimodal point of view, in a specific section on the timeline, not only the user's words but also behavioral data such as whether or not the user's hand has been operated and the position of the gaze can be marked along the timeline.

다음으로, 음성 정보(205)에 기초하여 말하는 속도(voice tempo), 말 중간의 휴지구간(voice idle time), 음색(tone) 및 크기(volume) 중 적어도 하나를 포함하는 음성 스타일(Voice Style)(211-5)을 생성한다. 음성 스타일은 인적성 예측용 입력 데이터 또는 시간의 축으로 마킹한 형태의 인적성 예측용 입력 데이터일 수 있다.Next, based on the voice information 205, a voice style including at least one of a voice tempo, a voice idle time in the middle of speech, a tone, and a volume Generates (211-5). The voice style may be input data for predicting personality or input data for predicting personality in a form marked on the time axis.

도 4는 본 발명의 일 실시예에 따른 음성 정보를 이용하여 인적성을 분석하는 과정을 도시한다.4 illustrates a process of analyzing personality using voice information according to an embodiment of the present invention.

도 4를 참조하면, 인적성의 예측(231-3)은 음성 데이터(211-3) 및 음성 스타일(211-5) 중 적어도 하나에 기초하여 수행될 수 있으며, 머신러닝 (또는 딥러닝) 엔진(231-5)을 통해 인적성을 예측하고(231-3) 실시간으로 학습할 수 있다. 음성 인적성 데이터세트(231-7)는 음성 데이터(211-3)에 따라 인적성이 분류된 데이터 및 음성 스타일에 따라 인적성이 분류된 데이터 중 적어도 하나를 포함한다.Referring to FIG. 4 , personality prediction 231-3 may be performed based on at least one of voice data 211-3 and voice style 211-5, and a machine learning (or deep learning) engine ( 231-5) predicts personality (231-3) and learns in real time. The voice personality dataset 231-7 includes at least one of data whose personality is classified according to the voice data 211-3 and data whose personality is classified according to a voice style.

음성 데이터(211-3)에 기초하여 사용자의 인적성을 예측(231-3)하는 경우, 음성 데이터(211-3)를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 데이터에 의해 학습된 제1 엔진에 의해 사용자의 인적성을 예측할 수 있다(231-3). 예를 들어, 인적성 종류별로 유사도를 측정하고 유사도가 높은 인적성을 사용자에게 추천할 인적성 결과로서 예측할 수 있다. 음성 데이터(211-3)에 기초하여 예측된 사용자의 인적성을 사용자게게 추천(250)하고, 예측된 사용자의 인적성에 상응하는 아바타를 추천한다(270).When the user's personality is predicted (231-3) based on the voice data (211-3), the voice data (211-3) is used as an input and the first engine learned by learning voice data classified by personality type It is possible to predict the user's personality by (231-3). For example, a similarity may be measured for each personality type, and a personality having a high similarity may be predicted as a personality result to be recommended to a user. Based on the voice data 211-3, the predicted personality of the user is recommended to the user (250), and an avatar corresponding to the predicted personality of the user is recommended (270).

음성 스타일(211-5)에 기초하여 사용자의 인적성을 예측(231-3)하는 경우, 판독이 용이한 특정 부분에 대한 음성 스타일(211-5)의 평균치를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 스타일(211-5)에 의해 학습된 제2 엔진에 의해 사용자의 인적성을 예측할 수 있다(231-3). 예를 들어, 인적성 종류별로 유사도를 측정하고 유사도가 높은 인적성을 사용자에게 추천할 인적성 결과로서 예측할 수 있다. 음성 스타일(211-5)에 기초하여 예측된 사용자의 인적성을 사용자게게 추천(250)하고, 예측된 사용자의 인적성에 상응하는 아바타를 추천한다(270).When the user's personality is predicted (231-3) based on the voice style (211-5), the average value of the voice style (211-5) for a specific part that is easy to read is input, and classified by personality type The personality of the user may be predicted by the second engine learned by the learning voice style 211-5 (231-3). For example, a similarity may be measured for each personality type, and a personality having a high similarity may be predicted as a personality result to be recommended to a user. Based on the voice style 211-5, the predicted personality of the user is recommended to the user (250), and an avatar corresponding to the predicted personality of the user is recommended (270).

다른 방식으로서, 음성 스타일(211-5)에 기초하여 사용자의 인적성(231-3)을 예측하는 경우, 일정 시간간격으로 마킹된 음성 스타일(211-5)을 입력으로 하여, 마킹별 데이터 또는 마킹 구간의 연속 패턴 데이터에 의해 학습된 제3 엔진에 의해 상기 사용자의 인적성을 예측할 수 있다(231-3). 예를 들어, 인적성 종류별로 유사도를 측정하고 전체 마킹의 측정값을 통계화하거나 연속 패턴 분류를 사용자에게 추천할 인적성 결과로서 예측할 수 있다. As another method, when the user's personality 231-3 is predicted based on the voice style 211-5, the voice style 211-5 marked at regular time intervals is used as an input, and data for each marking or marking The personality of the user may be predicted by a third engine learned from the continuous pattern data of the interval (231-3). For example, the degree of similarity may be measured for each personality type, the measurement values of all markings may be statisticized, or continuous pattern classification may be predicted as a result of a personality to be recommended to a user.

음성 데이터(211-3) 및 음성 스타일(211-5) 모두에 기초하여 사용자의 인적성을 예측(231-3)하는 경우, 전술한 제1 엔진에 의해 예측한 결과 및 제2 엔진에 의해 예측한 결과를 통계 처리하여 최종적으로 사용자에게 추천할 인적성을 예측하거나, 제1 엔진에 의해 예측한 결과 및 제3 엔진에 의해 예측한 결과를 통계 처리하여 최종적으로 사용자에게 추천할 인적성을 예측할 수 있다.When the user's personality is predicted (231-3) based on both the voice data (211-3) and the voice style (211-5), the predicted result by the first engine and the predicted by the second engine The result may be statistically processed to finally predict the personality to be recommended to the user, or the predicted result by the first engine and the predicted result by the third engine may be statistically processed to predict the final personality to be recommended to the user.

도 5는 본 발명의 일 실시예에 따른 시각 정보를 분석하는 과정을 도시한다.5 illustrates a process of analyzing visual information according to an embodiment of the present invention.

도 5를 참조하면, 먼저, 시각 정보에서 사용자의 얼굴(270)을 인식하고(Face recognition) 사용자의 얼굴(270)을 추출한다(Crop). 시각 정보에 두 사람 이상이 있는 경우 대상자를 제외한 다른 사람은 삭제할 수 있으며, 얼굴이 아닌 부분도 삭제할 수 있다.Referring to FIG. 5 , first, a user's face 270 is recognized from visual information (Face recognition) and the user's face 270 is extracted (Crop). If there are two or more people in the visual information, other people except the subject can be deleted, and parts other than the face can also be deleted.

다음으로, 시각 정보에 기초하여 특정 영상의 한 장면(Still) 또는 특정 영상 전체(Video)로서 시간의 축(timeline)으로 마킹 가능한 얼굴 데이터(Face Data)(213-3)를 생성한다.Next, based on the time information, face data 213-3 that can be marked on a timeline as one scene (Still) of a specific image or the entire specific video (Video) is generated.

다음으로, 시각 정보에 기초하여 얼굴의 모양 및 크기(Face Shape/Size), 눈의 모양 및 위치(Eyes Shape/pts), 코의 모양 및 위치(Nose Shape/pts), 입의 모양 및 위치(Mouth Shape/pts), 귀의 모양 및 위치(Ears Shape/pts), 눈썹의 모양 및 위치(Eyebrows Shape/pts), 표정(Facial Expression), 및 헤어스타일(Hair Shape) 중 적어도 하나를 포함하는 얼굴 스타일(Face Style)(213-5)을 생성한다. 이외에도, 얼굴 스타일은 안경, 피어싱, 수염 등의 별도로 인식한 정보를 더 포함할 수 있다. 얼굴 스타일은 인적성 예측용 입력 데이터 또는 시간의 축으로 마킹한 형태의 인적성 예측용 입력 데이터일 수 있다.Next, based on the visual information, the shape and size of the face (Face Shape / Size), the shape and position of the eyes (Eyes Shape / pts), the shape and position of the nose (Nose Shape / pts), the shape and position of the mouth ( Mouth Shape/pts), ear shape and position (Ears Shape/pts), eyebrow shape and position (Eyebrows Shape/pts), facial expression (Facial Expression), and a facial style including at least one of a hairstyle (Hair Shape). (Face Style) (213-5) is created. In addition, the face style may further include separately recognized information such as glasses, piercings, and beards. The face style may be input data for predicting personality or input data for predicting personality in a form marked on the time axis.

도 6은 본 발명의 일 실시예에 따른 시각 정보를 이용하여 인적성을 분석하는 과정을 도시한다.6 illustrates a process of analyzing personality using visual information according to an embodiment of the present invention.

도 6을 참조하면, 인적성의 예측은 얼굴 데이터(213-3) 및 얼굴 스타일(213-5) 중 적어도 하나에 기초하여 수행될 수 있으며, 머신러닝 (또는 딥러닝) 엔진(233-5)을 통해 인적성을 예측하고 실시간으로 학습할 수 있다(233-3). 얼굴 인적성 데이터세트(233-7)는 얼굴 데이터(213-3)에 따라 인적성이 분류된 데이터 및 음성 스타일(211-5)에 인적성이 분류된 데이터 중 적어도 하나를 포함한다.Referring to FIG. 6 , personality prediction may be performed based on at least one of face data 213-3 and face style 213-5, and a machine learning (or deep learning) engine 233-5 Through this, it is possible to predict personality and learn in real time (233-3). The face personality dataset 233-7 includes at least one of data whose personality is classified according to the face data 213-3 and data whose personality is classified according to the voice style 211-5.

얼굴 데이터(213-3)에 기초하여 사용자의 인적성을 예측(233-3)하는 경우, 얼굴 데이터(213-3)를 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 데이터에 의해 학습된 제4 엔진에 의해 사용자의 인적성을 예측할 수 있으며, 예를 들어, 인적성 종류별로 유사도를 측정하고 유사도가 높은 인적성을 사용자에게 추천할 인적성 결과로서 예측할 수 있다. 얼굴 데이터(213-3)에 기초하여 예측된 사용자의 인적성을 사용자게게 추천(250)하고, 예측된 사용자의 인적성에 상응하는 아바타를 추천한다(270).In the case of predicting the user's personality based on the face data 213-3 (233-3), the fourth engine learned by the face data for learning classified by personality type using the face data 213-3 as an input It is possible to predict the personality of the user, for example, measure the similarity for each personality type, and predict the personality with a high similarity as the personality result to be recommended to the user. Based on the face data 213-3, the predicted personality of the user is recommended to the user (250), and an avatar corresponding to the predicted personality of the user is recommended (270).

얼굴 스타일(213-5)에 기초하여 사용자의 인적성을 예측(233-3)하는 경우, 판독이 용이한 특정 영상의 한 장면의 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제5 엔진에 의해 사용자의 인적성을 예측할 수 있다(233-3). 예를 들어, 인적성 종류별로 유사도를 측정하고 유사도가 높은 인적성을 사용자에게 추천할 인적성 결과로서 예측할 수 있다. 얼굴 스타일(213-5)에 기초하여 예측된 사용자의 인적성을 사용자게게 추천(250)하고, 예측된 사용자의 인적성에 상응하는 아바타를 추천한다(270).When the user's personality is predicted (233-3) based on the face style 213-5, a 2D or 3D face pattern generated based on the face style of a scene of a specific image that is easy to read is input, The user's personality can be predicted by the fifth engine learned from the learning face style classified by personality type (233-3). For example, a similarity may be measured for each personality type, and a personality having a high similarity may be predicted as a personality result to be recommended to a user. Based on the face style 213-5, the predicted personality of the user is recommended (250) to the user, and an avatar corresponding to the predicted personality of the user is recommended (270).

다른 방식으로서, 얼굴 스타일(213-5)에 시초하여 사용자의 인적성을 예측(233-3)하는 경우, 특정 영상의 전체에 대하여 시간별로 마킹된 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제6 엔진에 의해 사용자의 인적성을 예측할 수 있다(233-3). 예를 들어, 마킹별 유사도를 측정하고 최종 통계화하여 사용자에게 추천할 인적성 결과를 예측할 수 있다.As another method, when the user's personality is predicted (233-3) based on the face style (213-5), a 2D or 3D face pattern generated based on the face style marked by time for the entirety of a specific image is As an input, the user's personality can be predicted by the sixth engine learned from the face style for learning classified by personality type (233-3). For example, it is possible to predict a personality result to be recommended to a user by measuring similarity for each marking and making final statistics.

얼굴 데이터(213-3) 및 얼굴 스타일(213-5) 모두에 기초하여 사용자의 인적성을 예측(233-3)하는 경우, 전술한 제4 엔진에 의해 예측한 결과 및 제5 엔진에 의해 예측한 결과를 통계 처리하여 최종적으로 사용자에게 추천할 인적성을 예측하거나, 제4 엔진에 의해 예측한 결과 및 제6 엔진에 의해 예측한 결과를 통계 처리하여 최종적으로 사용자에게 추천할 인적성을 예측할 수 있다.When the user's personality is predicted (233-3) based on both the face data (213-3) and the face style (213-5), the result predicted by the fourth engine and the predicted result by the fifth engine The result may be statistically processed to finally predict the personality to be recommended to the user, or the result predicted by the fourth engine and the predicted result by the sixth engine may be statistically processed to predict the final personality to be recommended to the user.

이상에서 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to the drawings and examples above, it does not mean that the scope of protection of the present invention is limited by the drawings or examples, and those skilled in the art can understand the spirit and spirit of the present invention described in the claims below. It will be understood that the present invention can be variously modified and changed without departing from the scope.

200: 인공지능 엔진200: artificial intelligence engine

Claims (15)

인적성 분석 시스템에서 수행되는 메타버스 및 인공지능에 기반한 인적성 분석 방법은,
사용자의 음성 정보, 시각 정보 및 바이오 정보 중 적어도 하나를 취득하는 단계;
상기 음성 정보, 시각 정보 및 바이오 정보 중 적어도 하나를 이용하여 상기 사용자의 인적성을 분석하는 단계;
상기 사용자의 인적성 분석 결과를 포함하는 사용자별 데이터를 생성하는 단계; 및
상기 사용자별 데이터를 이용하여 상기 사용자의 아바타를 생성하는 단계
를 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
The personality analysis method based on the metaverse and artificial intelligence performed in the personality analysis system,
acquiring at least one of voice information, visual information, and bio information of a user;
analyzing the user's personality using at least one of the voice information, visual information, and bio information;
generating data for each user including a result of personality analysis of the user; and
Generating an avatar of the user using the data for each user
A personality analysis method based on metaverse and artificial intelligence, including a.
제1항에 있어서,
상기 사용자의 인적성을 분석하는 단계는,
상기 음성 정보를 분석하는 단계;
상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계; 및
상기 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계
를 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 1,
Analyzing the user's personality,
analyzing the voice information;
predicting the personality of the user based on an analysis result of the voice information; and
recommending the personality of the user based on the prediction;
A personality analysis method based on metaverse and artificial intelligence, including a.
제2항에 있어서,
상기 음성 정보를 분석하는 단계는,
상기 음성 정보에서 소음을 제거하고 상기 음성 정보를 정규화하는 단계;
상기 음성 정보에 기초하여 시간의 축(timeline)으로 마킹 가능한 음성 데이터를 생성하는 단계; 및
상기 음성 정보에 기초하여 속도(tempo), 휴지구간(idle time), 음색(tone) 및 크기(volume) 중 적어도 하나를 포함하는 음성 스타일을 생성하는 단계
를 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 2,
Analyzing the voice information,
removing noise from the voice information and normalizing the voice information;
generating voice data that can be marked on a timeline based on the voice information; and
Generating a voice style including at least one of a tempo, an idle time, a tone, and a volume based on the voice information
A personality analysis method based on metaverse and artificial intelligence, including a.
제3항에 있어서,
상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 음성 데이터에 기초하여 상기 사용자의 인적성을 예측하되,
상기 음성 데이터를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 데이터에 의해 학습된 제1 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 3,
Predicting the personality of the user based on the analysis result of the voice information,
Predicting the personality of the user based on the voice data,
A personality analysis method based on metaverse and artificial intelligence, which takes the voice data as an input and predicts the personality of the user by a first engine learned by learning voice data classified by personality type.
제3항에 있어서,
상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
판독이 용이한 특정 부분에 대한 상기 음성 스타일의 평균치를 입력으로 하여, 인적성 종류별로 분류된 학습용 음성 스타일에 의해 학습된 제2 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 3,
Predicting the personality of the user based on the analysis result of the voice information,
Predicting the personality of the user based on the voice style,
Based on metaverse and artificial intelligence, predicting the user's personality by the second engine learned by the learning voice style classified by personality type by taking the average value of the voice style for a specific part that is easy to read as input. Personality analysis method.
제3항에 있어서,
상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
일정 시간간격으로 마킹된 상기 음성 스타일을 입력으로 하여, 마킹별 데이터 또는 마킹 구간의 연속 패턴 데이터에 의해 학습된 제3 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 3,
Predicting the personality of the user based on the analysis result of the voice information,
Predicting the personality of the user based on the voice style,
Personality analysis based on metaverse and artificial intelligence, which predicts the user's personality by a third engine learned from the marking-specific data or continuous pattern data of the marking section by taking the voice style marked at regular time intervals as an input method.
제3항에 있어서,
상기 음성 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 음성 데이터 및 상기 음성 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
상기 음성 데이터에 기초하여 예측한 결과 및 상기 음성 스타일에 기초하여 예측한 결과를 통계 처리하여 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 3,
Predicting the personality of the user based on the analysis result of the voice information,
Predicting the personality of the user based on the voice data and the voice style;
A personality analysis method based on metaverse and artificial intelligence, which predicts the personality of the user by statistically processing the predicted result based on the voice data and the predicted result based on the voice style.
제1항에 있어서,
상기 사용자의 인적성을 분석하는 단계는,
상기 시각 정보를 분석하는 단계;
상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계; 및
상기 예측에 기초하여 상기 사용자의 인적성을 추천하는 단계
를 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 1,
Analyzing the user's personality,
analyzing the visual information;
predicting the personality of the user based on an analysis result of the visual information; and
recommending the personality of the user based on the prediction;
A personality analysis method based on metaverse and artificial intelligence, including a.
제8항에 있어서,
상기 시각 정보를 분석하는 단계는,
상기 시각 정보에서 상기 사용자의 얼굴을 인식하고 상기 사용자의 얼굴을 추출하는 단계;
상기 시각 정보에 기초하여 특정 영상의 한 장면 또는 상기 특정 영상 전체로서 시간의 축(timeline)으로 마킹 가능한 얼굴 데이터를 생성하는 단계; 및
상기 시각 정보에 기초하여 얼굴의 모양 및 크기, 눈의 모양 및 위치, 코의 모양 및 위치, 입의 모양 및 위치, 귀의 모양 및 위치, 눈썹의 모양 및 위치, 표정, 및 헤어스타일 중 적어도 하나를 포함하는 얼굴 스타일을 생성하는 단계
를 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 8,
Analyzing the visual information,
Recognizing the user's face from the visual information and extracting the user's face;
generating face data that can be marked on a timeline as one scene of a specific image or the entire specific image based on the visual information; and
Based on the visual information, at least one of the shape and size of the face, the shape and position of the eyes, the shape and position of the nose, the shape and position of the mouth, the shape and position of the ears, the shape and position of the eyebrows, the expression, and the hairstyle Steps to create a face style that includes
A personality analysis method based on metaverse and artificial intelligence, including a.
제9항에 있어서,
상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 얼굴 데이터에 기초하여 상기 사용자의 인적성을 예측하되,
상기 얼굴 데이터를 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 데이터에 의해 학습된 제4 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 9,
Predicting the personality of the user based on the analysis result of the visual information,
Predicting the personality of the user based on the face data,
A personality analysis method based on metaverse and artificial intelligence, which takes the face data as an input and predicts the personality of the user by a fourth engine learned by face data for learning classified by personality type.
제9항에 있어서,
상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
판독이 용이한 상기 특정 영상의 한 장면의 상기 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제5 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 9,
Predicting the personality of the user based on the analysis result of the visual information,
Predicting the personality of the user based on the face style,
Personality of the user by the fifth engine learned by the face style for learning classified by personality type by taking as an input a 2D or 3D face pattern generated based on the face style of a scene of the specific image that is easy to read A personality analysis method based on metaverse and artificial intelligence that predicts
제9항에 있어서,
상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
상기 특정 영상의 전체에 대하여 시간별로 마킹된 상기 얼굴 스타일에 기초하여 생성한 2D 또는 3D 얼굴 패턴을 입력으로 하여, 인적성 종류별로 분류된 학습용 얼굴 스타일에 의해 학습된 제6 엔진에 의해 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 9,
Predicting the personality of the user based on the analysis result of the visual information,
Predicting the personality of the user based on the face style,
Personality of the user by the sixth engine learned by face styles for learning classified by personality types by taking as input a 2D or 3D face pattern generated based on the face style marked by time for the entirety of the specific image A personality analysis method based on metaverse and artificial intelligence that predicts
제9항에 있어서,
상기 시각 정보의 분석 결과에 기초하여 상기 사용자의 인적성을 예측하는 단계는,
상기 얼굴 데이터 및 상기 얼굴 스타일에 기초하여 상기 사용자의 인적성을 예측하되,
상기 얼굴 데이터에 기초하여 예측한 결과 및 상기 얼굴 스타일에 기초하여 예측한 결과를 통계 처리하여 상기 사용자의 인적성을 예측하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 9,
Predicting the personality of the user based on the analysis result of the visual information,
Predicting the personality of the user based on the face data and the face style,
A personality analysis method based on metaverse and artificial intelligence, which predicts the personality of the user by statistically processing the predicted result based on the face data and the predicted result based on the face style.
제1항에 있어서,
메타버스 내에서 상기 생성된 아바타의 행동, 대화, 말 또는 글을 반영하여 상기 사용자의 인적성 분석 결과를 포함하는 사용자별 데이터를 실시간으로 또는 주기적으로 업데이트하는 단계를 더 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 1,
Further comprising the step of updating the user-specific data including the user's personality analysis result in real time or periodically by reflecting the generated avatar's actions, conversations, words or writings in the metaverse, metaverse and artificial intelligence Personality analysis method based on.
제1항에 있어서,
멀티모달 행동 패턴 관점에서, 메타버스 내에서 상기 생성된 아바타가 사용하는 말, 대화 또는 글과 아바타의 행동-상기 행동은 상기 아바타의 손, 머리, 시선의 움직임을 포함함-을 함께 고려하여 상기 아바타를 사용하는 사용자의 관심분야 및 성향 중 적어도 하나를 분석하하는 단계를 더 포함하는, 메타버스 및 인공지능에 기반한 인적성 분석 방법.
According to claim 1,
In terms of multimodal behavioral patterns, words, conversations, or writings used by the created avatar in the metaverse and the behavior of the avatar—the behavior includes the movements of the avatar’s hands, head, and gaze—are considered Personality analysis method based on metaverse and artificial intelligence, further comprising the step of analyzing at least one of the interests and tendencies of the user using the avatar.
KR1020220112115A 2021-11-15 2022-09-05 Method for analyzing personality or aptitude based on metaverse KR20230071053A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211389395.XA CN117679027A (en) 2022-09-05 2022-11-08 Personality analysis method based on meta universe and artificial intelligence
US17/986,712 US20230154093A1 (en) 2021-11-15 2022-11-14 Method for analyzing personality or aptitude based on metaverse and artificial intelligence

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210156521 2021-11-15
KR1020210156521 2021-11-15
KR1020210187245 2021-12-24
KR20210187245 2021-12-24

Publications (1)

Publication Number Publication Date
KR20230071053A true KR20230071053A (en) 2023-05-23

Family

ID=86544638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220112115A KR20230071053A (en) 2021-11-15 2022-09-05 Method for analyzing personality or aptitude based on metaverse

Country Status (1)

Country Link
KR (1) KR20230071053A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108523A (en) 2019-05-13 2019-09-24 윤준호 Server and method for providing feeling analysis based emotional diary service using artificial intelligence based on speech signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190108523A (en) 2019-05-13 2019-09-24 윤준호 Server and method for providing feeling analysis based emotional diary service using artificial intelligence based on speech signal

Similar Documents

Publication Publication Date Title
Vinciarelli et al. A survey of personality computing
Heller Watching androids dream of electric sheep: Immersive technology, biometric psychography, and the law
Carneiro et al. Multimodal behavioral analysis for non-invasive stress detection
US8146005B2 (en) Creating a customized avatar that reflects a user's distinguishable attributes
KR101680995B1 (en) Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals
Yannakakis et al. Modeling players
US20100062403A1 (en) Situated simulation for training, education, and therapy
US11443645B2 (en) Education reward system and method
KR102532908B1 (en) Device, method and program for providing psychological counseling using deep learning and virtual reality
CN111465949A (en) Information processing apparatus, information processing method, and program
CN115951786A (en) Multi-bureau creative social game creation method utilizing AIGC technology
Menshikova et al. Gender differences in interactions with avatars of diverse ethnic appearances
Mears Seeing culture through the eye of the beholder: four methods in pursuit of taste
Gatica-Perez et al. 25 Analysis of Small Groups
KR20230071053A (en) Method for analyzing personality or aptitude based on metaverse
Geslin et al. Bernardo autonomous emotional agents increase perception of VR stimuli
US20230154093A1 (en) Method for analyzing personality or aptitude based on metaverse and artificial intelligence
Lei et al. Emotional expressivity is a reliable signal of surprise
Moreira et al. The relation of attention between player profiles: A study on the eye-tracking and profile brainHex
Porcino et al. A symbolic machine learning approach for cybersickness potential-cause estimation
CN117679027A (en) Personality analysis method based on meta universe and artificial intelligence
Murray et al. Comparing player responses to choice-based interactive narratives using facial expression analysis
Brahnam Study of Artificial Personality from the Perspective of the Observer
Ishii et al. Estimation of empathy skill level and personal traits using gaze behavior and dialogue act during turn-changing
Rae Selvig et al. Non-intrusive Measurement of Player Engagement and Emotions-Real-Time Deep Neural Network Analysis of Facial Expressions During Game Play