KR20000049906A - Making method of avatar to come under substantial user in cyber space and system for the same - Google Patents

Making method of avatar to come under substantial user in cyber space and system for the same Download PDF

Info

Publication number
KR20000049906A
KR20000049906A KR1020000024144A KR20000024144A KR20000049906A KR 20000049906 A KR20000049906 A KR 20000049906A KR 1020000024144 A KR1020000024144 A KR 1020000024144A KR 20000024144 A KR20000024144 A KR 20000024144A KR 20000049906 A KR20000049906 A KR 20000049906A
Authority
KR
South Korea
Prior art keywords
user
face
image
human
virtual
Prior art date
Application number
KR1020000024144A
Other languages
Korean (ko)
Inventor
김성호
조종근
서윤아
Original Assignee
김성호
조종근
서윤아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김성호, 조종근, 서윤아 filed Critical 김성호
Priority to KR1020000024144A priority Critical patent/KR20000049906A/en
Publication of KR20000049906A publication Critical patent/KR20000049906A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

PURPOSE: A method and a system for creating avatar corresponding to real user in cyber space are provided to create a second model mostly adapted to an user for represent the user himself in internet shopping mall. CONSTITUTION: A method for creating avatar corresponding to real user in cyber space comprises: a first step human characters of various humane body profiles; a second step extracting only an image of user's face from an image file; a third step receiving the data of the user's body profile to access to a character of humane characters stored in the first step nearest to the data; a forth step overlapping the image extracted in the second step to the face of a humane character accessed in the third step; and a fifth step matching the image overlapped in the forth step to the face of the third step, thereby creating one avatar.

Description

사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법 및 그 시스템{Making method of avatar to come under substantial user in cyber space and system for the same}Making method of avatar to come under substantial user in cyber space and system for the same}

본 발명은 인터넷상의 가상공간에서 활동하는 가상인간(avatar)의 생성 방식에 관한 것으로 특히, 인터넷 쇼핑몰 등과 같이 특정 사용자를 대표하는 가상인간이 해당 사용자와 실질적으로 동일하게 생성되어 대표성을 갖도록 하기 위한 사이버 공간에서 설질적인 사용자에 대응하는 가상인간 생성 방법 및 그 시스템에 관한 것이다.The present invention relates to a virtual human (avatar) generation method that operates in a virtual space on the Internet, in particular, virtual humans representing a specific user, such as Internet shopping malls are created to be substantially the same as the user cyber to have a representative The present invention relates to a method and system for creating a virtual human being corresponding to a user who is detrimental in space.

일반적으로, 3차원(이하, 3D) 물체 모델을 이용한 응용 기술은 비디오 코딩(video coding) 및 컴퓨터 그래픽(computer graphics) 분야에서 응용되고 있으며, 현재 많은 관심의 대상이 되고있는 인터넷(internet)상에 구축된 가상공간을 환경으로 하여 무한한 발전 가능성을 갖고 있어 그 응용의 폭이 넓다.In general, an application technique using a three-dimensional (3D) object model is applied in the field of video coding and computer graphics, and is currently on the Internet, which is of much interest. The application has a wide range of applications due to the infinite development potential using the constructed virtual space as an environment.

또한, 최근 인터넷을 사용한 전자상거래 즉, 쇼핑몰이 많이 활성화되어감에 따라서 사용자들이 직접 상가에 가지 않고 여러 가지 물건들을 인터넷(internet)상에 구축된 가상공간상에서 구입할 수 있도록 해주는 편리함을 제공해 주고 있기 때문에 전술한 바와 같은 컴퓨터 그래픽을 통해 각종 제품들을 표현하고 포장해서 보여주는 것이 신기함이나 거부감을 느끼지 못할 만큼 친밀해지고 있는 실정이다.In addition, as e-commerce using the Internet, ie shopping malls, has become more active, it provides the convenience of allowing users to purchase various items in a virtual space built on the Internet instead of going directly to the mall. Expressing, packaging and displaying various products through computer graphics as described above is becoming intimate enough to not feel the novelty or rejection.

이때, 기존의 쇼핑몰 상에서 각종 제품들을 표현하는 방식은 실질적인 3D 이미지가 아니라 해당 제품의 2D 이미지를 수 십장 사용하여 사용자가 마우스를 클릭해서 움직이면 사용자가 원하는 방향으로 회전이 되어 마치 3D 이미지인 것 같은 효과를 주어 제품에 대한 소개를 하는 것으로, 아직까지는 컴퓨터 그래픽의 기술적 한계성을 내포하고 있다.At this time, the way of expressing various products on the existing shopping mall is not the actual 3D image, but dozens of 2D images of the corresponding product, when the user clicks and moves the mouse, it rotates in the desired direction and the effect is as if it is a 3D image. It introduces a product by giving a, and it still contains technical limitations of computer graphics.

따라서, 현재까지의 컴퓨터 그래픽 기술로 해당 제품의 기능이나 외관의 선전이 불명확하다고 판단되는 제품에 대해서는 동영상 이미지 데이터를 사용하여 특정 모델이 제품을 사용하고 있는 모습을 보여주는 방법도 활용되고 있다.Therefore, a method of showing a specific model using a product using video image data is also used for a product that is determined to be unclear of the function or appearance of the product by the computer graphic technology.

그러나 이러한 방법은 수없이 많은 제품에 대한 2D 이미지 및 동영상을 필요로 함으로써 수많은 시간과 노동력을 요구하게 한다.However, this method requires a lot of time and labor by requiring 2D images and video of numerous products.

더욱이, 최근에는 멀티미디어의 보급이 확산되면서 대화식 채팅(interactive chatting)이나 전자우편은 물론이고, 여러 가지 프로그램 상에서 개개인을 표현하기 위해 캐리커처와 같은 방법들을 사용하고 있다. 이와 같은 현상은 인터넷으로 인한 가상세계의 확산으로 말미암아 사용자가 가상세계에 자신을 표출하려는 욕구가 증대되었기 때문이다.Moreover, with the proliferation of multimedia in recent years, methods such as caricatures have been used to express individuals in various programs as well as interactive chatting or e-mail. This phenomenon is due to the increase in the desire for users to express themselves in the virtual world due to the spread of the virtual world due to the Internet.

그러나, 현재의 캐리커처나 가상인간은 제대로 된 사용자 자신을 표출하지 못하고 있으며 더욱이 전자상거래에 활용하기에는 아직 부족한 점이 너무나 많다. 그 이유로는 사용자들은 인터넷을 활용한 전자상거래에서 특정 제품을 구입하고자 할 경우 다른 특정 모델을 통해서 제품을 보기 때문에 그 제품이 자기자신에게 적합한 지와, 의복 혹은 신발 및 액세서리와 같이 개인의 취향과 신체 사이즈 혹은 체형에 따라 달라지기 쉬운 제품의 경우 사용자 자신과 잘 어울리는지를 판단할 수 없다.However, the current caricatures or virtual human beings are not able to express themselves properly, and there are still too many shortcomings to use for e-commerce. The reason for this is that when a user wants to purchase a specific product in an e-commerce using the Internet, the user sees the product through another specific model, so that the product is suitable for himself, personal taste and body such as clothing or shoes and accessories. For products that tend to vary in size or body type, it is impossible to determine whether they fit well with the user.

이는 통상적으로 한 인간을 표현하기 위해서는 표현하고자 하는 인간의 얼굴 특징 및 여러 가지 신체 특성 즉, 신체 사이즈들을 제대로 표현해주어야 하는데, 전자상거래에서 사용자는 여러 가지 물건들을 직접 손으로 만져보거나 입어보는 등의 감각을 통한 구입을 할 수 없기 때문에, 현실 세계에서 느낄 수 있는 감각을 제대로 느끼지 못하기 때문이다.In general, in order to express a human, it is necessary to properly express the facial features and various physical characteristics of the human body, that is, the body sizes. In e-commerce, a user may directly touch or wear various objects by hand. Because you can not buy through, you do not feel the sense that you can feel in the real world.

이러한 문제점들을 해소하기 위하여 근래 제안되어진 방식이 "Land's End"라는 회사가 운영하고 있는 인터넷 사이트가 있는데, 첨부한 도 1에 도시되어 있는 바와 같이 사용자로부터 간단한 데이터 즉, 어깨, 허리, 힙, 가슴 등의 크기를 "Large", "Medium", "Small"등으로 구분하여 입력받고, 헤어스타일 및 피부색 그리고 얼굴 모형도 사용자가 원하는 대로 선택할 수 있도록 하였다.In order to solve these problems, there is an Internet site operated by a company called "Land's End". As shown in FIG. 1, simple data from the user, ie, shoulder, waist, hip, chest, etc. The size of the input is divided into "Large", "Medium", "Small", etc., and the hairstyle, skin color and face model can be selected as desired by the user.

그러나, 이러한 선택사항의 다변화에 따른 가상인간의 생성 방식이 종래의 가상인간 생성 방식에 비하여 상당히 진보되기는 하였으나, 모든 개체마다 독특한 생김과 체형을 갖는 사용자 각각에 대한 데이터를 정확하게 입력받을 수 없을 뿐만 아니라 사용자 자신의 얼굴 모델이 아닌 가상의 얼굴 모델이므로 사용자로부터 직관적이고 현실감 있는 비교가 이루어질 수 없다는 문제점을 갖고 있다.However, although the method of generating virtual humans according to the diversification of these options has advanced considerably compared to the conventional method of generating virtual humans, it is not only possible to accurately input data for each user having a unique appearance and body shape for every individual entity. Since it is a virtual face model instead of a user's own face model, there is a problem that an intuitive and realistic comparison cannot be made from the user.

또한 사용자의 얼굴 및 신체 특성은 전혀 고려하지 않고 특정 모델에 특정 제품을 적용해보는 것이 전부여서 사용자는 제품이 자신에게 어떻게 잘 맞는지 혹은 적합한지를 알 수 있는 방법이 없다는 문제점을 내포하고 있다.In addition, it is all about applying a specific product to a specific model without considering the face and body characteristics of the user at all, which implies that the user has no way of knowing how the product fits or fits the user.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 인터넷 쇼핑몰 등과 같이 특정 사용자를 대표하는 가상인간이 해당 사용자와 실질적으로 동일하게 생성되어 대표성을 갖도록 하기 위해 사용자들의 2D 얼굴 이미지를 사용자로부터 직접 입력받아 사용자의 얼굴 이미지를 그대로 살려주고 사용자의 신체 사이즈를 입력받아 입력된 사이즈에 맞는 신체 모델을 생성하여 사용자에게 가장 적합한 제 2의 사용자 자신의 모델을 생성하도록 함으로써 사이버 공간에서 설질적인 사용자에 대응하는 가상인간 생성 방법 및 그 시스템을 제공하는 데 있다.An object of the present invention for solving the above problems is to receive a 2D face image of the user directly from the user in order to have a virtual person representing a specific user, such as an Internet shopping mall is created substantially the same as the corresponding user The virtual image corresponding to the detrimental user in the cyber space by using the user's face image as it is and inputting the user's body size to generate a body model suitable for the input size to generate a second user's own model most suitable for the user. The present invention provides a method and system for producing human.

도 1은 종래 가상인간 형성 방식을 설명하기 위한 예시도,1 is an exemplary view for explaining a conventional virtual human formation method,

도 2는 본 발명에 따른 가상인간 생성 과정의 순서도,2 is a flow chart of a virtual human creation process according to the present invention;

도 3은 본 발명에 따른 얼굴 추출 과정의 순서 예시도,3 is an exemplary flowchart of a face extraction process according to the present invention;

도 4는 본 발명에 따른 얼굴 추출 방식을 설명하기 위한 이미지 데이터 처리예시도,4 is an exemplary view of image data processing for explaining a face extraction method according to the present invention;

도 5는 본 발명에 따른 가상인간 생성 및 활동 무대로 사용되는 사이버 공간의 관리를 위한 웹사이트 서버의 구성 모듈 예시도,5 is an exemplary configuration module of a website server for managing cyber space used as a virtual human creation and activity stage according to the present invention;

도 6은 본 발명에 따른 가상인간의 신체 사이즈 데이터 입력과정의 예시도,6 is an exemplary diagram of a process of inputting body size data of a virtual human according to the present invention;

도 7은 본 발명에 따른 가상인간을 이용한 쇼핑예시도.7 is an exemplary shopping example using virtual humans according to the present invention.

상기 목적을 달성하기 위한 본 발명의 특징은, 다양한 체형의 인간 캐릭터를 저장하는 제 1과정과, 입력되는 임의의 사용자에 대한 이미지 파일에서 해당 사용자 얼굴의 이미지만을 추출하는 제 2과정과, 상기 사용자의 쳬형에 대한 데이터를 입력받아 상기 제 1과정에서 저장하고 있는 인간 캐릭터 중 가장 근접하는 캐릭터를 액세스하는 제 3과정과, 상기 제 3과정에서 액세스되어진 인간 캐릭터의 얼굴부분에 상기 제 2과정을 통해 추출되어진 사용자 얼굴의 이미지를 오버랩 시키는 제 4과정, 및 상기 제 4과정에서 오버랩 되어진 사용자 얼굴의 이미지를 상기 제 3과정에서 액세스되어진 인간 캐릭터의 얼굴부분에 최적의 상태로 매칭시켜 하나의 가상인간을 형성시키는 제 5과정을 포함하는 데 있다.Features of the present invention for achieving the above object, a first process for storing a human character of various body types, a second process for extracting only the image of the user's face from the image file for any user input, and the user A third step of accessing the character closest among the human characters stored in the first step by receiving data on the X-shape of the first shape, and the second part of the face of the human character accessed in the third step; The fourth process of overlapping the extracted image of the user's face, and the image of the user's face overlapped in the fourth process is matched to the face part of the human character accessed in the third process in an optimal state to create a virtual human And a fifth process of forming.

본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에 의해 첨부된 도면을 참조하여 후술되는 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.The above object and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.

우선, 본 발명에서 적용하고자 하는 기술적 사상에 대하여 간략히 살펴보면, 종래 가상인간의 가장 큰 단점이 생성되는 가상인간의 얼굴이 마네킹의 얼굴을 기본 모델로 하고 있다는 것이다. 따라서, 본 발명은 생성된 가상인간의 마네킹 얼굴을 사용자의 실질적인 얼굴을 사용한다면 가상인간이 보다 사용자를 대표할 수 있을 것이라는데 착안한 것이다.First, a brief description of the technical concept to be applied in the present invention, the face of the virtual man, the biggest disadvantage of the conventional virtual man is that the face of the mannequin as a basic model. Accordingly, the present invention is focused on the fact that the virtual human may represent the user more if the virtual mannequin face is used as the actual face of the user.

그러므로, 사용자들이 흔히 소지하고 있는 증명사진에서 얼굴부분만을 추출한 후 입력받은 사용자의 신체 사이즈에 가장 적합한 체형의 가상인간의 얼굴에 추출된 사용자의 실질적인 얼굴을 업그레이드하여 일체의 가상인간을 생성하도록 한다는 것이 본 발명의 목적이다.Therefore, after extracting only the face part from the ID photos that are commonly possessed by the user, the virtual face of the user best suited to the input body size of the user is upgraded to create the virtual face of the user. It is an object of the present invention.

또한, 부가적으로 전술한 개념의 가상인간이 활동할 수 있는 가상공간상의 인터넷 쇼핑몰을 제안한다.In addition, the present invention proposes an internet shopping mall in a virtual space in which a virtual human of the above-described concept can act.

이하, 첨부한 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 살펴보기로 한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

전술한 기술적 개념에서와 같이 일정 쇼핑몰 상에서 본 발명이 적용되는 과정을 첨부한 도 2를 참조하여 살펴보면, 스텝 S100에서 사용자는 자신의 사진을 이미지 파일로 생성(디지털 카메라나 스캐너 등을 이용)한다. 이후, 스텝 S200의 과정을 통해 본 발명에서 제공하는 인터넷 웹사이트에 접속한 후 상기 스텝 S100에서 생성시킨 사진 파일을 업로드함과 동시에 사용자 자신의 신체사이즈를 입력시킨다. 이때, 자신의 체형과 그에 따른 특징들도 입력될 수 있다.Referring to FIG. 2 attached to the process to which the present invention is applied on a certain shopping mall as in the above-described technical concept, in step S100, the user creates his photo as an image file (using a digital camera or a scanner). Thereafter, after accessing the Internet website provided by the present invention through the step S200, the user uploads the photo file generated in the step S100 and inputs the user's own body size. At this time, his or her body type and its features may also be input.

상술한 바와 같이 스텝 S200을 통해 사용자 자신의 사진과 신체사이즈를 입력받은 본 발명에 따른 웹사이트는 스텝 S300을 통해 업로드된 사용자의 사진파일에서 얼굴부분에 대한 이미지만을 추출하며, 동시에 스텝 S400을 통해 입력된 사용자의 신체사이즈에 가장 유사한 모델을 생성하게 된다.As described above, the website according to the present invention receiving the user's own photo and body size through step S200 extracts only the image of the face portion from the user's photo file uploaded through step S300, and simultaneously through step S400. The model most similar to the input body size of the user is generated.

이후, 스텝 S500에서는 상기 스텝 S400의 과정을 통해 생성된 모델의 얼굴부분에 상기 스텝 S300에서 추출된 사용자의 얼굴 이미지를 오버랩 후 일체의 가상인간이 형성하게 된다.Thereafter, in step S500, a virtual human body is formed after overlapping the face image of the user extracted in step S300 on the face portion of the model generated through the process of step S400.

상기 스텝 S500의 과정을 통해 형성된 사용자를 대표하는 가상인간은 스텝S600의 과정을 통해 본 발명에서 제공하는 웹사이트상의 가상공간(예를 들면, 쇼핑몰)상에서 활동하게 된다.The virtual human representing the user formed through the process of step S500 is active in the virtual space (for example, a shopping mall) on the website provided by the present invention through the process of step S600.

상술한 본 발명에 따른 기술적 사상의 흐름에 대하여 세부적으로 살펴보면, 얼굴 이미지의 추출과정은 첨부한 도 3에서 예시적으로 나타내고 있다.Looking at the flow of the technical idea according to the present invention in detail, the extraction process of the face image is shown by way of example in the accompanying FIG.

첨부한 도 3에 도시되어 있는 바와 같이, 증명사진과 같이 일반적으로 흔히 소지하고 있는 사진을 스캐너 등을 통해 이미지 파일을 생성시킨 후에 얼굴의 이미지만 추출하는 일련의 과정에 대한 기술은 국내외에서 상당히 많이 제안되어 있으며, 그중 국내에서 제안되어 있는 논문으로는 『황선규, 이재호, 김형준, 김회율 "색상정보를 이용한 실시간 얼굴 영역 트랙킹 방법", 정보처리학회지 26권, 2호, pp. 368 - 370, 1999년』 을 들 수 있다.As shown in FIG. 3, a description of a series of processes for extracting only an image of a face after generating an image file through a scanner or the like, which is commonly held in general, such as an ID photo, has been performed at home and abroad. Proposed papers among them are 『Sun Hwang Kyu, Jae Ho Lee, Hyung Joon Kim, Hoe Yul Kim] Real-Time Face Tracking Using Color Information”, Journal of Information Processing Society, Vol. 26, No. 2, pp. 368-370, 1999. "

상기 도 3에서 증명사진을 예로든 것은 일반적으로 우리는 사회생활을 하면서 한 두 장의 증명사진은 사용자들이 흔하게 소지하고 있기 때문이며, 주로 사용하는 증명사진의 종류에는 3 x 4cm2, 4 x 5 cm2, 5 x 6 cm2등의 사이즈가 거의 규격화되어 있기 때문이다.In the example of the ID picture in Figure 3 is generally because the social life of one or two pictures of the user is commonly owned by the user, mainly used for the type of ID picture 3 x 4 cm 2 , 4 x 5 cm 2 This is because the sizes of 5 x 6 cm 2 and the like are almost standardized.

따라서, 본 발명에서는 사용자의 얼굴을 생성하기 위해 일반인들이 가장 많이 사용하는 3 x 4cm2의 증명사진을 스캔한 이미지를 사용할 것을 권장하며, 바람직하게는 증명사진을 스캔할 때 얼굴 이미지의 질을 향상시키고 통일시키기 위해서 해상도를 200으로 설정해서 스캔을 하도록 유도한다.Therefore, in the present invention, it is recommended to use an image scanned by a 3 x 4 cm 2 ID photo that is used most by the general public to create a user's face, and preferably improve the quality of the face image when scanning the ID photo. In order to unify and unify, set the resolution to 200 to induce a scan.

전송된 사용자의 얼굴 이미지와 신체 사이즈를 가지고 웹 서버에서는 사용자와 가장 유사한 모델을 실시간으로 생성한다. 그리고 생성한 사용자 모델을 웹에서 보여줌으로써 사용자들로 하여금 실시간의 매력과 자기 자신의 모델을 직접 보면서 느끼는 즐거움을 만끽할 수 있도록 해준다.With the transmitted user's face image and body size, the web server generates the model that is most similar to the user in real time. By showing the created user model on the web, users can enjoy the real-time charm and the pleasure of seeing their own model.

또한, 사용자가 원하는 모델의 자세가 항상 정자세로 서있는 것이 아니라 옆모습이 될 수도 있고 약간 비스듬한 자세가 될 수도 있다. 그러므로 모델의 자세에 따라서 얼굴을 적용시키기 위해 얼굴을 특정 각만큼 회전시킬 수 있는 기능도 추가시킨다.In addition, the posture of the model desired by the user may not always stand in an upright position but may be a side profile or a slightly oblique posture. Therefore, it also adds the ability to rotate the face by a certain angle to adapt the face according to the model's posture.

우선, 상술한 바와 같은 얼굴 이미지 추출과정에서 적용되는 영상 처리 기법을 간략히 살펴보면, 기존의 영상처리 기법에서는 이미지를 처리할 때 원본 이미지의 컬러(Color)를 사용하지 않고, 컬러 이미지를 그레이 스케일(Gray Scale)로 변환시킨 RAW 파일을 많이 사용한다. 그에 반해 일반 그래픽스용 파일 포맷들(BMP, GIF, JPG, TIF 등)은 헤더 정보를 가지고 있고 프로그램 작업 시에 헤더정보를 분석하는 작업이 필요하며 프로그램의 길이가 커지고, 복잡도도 늘어나게 된다.First, the image processing technique applied in the face image extraction process as described above will be briefly described. In the conventional image processing technique, the color image is gray scaled without using the color of the original image when the image is processed. It uses a lot of RAW files converted to Scale. On the other hand, general graphics file formats (BMP, GIF, JPG, TIF, etc.) have header information, and the program needs to analyze the header information, and the program length increases and complexity increases.

반면, RAW 파일 포맷은 헤더 정보가 없으므로 영상처리를 위하여 헤더를 분석할 필요가 없고, 영상 데이터를 직접 처리하므로, 부가적인 코드가 필요하지 않다. 또한 RAW 파일의 단점은 영상의 크기를 개발자가 알고있어야 한다. 다음 그림은 RAW 파일과 BMP 파일을 비교한 것으로서, RAW 파일은 실제 데이터인 사람의 얼굴만 존재하고, BMP 파일은 사람 얼굴의 크기나 색깔, 해상도 등을 기억하는 헤더정보가 존재한다.On the other hand, since the RAW file format does not have header information, there is no need to analyze headers for image processing, and since image data is directly processed, no additional code is required. The disadvantage of RAW files is that developers need to know the size of the video. The following figure compares RAW files and BMP files. RAW files contain only human face data, and BMP files contain header information that stores the size, color, and resolution of a human face.

그러므로 본 발명에서는 칼라 이미지를 RAW 파일로 변환하여 사용하는 기존의 이미지 프로세싱 기법을 적용하지 않고, 칼라 이미지를 그대로 사용하면서 사람의 얼굴을 웹(Web)상에서 사용자가 직접 조작하여 에지(Edge)를 검출할 수 있는 직관적인 방법을 제시한다.Therefore, in the present invention, an edge is detected by a user directly manipulating a human face on a web while using a color image without applying a conventional image processing technique that converts and uses a color image to a RAW file. Here's an intuitive way to do it.

일반적으로 칼라 이미지에서 에지를 검출하는 방법은 개발자가 에지를 어떻게 정의하느냐에 달려 있다. 즉, 이미지 밝기의 불연속인 것을 에지라고 정의하는 것이 그 중의 하나이다.In general, how edges are detected in color images depends on how the developer defines them. That is, one of them is to define an edge as a discontinuity of image brightness.

이때, 에지 검출은 HSI(Hue, Saturation, Intensity) 공간에서의 컬러 이미지의 밝기 채널에 대하여 이루어진다. 또 다른 에지의 정의는 적색, 녹색, 청색 채널에서 밝기의 불연속이 존재하는 경우에는 에지가 존재한다고 주장한다. 그래서 에지의 검출은 다음의 수학식 1과 같이 정의될 수 있다.In this case, edge detection is performed on the brightness channel of the color image in the HSI (Hue, Saturation, Intensity) space. Another definition of edges is that edges exist when there is a discontinuity in brightness in the red, green, and blue channels. Thus, detection of an edge can be defined as in Equation 1 below.

즉, 칼라 이미지에서 에지를 검출하기 위해서는 RGB값을 이용하여 그레이 스케일(Gray Scale) 이미지로 변환한 다음 밝기 값을 가지고 비교하는 것이 종래 방식이라면, 본 발명에서는 다음의 수학식 2에서와 같이 RGB를 그대로 적용하여 에지를 검출한다.That is, in order to detect an edge in a color image, if the conventional method is to convert the image to a gray scale image using an RGB value and then compare the image with a brightness value, in the present invention, RGB is expressed as in Equation 2 below. The edge is detected as it is.

C(x, y) = [ Rt(x, y) - Rs(x, y) ] / Rt(x, y) > TrC (x, y) = [R t (x, y)-R s (x, y)] / R t (x, y)> T r &

[ Gt(x, y) - Gs(x, y) ] / Gt(x, y) > Tg[G t (x, y)-G s (x, y)] / G t (x, y)> T g &

[ Bt(x, y) - Bs(x, y) ] / Bt(x, y) > Tb [B t (x, y)-B s (x, y)] / B t (x, y)> T b

여기서 Rt(x, y)는 비교할 픽셀(Pixel)의 Red값, Rs(x, y)는 원래 픽셀의 Red값을 의미한다. 그리고 Tt은 비교할 픽셀의 공차(Tolerance)를 의미한다.Here, R t (x, y) means the red value of the pixel to be compared, and R s (x, y) means the red value of the original pixel. And T t means the tolerance of the pixels to be compared.

이하, 첨부한 도 5를 참조하여 본 발명에서 제공하는 웹서버의 구성을 살펴보기로 한다.Hereinafter, a configuration of a web server provided by the present invention will be described with reference to FIG. 5.

도 5에 도시되어 있는 웹서버는 소프트웨어적인 모듈들의 연결구성이며, 상당히 다양한 구조로 변경가능하기 때문에 그 연결 구성에 주안점을 두지 않으며 그로 인해 참조번호를 부여하지 않고, 각 모듈의 기능적인 특성에 주안점을 두어 살펴보기로 한다.The web server shown in FIG. 5 is a connection configuration of software modules, and since it can be changed into a wide variety of structures, it does not focus on the connection configuration and therefore does not give a reference number, and focuses on the functional characteristics of each module. Let's take a look at this.

우선, "Apache Web Server"로 지칭되는 부분의 기능을 살펴보면, 게시판, 방명록, 로그인,... 등등의 웹사이트의 홈페이지 기능을 수행하며 전체 스테이지(State)를 관장하고, 화면의 초기상태를 설정한다. 또한, 링크 되어있는 각 구성요소인 모듈들의 유일한 게이트로서 D/B에 접근할 수 있는 유일한 부분(개인 ID로 LOGIN시 접근)가능하도록 하는 부분이다.First, look at the function of the part called "Apache Web Server". It performs the homepage functions of websites such as bulletin boards, guest books, logins, etc., manages the entire state, and sets the initial state of the screen. do. Also, it is the only gate of each linked component, which is the only part that can access the D / B (accessible at LOGIN with personal ID).

또한, 상기 D/B에 저장되어 있는 데이터는 캐릭터(Character)의 설정, 의상, 및 증명사진에서 추출된 사용자의 얼굴 이미지 등이 저장되며, 사용자가 입력한 신체사이즈(가슴, 허리, 힙, 키)의 데이터를 CODI(Coordination) 엔진(Engine)에게 전달하는 기능을 수행한다. 이때, 사용자 등록을 한 사용자만 신체사이즈의 조절로 자기의 몸매와 비슷한 캐릭터를 읽어올 수 있으며, 그렇지 않은 사용자는 디폴트(default)로 설정되어진 캐릭터를 읽어오게 된다.In addition, the data stored in the D / B stores the user's face image extracted from the character (Character), the costume, and the ID photo, the body size (chest, waist, hip, height input by the user) ) Data is delivered to the Codination (CODI) Engine. At this time, only a user who has registered as a user can read a character similar to his or her body by adjusting a body size, and a user who does not read a character set as a default.

이상으로 "Apache Web Server"로 지칭되는 부분의 기능을 살펴보았는데, "남/여 모델과 옷 D/B"라는 부분의 기능은 남/여 모델과 의상 D/B를 저장하고 있으며, 사용자의 요구(신체 사이즈의 입력)에 의해서 모델과 의상을 상기 CODI 엔진으로 로딩(Loading)하는 기능을 수행한다.In the above, we looked at the function of the part called "Apache Web Server". The function of the "M / W model and clothes D / B" stores the male / female model and the clothes D / B. A function of loading a model and clothes into the CODI engine by (enter body size).

상기 "CODI 엔진(Engine)"이란 부분의 기능은 사용자가 입력한 신체사이즈(가슴, 허리, 힙, 키)에 해당하는 캐릭터에 실질적으로 사용자의 얼굴과 의상들을 입혀볼 수 있으며, 상기 "남/여 모델 및 의상 D/B"에서 불러온 캐릭터와 이미지 프로세싱 서버(Image Processing Server)에서 처리된 얼굴을 합성하는 부분이다. 즉, 이미지 프로세싱 서버에서 처리된 얼굴이미지를 움직여서 캐릭터의 몸에 최적의 상태로 매칭시키는 기능을 갖는다.The function of the "CODI Engine" portion of the user's body size (chest, waist, hips, height) can actually wear the user's face and clothes on the character corresponding to the size, the "Men / This is the part that synthesizes the characters imported from the model and costume D / B "and the processed faces from the Image Processing Server. That is, it has a function of matching the optimal state to the character's body by moving the face image processed in the image processing server.

또한, "남/여 모델 및 의상 D/B"에서 불러온 캐릭터와 이미지 프로세싱 서버에서 처리된 얼굴이미지의 피부색이 동일하지 않은 경우 피부색 매칭작업을 통해 피부색을 비슷하게 유지시켜주는데, 화면의 아래 부분에 스크롤 바(Scroll Bar)를 만들어서 사용자가 상기 스크롤 바를 이동시킬 때마다 색상을 선택할 수 있게 하되 백인종, 흑인종, 황인종 등으로 구분하여 이미지 프로세싱 서버에서 처리된 얼굴이미지의 피부색과 같은 색을 사용자가 선택하도록 하는 것이다.In addition, if the skin color of the character loaded from "M / fe model and costume D / B" and the face image processed by the image processing server are not the same, the skin color matching operation keeps the skin color similar. Create a scroll bar to allow the user to choose a color each time the user moves the scroll bar, but it can be divided into whites, blacks, yellows, etc. so that the user can select a color such as the skin color of the face image processed by the image processing server. It is.

상술한 각 기능들의 유기적인 조합에 의해 사용자와 가장 적합한 가상인간이 형성되어 지는데, 사용자는 도 7에 도시되어 있는 바와 같이 자기 자신의 모델에게 의상을 비롯하여 각종 제품들을 적용시켜 봄으로써 자신에게 가장 적합하고 잘 어울리는 제품들을 실시간으로 가장 빠르게 선택할 수 있다.The organic combination of the functions described above forms the most suitable virtual human with the user. As shown in FIG. 7, the user is most suitable for himself by applying various products including clothes to his own model. You can quickly and quickly select the right products in real time.

이때, 도 6에는 사용자가 자신의 신체사이즈를 입력시키는 과정을 나타내는 것으로 얼굴이미지는 추출된 상태에서 마네킹의 얼굴부분에 단순히 사용자의 추출된 얼굴이 오버랩 되어 있는 상태를 나타내는 것이다.In this case, FIG. 6 shows a process in which the user inputs his / her body size. The face image simply shows a state in which the extracted face of the user overlaps the face portion of the mannequin in the extracted state.

이것은 마치 백화점이나 옷가게에서 여러 가지 의복을 직접 입어보고 거울을 보면서 자신에게 잘 맞는지를 생각해보는 것과 크게 다를 것이 없다고 생각된다.It's as if you're wearing a variety of clothing at a department store or clothing store and looking at the mirror to see if it fits you well.

이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도내에서 다양한 개조 및 변화가 가능하다는 것을 당 업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.While the invention has been shown and described in connection with specific embodiments thereof, it is well known in the art that various modifications and changes can be made without departing from the spirit and scope of the invention as indicated by the claims. Anyone who owns it can easily find out.

이상 설명한 바와 같이 본 발명에 따르면, 사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법 및 그에 따른 시스템을 제공하면, 사용자 자신의 증명사진에서 배경을 제외한 머리 및 얼굴 부분만 추출해낸 2D 얼굴 이미지를 그대로 적용하고 사용자가 입력한 신체 사이즈 등에 가장 적합한 아바타를 생성하는 것으로서, 의상을 전문적으로 취급하는 인터넷 쇼핑몰에서 가장 크게 필요할 것이다. 또한 이로 인해서 연계되는 제품으로서는 사용자가 자신의 신체에 어울리는 각종 의상들을 착용시켜 개인은 물론 애인과 함께 혹은 다수의 아바타를 사용하여 가족사진을 찍은 듯한 효과의 이미지를 표현해 낼 수 있으며, 달력 및 패션 명함을 제작할 수도 있다. 또한 각종 포스터에 주인공으로 등장을 시킬 수도 있으며 창작 포스터도 제작할 수 있다. 그리고 최근 젊은 청소년 등에서 큰 인기가 있는 채팅에도 적용할 수 있다.As described above, according to the present invention, if a virtual human generation method corresponding to a real user and a system according to the present invention are provided, the 2D face image extracted from only the head and face except the background from the user's ID photo is extracted as it is. It is the most necessary in an internet shopping mall that specializes in clothing, as it generates avatars that are most suitable for the user's body size and the like. In addition, as a linked product, the user can wear various costumes suitable for his or her body to express an image of the effect of taking a family picture with an individual as well as a lover or using a plurality of avatars. You can also make. In addition, various posters can be featured as main characters, and creative posters can be produced. And it can also be applied to chat, which is very popular among young teenagers.

Claims (5)

다양한 체형의 인간 캐릭터를 저장하는 제 1과정과;A first process of storing human characters of various body types; 입력되는 임의의 사용자에 대한 이미지 파일에서 해당 사용자 얼굴의 이미지만을 추출하는 제 2과정과;Extracting only an image of a corresponding face of a user from an image file of an input user; 상기 사용자의 체형에 대한 데이터를 입력받아 상기 제 1과정에서 저장하고 있는 인간 캐릭터 중 가장 근접하는 캐릭터를 액세스하는 제 3과정과;A third step of receiving data on the user's body type and accessing a character closest to the human character stored in the first step; 상기 제 3과정에서 액세스되어진 인간 캐릭터의 얼굴부분에 상기 제 2과정을 통해 추출되어진 사용자 얼굴의 이미지를 오버랩 시키는 제 4과정; 및A fourth step of overlapping the image of the user's face extracted through the second step on the face part of the human character accessed in the third step; And 상기 제 4과정에서 오버랩 되어진 사용자 얼굴의 이미지를 상기 제 3과정에서 액세스되어진 인간 캐릭터의 얼굴부분에 최적의 상태로 매칭시켜 하나의 가상인간을 형성시키는 제 5과정을 포함하는 것을 특징으로 하는 사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법.And a fifth process of matching an image of the face of the user overlapped in the fourth process to an optimal state with the face part of the human character accessed in the third process to form a virtual human. The virtual human generation method corresponding to the actual user in the. 제 1항에 있어서,The method of claim 1, 상기 제 2과정에서 사용자에 대한 이미지 파일에서 해당 사용자 얼굴의 이미지만을 추출하기 위해 아래의 수학식에서와 같이 RGB를 그대로 적용하여 에지를 검출하되,In the second process, in order to extract only the image of the user's face from the image file for the user, edge is detected by applying RGB as it is, C(x, y) = [ Rt(x, y) - Rs(x, y) ] / Rt(x, y) > TrC (x, y) = [R t (x, y)-R s (x, y)] / R t (x, y)> T r & [ Gt(x, y) - Gs(x, y) ] / Gt(x, y) > Tg[G t (x, y)-G s (x, y)] / G t (x, y)> T g & [ Bt(x, y) - Bs(x, y) ] / Bt(x, y) > Tb [B t (x, y)-B s (x, y)] / B t (x, y)> T b 단, Rt(x, y)는 비교할 픽셀(Pixel)의 Red값, Rs(x, y)는 원래 픽셀의 Red값을 의미한다. 그리고 Tt은 비교할 픽셀의 공차(Tolerance)를 의미하며,However, R t (x, y) means the red value of the pixel to be compared, and R s (x, y) means the red value of the original pixel. And T t is the tolerance of the pixels to be compared. 적색, 녹색, 청색 채널에서 밝기의 불연속이 존재하는 경우에는 에지가 존재하는 것을 특징으로 하는 사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법.When there is a discontinuity of brightness in the red, green, and blue channels, the edge is present in the virtual space creation method corresponding to the actual user in the cyber space. 제 1 항에 있어서,The method of claim 1, 상기 제 2과정과 제 3과정을 통해 사용자의 이미지 파일과 체형의 데이터를 입력받는 것은 인터넷을 통한 온라인상태에서 입력되도록 하는 것을 특징으로 하는 사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법.And receiving data of the user's image file and body shape through the second process and the third process to be input in an online state through the Internet. 인터넷 접속을 통해 입력되는 임의의 사용자에 대한 이미지 파일과 그에 대응하는 체형의 데이터가 입력되면, 이미지 파일에서 해당 사용자 얼굴의 이미지만을 추출하고, 기 저장되어 있는 다양한 체형의 인간 캐릭터 중 입력된 체형에 최적상태인 캐릭터의 얼굴부분에 추출되어진 사용자 얼굴의 이미지를 오버랩 시켜 사용자와 실질적으로 근접한 가상인간을 형성시킨 후 형성된 가상인간으로 하여금 인터넷 전자상거래 쇼핑몰의 가상공간상에서 상거래 활동을 위한 주체로 활용하는 사이버 공간에서 실질적인 사용자에 대응하는 가상인간 생성 방법.When an image file of an arbitrary user inputted through an internet connection and data of a corresponding body type are inputted, only an image of the user's face is extracted from the image file, and the inputted body type is selected from among various pre-stored human characters. A cyber person using virtual humans formed by overlapping the image of the user's face extracted from the face part of the character in the optimal state and forming virtual humans in close proximity to the user as a subject for commerce activities in the virtual space of the Internet e-commerce shopping mall. A virtual human creation method corresponding to a real user in space. 웹사이트의 홈페이지 기능을 수행하며 전체 스테이지를 관장하고, 화면의 초기상태를 설정하고 링크되어 있는 각 구성요소인 모듈들의 유일한 게이트로서 D/B에 접근할 수 있는 웹서버와;A web server that performs a homepage function of a website, manages an entire stage, sets an initial state of a screen, and accesses a D / B as a unique gate of modules which are linked components; 남/여 모델과 의상에 관한 데이터를 저장하고 있으며, 사용자의 신체 사이즈의 입력에 의해서 해당 모델과 의상을 출력하는 데이터 베이스;A database storing data on male and female models and clothes, and outputting the corresponding models and clothes by inputting a user's body size; 사용자가 입력한 신체사이즈(가슴, 허리, 힙, 키)에 해당하는 캐릭터에 실질적으로 사용자의 얼굴과 의상들을 입혀볼 수 있으며, 상기 데이터 베이스에서 불러온 캐릭터와 이미지 프로세싱 서버에서 처리된 얼굴을 합성하는 정합 엔진을 포함하는 것을 특징으로 하는 사이버 공간에서 실질적인 사용자에 대응하는 가싱인간 생성 시스템.The user's face and clothes can be put on the character corresponding to the body size (chest, waist, hip, height) input by the user, and the characters loaded from the database and the face processed by the image processing server are synthesized. Gasing human generation system corresponding to the actual user in the cyber space, characterized in that it comprises a matching engine.
KR1020000024144A 2000-05-04 2000-05-04 Making method of avatar to come under substantial user in cyber space and system for the same KR20000049906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000024144A KR20000049906A (en) 2000-05-04 2000-05-04 Making method of avatar to come under substantial user in cyber space and system for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000024144A KR20000049906A (en) 2000-05-04 2000-05-04 Making method of avatar to come under substantial user in cyber space and system for the same

Publications (1)

Publication Number Publication Date
KR20000049906A true KR20000049906A (en) 2000-08-05

Family

ID=19668095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000024144A KR20000049906A (en) 2000-05-04 2000-05-04 Making method of avatar to come under substantial user in cyber space and system for the same

Country Status (1)

Country Link
KR (1) KR20000049906A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010110586A (en) * 2000-06-07 2001-12-13 정성훈 Method for Registration of Internet Site Through Uploading User's Image Data
KR20020022747A (en) * 2002-03-07 2002-03-27 신경호 Charic-abata
KR20030039211A (en) * 2001-11-12 2003-05-17 이스타뱅크(주) A system having function of synthesizing user's image with an animation object
KR100422470B1 (en) * 2001-02-15 2004-03-11 비쥬텍쓰리디(주) Method and apparatus for replacing a model face of moving image
KR100454440B1 (en) * 2001-08-22 2004-10-28 김지신 System and method of making 3D body model
KR102044008B1 (en) 2019-05-07 2019-11-12 옥철식 System for identity authentication and management in the virtual reality world
KR20200025291A (en) 2018-08-30 2020-03-10 홍은비 A shopping service procedure and shopping service system using personal community device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010110586A (en) * 2000-06-07 2001-12-13 정성훈 Method for Registration of Internet Site Through Uploading User's Image Data
KR100422470B1 (en) * 2001-02-15 2004-03-11 비쥬텍쓰리디(주) Method and apparatus for replacing a model face of moving image
KR100454440B1 (en) * 2001-08-22 2004-10-28 김지신 System and method of making 3D body model
KR20030039211A (en) * 2001-11-12 2003-05-17 이스타뱅크(주) A system having function of synthesizing user's image with an animation object
KR20020022747A (en) * 2002-03-07 2002-03-27 신경호 Charic-abata
KR20200025291A (en) 2018-08-30 2020-03-10 홍은비 A shopping service procedure and shopping service system using personal community device
KR102044008B1 (en) 2019-05-07 2019-11-12 옥철식 System for identity authentication and management in the virtual reality world

Similar Documents

Publication Publication Date Title
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
US10013713B2 (en) Computer implemented methods and systems for generating virtual body models for garment fit visualisation
US9959453B2 (en) Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
US20050253840A1 (en) Method and system for interactive three-dimensional item display
WO2013120851A1 (en) Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
Loker et al. Dress in the third dimension: Online interactivity and its new horizons
US20160267576A1 (en) System and Method for Controlling and Sharing Online Images of Merchandise
CN116762102A (en) Detection of unreal virtual objects
US11854069B2 (en) Personalized try-on ads
US9373188B2 (en) Techniques for providing content animation
US20240096040A1 (en) Real-time upper-body garment exchange
CN117337443A (en) Customized virtual store
KR20000049906A (en) Making method of avatar to come under substantial user in cyber space and system for the same
Brownridge et al. Body scanning for avatar production and animation
Alemany et al. Data management and processing of 3D body scans
EP4275147A1 (en) Producing a digital image representation of a body
KR100385896B1 (en) Method and Apparatus for Providing and Using of 3 Dimensional Image Which Represents the User in Cyber-Space
KR20010110586A (en) Method for Registration of Internet Site Through Uploading User's Image Data
Xu et al. Augmented reality fashion show using personalized 3D human models
US20220237857A1 (en) Producing a digital image representation of a body
KR20230060985A (en) Extended reality-based live commerce system incorporating virtual influencers
Wang A Framework for Realistic Clothed Avatar Reconstruction and Animation
CN113902524A (en) Intelligent virtual fit method, device, equipment and storage medium
KR20240056545A (en) Custom mesh deformation based on body mesh
Liu et al. An Interactive AR-Based Virtual Try-on System Using Personalized Avatars: Augmented Walking and Social Fitme

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application