KR101312771B1 - Apparatus and method for video chatting using avatar - Google Patents
Apparatus and method for video chatting using avatar Download PDFInfo
- Publication number
- KR101312771B1 KR101312771B1 KR1020110134728A KR20110134728A KR101312771B1 KR 101312771 B1 KR101312771 B1 KR 101312771B1 KR 1020110134728 A KR1020110134728 A KR 1020110134728A KR 20110134728 A KR20110134728 A KR 20110134728A KR 101312771 B1 KR101312771 B1 KR 101312771B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- avatar
- users
- emotion
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 64
- 230000008451 emotion Effects 0.000 claims description 55
- 230000008921 facial expression Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G06Q50/50—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/744—Displaying an avatar, e.g. an animated cartoon character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
Abstract
본 발명은 아바타를 사용하여 영상 채팅 하는 장치 및 방법이 개시된다.
영상 채팅 장치는 가상 공간에 영상 채팅에 참가한 사용자들의 아바타를 생성하는 아바타 생성부; 사용자들의 단말기로부터 사용자들의 동작 정보와 대화 정보를 수신하는 정보 수신부; 및 사용자들의 동작 정보에 따라 사용자들의 아바타의 동작을 제어하는 아바타 제어부를 포함할 수 있다.The present invention discloses an apparatus and method for video chatting using avatars.
The video chat device includes an avatar generator configured to generate avatars of users who have participated in a video chat in a virtual space; An information receiver configured to receive operation information and conversation information of the users from the terminals of the users; And an avatar controller for controlling the operation of the avatars of the users according to the operation information of the users.
Description
본 발명은 영상 채팅 장치 및 방법에 관한 것으로, 보다 상세하게는 채팅 중에 사용자들의 얼굴을 공개하지 않고도 아바타를 사용하여 사용자들의 감정을 다른 사용자들에게 실시간으로 알릴 수 있는 영상 채팅 장치 및 방법에 관한 것이다. The present invention relates to a video chat device and method, and more particularly, to a video chat device and method that can notify users of emotions in real time by using an avatar without revealing their faces during a chat. .
최근 들어 영상 통화 중에 채팅 기능을 추가함으로써, 채팅 하는 상대방의 얼굴을 보면서 채팅을 수행할 수 있는 영상 채팅 방법이 개발되고 있다.Recently, by adding a chat function during a video call, a video chat method capable of chatting while looking at a face of a chatting party has been developed.
한국공개특허 제10-2010-0020726호(공개일 2010년 02월 23일)에는 영상 통화에 키워드를 인식하여 영상에 컨텐츠를 합성함으로써, 사용자간 영상 채팅을 제공하는 기술이 개시되어 있다. 그러나, 종래의 기술은 채팅 하는 상대방의 얼굴을 보고 있으므로, 상대방의 감정 변화를 감지할 수는 있으나, 낯을 가리는 사람은 다른 사람의 얼굴을 보면서 대화나 채팅 하는 것에 부담을 가질 수 있었다. Korean Patent Publication No. 10-2010-0020726 (published February 23, 2010) discloses a technology for providing a video chat between users by recognizing a keyword in a video call and synthesizing the content into a video. However, the conventional technology is to look at the face of the other party to chat, it is possible to detect a change in the other party's feelings, but the stranger may have a burden to talk or chat while looking at the other person's face.
따라서, 상대방의 얼굴을 보지 않고도 상대방의 감정 변화를 감지할 수 있는 채팅 방법이 요청되고 있다.Accordingly, there is a demand for a chat method capable of detecting a change in the emotion of the other party without looking at the other party's face.
본 발명은 채팅 중에 사용자들의 얼굴을 공개하지 않고도 사용자들의 감정을 다른 사용자들에게 실시간으로 알릴 수 있는 장치 및 방법을 제공한다. The present invention provides an apparatus and method for informing other users of their emotions in real time without revealing their faces during a chat.
본 발명의 일실시예에 따른 영상 채팅 장치는 가상 공간에 영상 채팅에 참가한 사용자들의 아바타를 생성하는 아바타 생성부; 사용자들의 단말기로부터 사용자들의 동작 정보와 대화 정보를 수신하는 정보 수신부; 및 사용자들의 동작 정보에 따라 사용자들의 아바타의 동작을 제어하는 아바타 제어부를 포함할 수 있다.In accordance with another aspect of the present invention, a video chat device includes: an avatar generator configured to generate avatars of users participating in a video chat in a virtual space; An information receiver configured to receive operation information and conversation information of the users from the terminals of the users; And an avatar controller for controlling the operation of the avatars of the users according to the operation information of the users.
본 발명의 일실시예에 따른 영상 채팅 장치의 아바타 제어부는 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 아바타의 동작을 제어할 수 있다.The avatar controller of the video chat device according to an embodiment of the present invention may determine the emotions of the users by using the motion information of the users, and control the operation of the avatar to display the determined emotions of the users.
본 발명의 일실시예에 따른 사용자 단말기는 제1 사용자를 촬영하여 실시간 영상을 생성하는 촬영부; 실시간 영상에 포함된 제1 사용자의 동작을 식별하여 사용자의 동작 정보를 생성하는 동작 정보 생성부; 동작 정보와 제1 사용자로부터 수신한 대화 정보를 영상 채팅 장치로 전송하는 정보 전송부를 포함할 수 있다.A user terminal according to an embodiment of the present invention includes a photographing unit for photographing the first user to generate a real-time image; A motion information generator for identifying a motion of the first user included in the real-time video and generating motion information of the user; It may include an information transmitter for transmitting the operation information and the conversation information received from the first user to the video chat device.
본 발명의 일실시예에 따른 영상 채팅 방법은 가상 공간에 영상 채팅에 참가한 사용자들의 아바타를 생성하는 단계; 사용자들의 단말기로부터 상기 사용자들의 동작 정보와 대화 정보를 수신하는 단계; 및 상기 사용자들의 동작 정보에 따라 사용자들의 아바타의 동작을 제어하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a video chat method includes: generating avatars of users who participated in a video chat in a virtual space; Receiving operation information and conversation information of the users from terminals of users; And controlling the operation of avatars of the users according to the operation information of the users.
본 발명의 일실시예에 의하면, 사용자들에게 가상 공간에 아바타를 사용한 채팅을 제공하면서, 사용자의 감정에 따라 아바타가 감정 표현을 하도록 함으로써, 채팅 중에 사용자들의 얼굴을 공개하지 않고도 사용자들의 실제 감정을 다른 사용자들에게 실시간으로 알릴 수 있다.According to an embodiment of the present invention, while providing a chat using the avatar in the virtual space to the user, the avatar to express the emotion according to the user's emotion, thereby realizing the user's actual emotion without having to reveal the user's face during the chat You can notify other users in real time.
도 1은 본 발명의 일실시예에 따른 영상 채팅 장치와 다른 장치 간의 관계를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 영상 채팅 장치를 도시한 블록 다이어그램이다.
도 3은 본 발명의 일실시예에 따른 사용자 단말기를 도시한 블록 다이어그램이다.
도 4는 본 발명의 일실시예에 따른 영상 채팅 방법을 도시한 플로우차트이다.1 is a view showing a relationship between a video chat device and another device according to an embodiment of the present invention.
2 is a block diagram illustrating a video chat device according to an embodiment of the present invention.
3 is a block diagram illustrating a user terminal according to an embodiment of the present invention.
4 is a flowchart illustrating a video chat method according to an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 영상 채팅 방법은 영상 채팅 장치에 의해 수행될 수 있다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The video chat method according to an embodiment of the present invention may be performed by a video chat device.
도 1은 본 발명의 일실시예에 따른 영상 채팅 장치와 다른 장치 간의 관계를 나타내는 도면이다. 1 is a view showing a relationship between a video chat device and another device according to an embodiment of the present invention.
본 발명의 일실시예에 따른 영상 채팅 장치(100)는 제1 사용자 단말기(110)와 제2 사용자 단말기(120) 간에 영상 채팅을 제공할 수 있다.The
이때, 영상 채팅 장치(100)는 도 1에 도시된 바와 같이 가상 공간(130)을 생성하고, 가상 공간(130)에 각각 제1 사용자(111)의 제1 아바타(112)와 제2 사용자(121)의 제2 아바타(122)를 생성함으로써, 제1 사용자(111)와 제2 사용자(121)가 아바타를 사용한 영상 채팅을 하도록 할 수 있다.In this case, the
이때, 영상 채팅 장치(100)는 제1 사용자 단말기(110)와 제2 사용자 단말기(120)를 사용하여 제1 사용자(111)와 제2 사용자(121)의 표정이나 움직임을 판단하고, 판단 결과에 따라 제1 아바타(112)와 제2 아바타(122)의 동작을 제어할 수 있다. At this time, the
예를 들어 제1 사용자(111)가 웃는 경우, 영상 채팅 장치(100)는 제1 사용자의 표정이나 손 움직임, 상체 움직임과 같은 동작 정보를 기초로 사용자가 웃고 있다는 것을 판단하고, 제1 아바타(112)가 웃는 동작을 취하도록 제어할 수 있다. 이때, 제1 아바타(112)의 웃는 동작을 본 제2 사용자(121)는 제1 사용자(111)가 웃고 있다는 것을 인식할 수 있다.For example, when the
또한, 제2 사용자(121)가 화를 내는 경우, 영상 채팅 장치(100)는 제2 사용자의 표정이나 손 움직임, 상체 움직임과 같은 동작 정보를 기초로 사용자가 화를 내고 있다는 것을 판단하고, 제2 아바타(122)가 화를 내는 동작을 취하도록 제어할 수 있다. 이때, 제2 아바타(122)의 화를 내는 동작을 본 제1 사용자(111)는 제2 사용자(121)가 화를 내고 있다는 것을 인식할 수 있다.In addition, when the
즉, 영상 채팅 장치(100)는 사용자들에게 가상 공간(130)에 아바타를 사용한 채팅을 제공하면서, 사용자의 감정에 따라 아바타가 감정 표현을 하도록 함으로써, 채팅 중에 사용자들의 얼굴을 공개하지 않고도 사용자들의 실제 감정을 다른 사용자들에게 실시간으로 알릴 수 있다.That is, the
또한, 도 1은 제1 사용자(111)와 제2 사용자(121) 간의 1 대 1 영상 채팅을 하는 경우의 구성이지만, 영상 채팅 장치(100)는 복수의 사용자들의 아바타들을 동일한 가상 공간(130)에 생성함으로써, 다 대다 영상 채팅을 수행할 수도 있다.In addition, although FIG. 1 illustrates a case where one-to-one video chat is performed between the
도 2는 본 발명의 일실시예에 따른 영상 채팅 장치(100)를 도시한 블록 다이어그램이다. 2 is a block diagram illustrating a
도 2을 참고하면, 본 발명의 일실시예에 따른 영상 채팅 장치(100)는 아바타 생성부(210)와 정보 수신부(220), 아바타 제어부(230) 및 대화 표시부(240)를 포함할 수 있다. Referring to FIG. 2, the
아바타 생성부(210)는 사용자들이 영상 채팅을 요청하는 경우, 가상 공간에 영상 채팅에 참가한 사용자들의 아바타를 생성할 수 있다. 이때, 아바타 생성부(210)는 영상 채팅을 요청한 사용자의 설정에 따라 가상 공간을 생성할 수 있다. 또한, 아바타 생성부(210)는 사용자가 전에 아바타를 생성한 경우, 기 생성된 사용자의 아바타를 가상 세계에 배치할 수 있다.When the users request a video chat, the
정보 수신부(220)는 사용자들의 단말기로부터 영상 채팅을 요청한 사용자들의 동작 정보와 대화 정보를 수신할 수 있다.The
이때, 사용자들의 동작 정보는, 사용자들의 단말기가 사용자를 촬영한 실시간 영상으로 사용자들의 동작을 식별하여 생성한 정보일 수 있다. 예를 들어 상기 사용자들의 동작 정보는 사용자의 표정 정보와, 사용자의 손 움직임 정보, 사용자의 상체 움직임 정보 및 사용자의 전신 움직임 정보 중 적어도 하나를 포함할 수 있다.In this case, the motion information of the users may be information generated by identifying the motions of the users by real-time images of the terminals of the users. For example, the motion information of the users may include at least one of facial expression information of the user, hand motion information of the user, upper body motion information of the user, and full body motion information of the user.
아바타 제어부(230)는 정보 수신부(220)가 수신한 사용자들의 동작 정보에 따라 아바타 생성부(210)가 생성한 사용자들의 아바타의 동작을 제어할 수 있다.The
이때, 아바타 제어부(230)는 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 아바타의 동작을 제어할 수 있다. 이때, 아바타 제어부(230)는 사용자의 표정이나 동작에 따른 사용자의 감정에 대한 정보를 사용하여 사용자의 감정을 판단할 수 있다. 예를 들어, 사용자의 감정에 대한 정보는 웃는 얼굴은 웃음이라는 감정과 매칭되고, 흥분한 얼굴이나 주변 물체를 때리는 행동은 화남이라는 감정과 매칭된 정보일 수 있다.In this case, the
이때, 사용자의 감정 표현은 사용자마다 다를 수 있으므로, 아바타 제어부(230)는 사용자 별로 사용자의 감정에 대한 정보를 생성할 수 있다. 이때, 아바타 제어부(230)는 사용자 단말기를 사용하여 사용자를 식별하고, 식별 결과에 따른 사용자의 감정에 대한 정보를 사용하여 사용자의 감정을 판단할 수 있다.In this case, since the emotion expression of the user may be different for each user, the
대화 표시부(240)는 사용자들로부터 수신한 대화 정보를 사용자들의 아바타와 연계하여 표시할 수 있다.The
예를 들어 대화 표시부(240)는 사용자로부터 수신한 대화 정보를 사용자의 아바타에 말 풍선 형태로 표시함으로써, 어떤 사용자가 어떤 대화를 한 것인지 모든 사용자들이 확인하기 쉽도록 할 수 있다.For example, the
도 3은 본 발명의 일실시예에 따른 사용자 단말기(300)를 도시한 블록 다이어그램이다. 3 is a block diagram illustrating a
본 발명의 일실시예에 따른 사용자 단말기(300)는 도 1에 도시된 제1 사용자 단말기(110)나 제2 사용자 단말기(120)일 수 있고, 영상 채팅 장치(100)에 접속한 다른 사용자의 사용자 단말기일 수 있다.The
또한, 도 3을 참고하면, 본 발명의 일실시예에 따른 사용자 단말기(300)는 촬영부(310), 동작 정보 생성부(320), 정보 전송부(330), 및 영상 채팅부(340)를 포함할 수 있다. In addition, referring to FIG. 3, the
촬영부(310)는 사용자가 영상 채팅을 요청하는 경우, 사용자를 촬영하여 실시간 영상을 생성할 수 있다.When the user requests a video chat, the photographing
동작 정보 생성부(320)는 촬영부(310)가 생성한 실시간 영상에 포함된 사용자의 동작을 식별하여 사용자의 동작 정보를 생성할 수 있다.The
이때, 동작 정보 생성부(320)는 실시간 영상에 색상 모형을 사용하여 피부색을 가진 사용자의 신체를 식별하고, 시간의 경과에 따른 사용자의 신체 변화에 따라 사용자의 동작을 식별할 수도 있다. In this case, the
구체적으로, 동작 정보 생성부(320)는 사용자의 신체에서 머리 부분을 식별하고, 머리 부분의 음영과 색상에 따라 코와 같은 사용자 얼굴의 윤곽을 식별할 수 있다. 다음으로, 동장 정보 생성부(320)는 사용자 얼굴의 윤곽 변화의 형태에 따라 사용자의 얼굴 표정을 식별하여 동작 정보 중 표정 정보를 생성할 수 있다. 예를 들어, 동작 정보 생성부(320)는 사용자의 얼굴에서 입이 좌우로 늘어나면서 입꼬리가 위로 움직이거나, 눈끝이 밑으로 쳐지는 경우, 사용자가 웃는 표정이라는 표정 정보를 생성할 수 있다. 다른 예로, 동작 정보 생성부(320)는 사용자의 눈 끝에서 액체가 흘러내리는 것을 감지한 경우, 사용자가 우는 표정이라는 표정 정보를 생성할 수 있다. 그리고, 동작 정보 생성부(320)는 사용자의 눈썹이 찌푸려지는 것을 감지한 경우, 사용자가 화난 얼굴이라는 표정 정보를 생성할 수 있다.In detail, the
또한, 동작 정보 생성부(320)는 실시간 영상 중 1프레임에서 사용자의 신체 중 일부가 위쪽을 향하고 있고, 2프레임에서 사용자의 신체 중 위쪽을 향하던 부위가 식별되지 않은 경우, 사용자가 해당 부위를 아래로 내린 것으로 판단할 수 있다. 이때, 동작 정보 생성부(320)는 해당 부위가 손가락인지 팔인지, 다리인지에 따라 사용자가 신체의 일부를 위에서 아래로 이동하였다는 사용자의 손 움직임 정보, 사용자의 상체 움직임 정보 및 사용자의 전신 움직임 정보 중 하나를 생성할 수 있다. In addition, if a part of the user's body is facing upward in one frame of the real-time image, and the part facing the upper part of the user's body is not identified in the second frame, the
정보 전송부(330)는 동작 정보 생성부(320)가 생성한 동작 정보와 사용자로부터 수신한 대화 정보를 영상 채팅 장치(100)로 전송할 수 있다.The
이때, 정보 전송부(330)는 영상 채팅 장치(100)로부터 영상 채팅이 수행되는 가상 공간 정보와 채팅에 참가한 다른 사용자의 아바타 정보 및 다른 사용자가 입력한 대화 정보를 수신할 수 있다. 이때, 다른 사용자의 아바타 정보는 다른 사용자의 아바타 외형 정보와, 다른 사용자의 동작 정보에 따른 아바타의 동작 정보를 포함할 수 있다.In this case, the
영상 채팅부(340)는 가상 공간 정보에 따른 가상 공간과 아바타 정보에 따른 아바타를 표시하고, 사용자로부터 수신한 대화 정보와 다른 사용자가 입력한 대화 정보를 사용하여 영상 채팅을 수행할 수 있다.The
즉, 본 발명에 따른 사용자 단말기(300)는 사용자를 실시간으로 촬영하여 사용자의 동작을 식별하고, 식별한 사용자의 동작에 대한 정보를 영상 채팅 장치(100)로 전송함으로써, 영상 채팅 장치(100)가 사용자의 감정을 판단하도록 할 수 있다. 또한, 영상 채팅 장치(100)로부터 수신한 정보를 사용하여 다른 사용자의 아바타들을 표시함으로써, 사용자가 다른 사용자들의 감정을 느끼도록 할 수 있다. That is, the
도 4는 본 발명의 일실시예에 따른 영상 채팅 방법을 도시한 플로우차트이다.4 is a flowchart illustrating a video chat method according to an embodiment of the present invention.
단계(S410)에서 사용자 단말기(300)의 정보 전송부(330)는 영상 채팅 장치(100)에 영상 채팅 요청 신호를 전송할 수 있다.In operation S410, the
단계(S420)에서 영상 채팅 장치(100)의 아바타 생성부(210)는 단계(S410)에서 수신한 영상 채팅 요청 신호에 따라 채팅을 위한 가상 공간을 생성하고, 생성한 가상 공간에 영상 채팅 요청 신호를 전송한 사용자의 아바타를 생성할 수 있다. In operation S420, the
단계(S430)에서 사용자 단말기(300)의 촬영부(310)는 사용자를 촬영하여 실시간 영상을 생성할 수 있다. 이때, 단계(S430)는 단계(S420)과 순서 상관 없이 별도로 수행될 수 있다.In operation S430, the photographing
단계(S440)에서 사용자 단말기(300)의 동작 정보 생성부(320)는 단계(S430)에서 생성한 실시간 영상에 포함된 사용자의 동작을 식별하여 사용자의 동작 정보를 생성할 수 있다.In operation S440, the operation
단계(S450)에서 사용자 단말기(300)의 정보 전송부(330)는 단계(S440)에서 생성한 동작 정보와 사용자로부터 수신한 대화 정보를 영상 채팅 장치(100)로 전송할 수 있다. 이때, 단계(S430) 내지 단계(S450)는 영상 채팅이 수행되는 동안 실시간으로 반복 수행될 수 있다.In operation S450, the
단계(S460)에서 영상 채팅 장치(100)의 정보 수신부(220)는 단계(S450)에서 전송한 사용자들의 동작 정보와 대화 정보를 수신하고, 영상 채팅 장치(100)의 아바타 제어부(230)는 정보 수신부(220)가 수신한 사용자들의 동작 정보에 따라 아바타 생성부(210)가 생성한 사용자들의 아바타의 동작을 제어할 수 있다.In operation S460, the
이때, 아바타 제어부(230)는 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 아바타의 동작을 제어할 수 있다. In this case, the
단계(S470)에서 영상 채팅 장치(100)의 대화 표시부(240)는 단계(S460)에서 수신한 대화 정보를 사용자들의 아바타와 연계하여 표시할 수 있다.In operation S470, the
단계(S480)에서 영상 채팅 장치(100)의 정보 수신부(220)는 단계(S420)에서 생성한 가상 공간에 대한 가상 공간 정보와 아바타에 대한 아바타 정보와 단계(S460)에서 제어된 아바타의 동작 정보 및 단계(S470)에서 표시된 대화 정보를 사용자 단말기(300)로 전송할 수 있다. In operation S 480, the
단계(S490)에서 사용자 단말기(300)의 영상 채팅부(340)는 단계(S480)에서 수신한 정보에 따라 가상 공간과 아바타를 표시하고, 사용자로부터 수신한 대화 정보와 다른 사용자가 입력한 대화 정보를 사용하여 영상 채팅을 수행할 수 있다.In operation S490, the
본 발명은 사용자들에게 가상 공간에 아바타를 사용한 채팅을 제공하면서, 사용자의 감정에 따라 아바타가 감정 표현을 하도록 함으로써, 채팅 중에 사용자들의 얼굴을 공개하지 않고도 사용자들의 실제 감정을 다른 사용자들에게 실시간으로 알릴 수 있다.The present invention provides the users with a chat using the avatar in a virtual space, while allowing the avatar to express emotions according to the user's emotions, thereby realizing the user's actual emotions to other users in real time without revealing their faces during the chat. You can inform.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
100: 영상 채팅 장치
110: 제1 사용자 단말기
111: 제1 사용자
112: 제1 사용자 아바타
120: 제2 사용자 단말기
121: 제2 사용자
122: 제2 사용자 아바타100: video chat device
110: first user terminal
111: first user
112: first user avatar
120: second user terminal
121: second user
122: second user avatar
Claims (17)
사용자들의 단말기로부터 사용자들의 동작 정보와 대화 정보를 수신하는 정보 수신부;
사용자들의 동작 정보에 따라 사용자들의 아바타의 동작을 제어하는 아바타 제어부; 및
상기 사용자들의 대화 정보를 사용자들의 아바타와 연계하여 말풍선의 형태로 표시하는 대화 표시부
를 포함하고,
상기 아바타 제어부는
사용자 별로 사용자의 감정에 대한 정보를 생성하며, 상기 사용자의 감정에 대한 정보와 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 아바타의 동작을 제어하며,
상기 사용자의 감정에 대한 정보는,
특정 감정을 느낀 사용자가 감정을 표현하는 동작과 관련된 정보인 것을 특징으로 하는 영상 채팅 장치.An avatar generator configured to generate avatars of users who have participated in a video chat in a virtual space;
An information receiver configured to receive operation information and conversation information of the users from the terminals of the users;
An avatar control unit controlling an operation of the avatars of the users according to the operation information of the users; And
A conversation display unit for displaying the conversation information of the users in the form of speech bubbles in association with the avatars of the users.
Lt; / RTI >
The avatar controller
It generates information on the emotion of the user for each user, by using the information on the user's emotions and the user's motion information to determine the user's emotions, and controls the operation of the avatar to display the determined user's emotions,
Information about the emotion of the user,
The video chat device, characterized in that the information related to the operation of expressing the emotions of the user feeling a certain emotion.
상기 사용자들의 동작 정보는,
사용자들의 단말기가 사용자를 촬영한 실시간 영상으로 사용자들의 동작을 식별하여 생성한 정보인 것을 특징으로 하는 영상 채팅 장치.The method of claim 1,
The operation information of the users,
The video chatting device, characterized in that the information generated by identifying the user's motion in the real-time video photographed by the user terminal.
상기 사용자들의 동작 정보는,
사용자의 표정 정보와, 사용자의 손 움직임 정보, 사용자의 상체 움직임 정보 및 사용자의 전신 움직임 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 채팅 장치.The method of claim 1,
The operation information of the users,
And at least one of facial expression information of the user, hand motion information of the user, upper body motion information of the user, and full body motion information of the user.
실시간 영상에 포함된 제1 사용자의 동작을 식별하여 사용자의 동작 정보를 생성하는 동작 정보 생성부;
동작 정보와 제1 사용자로부터 수신한 대화 정보를 영상 채팅 장치로 전송하고, 상기 영상 채팅 장치로부터 채팅에 참가한 제2 사용자의 아바타 외형 정보와, 제2 사용자의 동작 정보에 따른 아바타의 동작 정보 및 제2 사용자가 입력한 대화 정보를 수신하는 정보 전송부; 및
제2 사용자의 아바타 외형 정보에 따른 아바타를 표시하고, 상기 아바타의 동작 정보에 따라 표시한 아바타의 동작을 제어하며, 제1 사용자로부터 수신한 대화 정보와 제2 사용자가 입력한 대화 정보를 사용하여 영상 채팅을 수행하는 영상 채팅부
를 포함하고,
상기 영상 채팅부는,
제1 사용자로부터 수신한 대화 정보를 제1 사용자의 아바타와 연계하여 말풍선의 형태로 표시하며,
상기 영상 채팅 장치는,
사용자 별로 사용자의 감정에 대한 정보를 생성하며, 상기 사용자의 감정에 대한 정보와 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 상기 아바타의 동작 정보를 생성하며,
상기 사용자의 감정에 대한 정보는,
특정 감정을 느낀 사용자가 감정을 표현하는 동작과 관련된 정보인 것을 특징으로 하는 사용자 단말기.A photographing unit which photographs the first user and generates a real-time image;
A motion information generator for identifying a motion of the first user included in the real-time video and generating motion information of the user;
Transmits the motion information and the conversation information received from the first user to the video chat device, the avatar appearance information of the second user who participated in the chat from the video chat device, the motion information and the avatar motion information according to the motion information of the second user; An information transmitter configured to receive conversation information input by the user; And
Displaying the avatar according to the avatar appearance information of the second user, controlling the operation of the displayed avatar according to the operation information of the avatar, and using the conversation information received from the first user and the conversation information input by the second user. Video chat unit that performs a video chat
Lt; / RTI >
The video chat unit,
The conversation information received from the first user is displayed in the form of a speech bubble in association with the avatar of the first user.
The video chat device,
The user generates information on the emotion of the user for each user, and determines the emotion of the user by using the information on the emotion of the user and the motion information of the user, and generates motion information of the avatar to display the determined emotion of the user. ,
Information about the emotion of the user,
The user terminal, characterized in that the information related to the operation of expressing the emotion of the user feeling a certain emotion.
가상 공간에 영상 채팅에 참가한 사용자들의 아바타를 생성하는 단계;
사용자들의 단말기로부터 상기 사용자들의 동작 정보와 대화 정보를 수신하는 단계;
상기 사용자의 감정에 대한 정보와 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하는 단계;
판단한 사용자의 감정을 표시할 수 있도록 아바타의 동작을 제어하는 단계; 및
상기 사용자들의 대화 정보를 사용자들의 아바타와 연계하여 말풍선의 형태로 표시하는 단계
를 포함하고,
상기 사용자의 감정에 대한 정보는,
특정 감정을 느낀 사용자가 감정을 표현하는 동작과 관련된 정보인 것을 특징으로 하는 영상 채팅 방법.Generating information about the emotion of the user for each user
Generating avatars of users participating in the video chat in the virtual space;
Receiving operation information and conversation information of the users from terminals of users;
Determining the emotions of the users using the information on the emotions of the user and the motion information of the users;
Controlling an operation of the avatar to display the determined emotion of the user; And
Displaying the conversation information of the users in the form of speech bubbles in association with the avatars of the users
Lt; / RTI >
Information about the emotion of the user,
The video chat method, characterized in that the information related to the operation of expressing the emotions of the user feeling a certain emotion.
상기 사용자들의 동작 정보는,
상기 사용자들의 단말기가 사용자를 촬영한 실시간 영상으로 사용자들의 동작을 식별하여 생성한 정보인 것을 특징으로 하는 영상 채팅 방법.The method of claim 10,
The operation information of the users,
The video chat method, characterized in that the terminal of the user is generated by identifying the user's motion in the real-time video photographing the user.
상기 사용자들의 동작 정보는,
사용자의 표정 정보와, 사용자의 손 움직임 정보, 사용자의 상체 움직임 정보 및 사용자의 전신 움직임 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 채팅 방법.The method of claim 10,
The operation information of the users,
And at least one of facial expression information of the user, hand motion information of the user, upper body motion information of the user, and full body motion information of the user.
실시간 영상에 포함된 제1 사용자의 동작을 식별하여 사용자의 동작 정보를 생성하는 단계;
동작 정보와 제1 사용자로부터 수신한 대화 정보를 영상 채팅 장치로 전송하는 단계
상기 영상 채팅 장치로부터 채팅에 참가한 제2 사용자의 아바타 외형 정보와, 제2 사용자의 동작 정보에 따른 아바타의 동작 정보 및 제2 사용자가 입력한 대화 정보를 수신하는 단계;
제2 사용자의 아바타 외형 정보에 따른 아바타를 표시하고, 상기 아바타의 동작 정보에 따라 표시한 아바타의 동작을 제어하며, 제1 사용자로부터 수신한 대화 정보와 제2 사용자가 입력한 대화 정보를 사용하여 영상 채팅을 수행하는 단계
를 포함하고,
상기 영상 채팅을 수행하는 단계는,
제1 사용자로부터 수신한 대화 정보를 제1 사용자의 아바타와 연계하여 말풍선의 형태로 표시하며,
상기 영상 채팅 장치는,
사용자 별로 사용자의 감정에 대한 정보를 생성하며, 상기 사용자의 감정에 대한 정보와 사용자들의 동작 정보를 사용하여 사용자들의 감정을 판단하고, 판단한 사용자의 감정을 표시할 수 있도록 상기 아바타의 동작 정보를 생성하며,
상기 사용자의 감정에 대한 정보는,
특정 감정을 느낀 사용자가 감정을 표현하는 동작과 관련된 정보인 것을 특징으로 하는 사용자 단말기 수행 방법.
Photographing the user to generate a real-time image;
Generating motion information of the user by identifying the motion of the first user included in the real-time image;
Transmitting the motion information and the conversation information received from the first user to the video chat device.
Receiving avatar appearance information of a second user who has participated in a chat from the video chat device, operation information of the avatar according to operation information of the second user, and conversation information input by the second user;
Displaying the avatar according to the avatar appearance information of the second user, controlling the operation of the displayed avatar according to the operation information of the avatar, and using the conversation information received from the first user and the conversation information input by the second user. Steps to perform a video chat
Lt; / RTI >
Performing the video chat,
The conversation information received from the first user is displayed in the form of a speech bubble in association with the avatar of the first user.
The video chat device,
The user generates information on the emotion of the user for each user, and determines the emotion of the user by using the information on the emotion of the user and the motion information of the user, and generates motion information of the avatar to display the determined emotion of the user. ,
Information about the emotion of the user,
Method for performing a user terminal, characterized in that the information related to the operation of expressing the emotion by the user feeling a certain emotion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134728A KR101312771B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for video chatting using avatar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110134728A KR101312771B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for video chatting using avatar |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130082693A KR20130082693A (en) | 2013-07-22 |
KR101312771B1 true KR101312771B1 (en) | 2013-09-27 |
Family
ID=48993889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110134728A KR101312771B1 (en) | 2011-12-14 | 2011-12-14 | Apparatus and method for video chatting using avatar |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101312771B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101655159B1 (en) * | 2015-02-04 | 2016-09-22 | 한국기술교육대학교 산학협력단 | System and method for realizing 3-dimensional avatar of user |
US10284503B2 (en) | 2015-09-25 | 2019-05-07 | Lg Electronics Inc. | Mobile terminal and control method thereof |
KR20200019486A (en) | 2018-08-14 | 2020-02-24 | 삼성전자주식회사 | Electronic apparatus, contorl method thereof and electronic system |
KR102101311B1 (en) * | 2019-09-11 | 2020-04-16 | 이동환 | Method and apparatus for providing virtual reality including virtual pet |
CN112364971A (en) * | 2020-11-06 | 2021-02-12 | 联想(北京)有限公司 | Session control method and device and electronic equipment |
KR102476830B1 (en) * | 2022-02-03 | 2022-12-12 | 한예은 | System for synthesizing of immersive video based metaverse |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110012491A (en) * | 2009-07-30 | 2011-02-09 | 에스케이텔레콤 주식회사 | System, management server, terminal and method for transmitting of message using image data and avatar |
KR20110018026A (en) * | 2009-08-17 | 2011-02-23 | 에스케이텔레콤 주식회사 | System and method for delivering feeling during video call |
KR20110025720A (en) * | 2009-09-05 | 2011-03-11 | 에스케이텔레콤 주식회사 | Method for video call based on an avatar and system, apparatus thereof |
KR20110025718A (en) * | 2009-09-05 | 2011-03-11 | 에스케이텔레콤 주식회사 | Method for video call and system thereof |
-
2011
- 2011-12-14 KR KR1020110134728A patent/KR101312771B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110012491A (en) * | 2009-07-30 | 2011-02-09 | 에스케이텔레콤 주식회사 | System, management server, terminal and method for transmitting of message using image data and avatar |
KR20110018026A (en) * | 2009-08-17 | 2011-02-23 | 에스케이텔레콤 주식회사 | System and method for delivering feeling during video call |
KR20110025720A (en) * | 2009-09-05 | 2011-03-11 | 에스케이텔레콤 주식회사 | Method for video call based on an avatar and system, apparatus thereof |
KR20110025718A (en) * | 2009-09-05 | 2011-03-11 | 에스케이텔레콤 주식회사 | Method for video call and system thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20130082693A (en) | 2013-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101312771B1 (en) | Apparatus and method for video chatting using avatar | |
US11887234B2 (en) | Avatar display device, avatar generating device, and program | |
WO2013027893A1 (en) | Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
CN110418095B (en) | Virtual scene processing method and device, electronic equipment and storage medium | |
JP7070435B2 (en) | Information processing equipment, information processing methods, and programs | |
CN110555507B (en) | Interaction method and device for virtual robot, electronic equipment and storage medium | |
CN111580652B (en) | Video playing control method and device, augmented reality equipment and storage medium | |
US20160006772A1 (en) | Information-processing device, communication system, storage medium, and communication method | |
CN111583355B (en) | Face image generation method and device, electronic equipment and readable storage medium | |
JP2022121451A (en) | Program, information processing apparatus, information processing system, and information processing method | |
US20220398816A1 (en) | Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements | |
CN111460785A (en) | Interactive object driving method, device, equipment and storage medium | |
CN109150690B (en) | Interactive data processing method and device, computer equipment and storage medium | |
WO2019155735A1 (en) | Information processing device, information processing method, and program | |
WO2018158852A1 (en) | Telephone call system and communication system | |
JP6563580B1 (en) | Communication system and program | |
CN109039851B (en) | Interactive data processing method and device, computer equipment and storage medium | |
US11212488B2 (en) | Conference system | |
CN107070784A (en) | A kind of 3D instant communicating systems based on WebGL and VR technologies | |
CN110413109A (en) | Generation method, device, system, electronic equipment and the storage medium of virtual content | |
JP2009032056A (en) | Communication system | |
JP2019036239A (en) | Information processing method, information processing program, information processing system, and information processing device | |
JP7041484B2 (en) | Programs, information processing devices, information processing systems, and information processing methods | |
CN113050791A (en) | Interaction method, interaction device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160922 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170925 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180911 Year of fee payment: 6 |