WO2016053029A1 - Method and system for generating message including virtual space and virtual object, and computer-readable recording medium - Google Patents

Method and system for generating message including virtual space and virtual object, and computer-readable recording medium Download PDF

Info

Publication number
WO2016053029A1
WO2016053029A1 PCT/KR2015/010396 KR2015010396W WO2016053029A1 WO 2016053029 A1 WO2016053029 A1 WO 2016053029A1 KR 2015010396 W KR2015010396 W KR 2015010396W WO 2016053029 A1 WO2016053029 A1 WO 2016053029A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
real world
user
space
message
Prior art date
Application number
PCT/KR2015/010396
Other languages
French (fr)
Korean (ko)
Inventor
전재웅
Original Assignee
(주) 애니펜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 애니펜 filed Critical (주) 애니펜
Publication of WO2016053029A1 publication Critical patent/WO2016053029A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to a method, a system and a computer readable recording medium for generating a message comprising a virtual space and a virtual object.
  • a user may include content such as an emoticon or a sticker indicating his or her current situation or emotional state in addition to text in a message.
  • content such as an emoticon or a sticker indicating his or her current situation or emotional state in addition to text in a message.
  • the present inventors have developed a technology that enables a user to generate various types of messages that are dynamically combined with virtual spaces and virtual objects.
  • the object of the present invention is to solve all the above-mentioned problems.
  • the present invention generates a virtual space corresponding to the real world space in the real world image by performing 3D spatial recognition and 3D mapping on the real world image input from the camera, 3D object recognition and 3D mapping are performed to create a virtual object corresponding to the real world object in the real world image, and dynamically combine the additional object input by the user with at least one of the above virtual space and the virtual object.
  • 3D spatial recognition and 3D mapping are performed to create a virtual object corresponding to the real world object in the real world image
  • a method for generating a message including a virtual space and a virtual object comprising: (a) performing 3D space recognition and 3D mapping on a real world image input from a camera; Generating a virtual space corresponding to the real world space in the real world image, (b) performing 3D object recognition and 3D mapping on the real world image to perform a virtual object corresponding to the real world object in the real world image ( a virtual object), and (c) generating a message by dynamically combining an additional object input by a user with at least one of the virtual space and the virtual object.
  • a method for generating a message including a virtual space and a virtual object comprising: (a) 3D space recognition for a real world image input from a camera of a terminal device of a first user; Generating a virtual space corresponding to the real world space in the real world image by performing 3D mapping; (b) performing 3D object recognition and 3D mapping on the real world image to perform a real world in the real world image Creating a virtual object corresponding to the object, and (c) dynamically adding an additional object input in association with the real world object by at least one of the virtual space and the virtual object by a terminal device of a second user.
  • a system for generating a message including a virtual space and a virtual object wherein 3D space recognition and 3D mapping are performed on a real world image input from a camera.
  • a virtual space processor that generates a virtual space corresponding to the real world space in the real world image, and performs a 3D object recognition and 3D mapping on the real world image to perform a virtual object corresponding to the real world object in the real world image.
  • a system including a virtual object processing unit for generating a, and an additional object management unit for generating a message by dynamically combining the additional object input by the user with at least one of the virtual space and the virtual object.
  • a system for generating a message including a virtual space and a virtual object, 3D space recognition and 3D mapping of the real world image input from the camera of the terminal device of the first user a virtual space processor for generating a virtual space corresponding to the real world space in the real world image by performing mapping, and performing 3D object recognition and 3D mapping on the real world image to correspond to the real world object in the real world image
  • the additional object manager which generates a message provided on the terminal device of the first user.
  • the system is also provided.
  • the user can create a message that he wants to convey in various forms that are dynamically combined with a virtual space or a virtual object, so that various forms of communication can be achieved between users and a new way of message.
  • the effect of being able to provide a service is achieved.
  • the effect of enabling a user to deliver a message via a virtual object corresponding to a real world object in a real world image is achieved by simply performing a simple operation.
  • FIG. 1 is a diagram illustrating a schematic configuration of an entire system for generating and managing a message including a virtual space and a virtual object according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an internal configuration of a service providing system according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a process of generating a message including a virtual space and a virtual object according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a schematic configuration of an entire system for generating and managing a message including a virtual object according to an embodiment of the present invention.
  • the entire system according to an embodiment of the present invention, the communication network 100, the service providing system 200, the user terminal device 300 and a known messenger server 400 or SNS server 400.
  • the communication network 100 may be configured to include both wired and wireless communication and may be configured as a communication network including a mobile communication network. More specifically, the communication network 100 according to the present invention is a known wireless LAN (WLAN), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global System for Mobile communications (GSM) or Long LTE (Long). Term Evolution) It should be understood that the concept includes all the communication networks.
  • WLAN wireless LAN
  • CDMA Code Division Multiple Access
  • WCDMA Wideband Code Division Multiple Access
  • GSM Global System for Mobile communications
  • Long LTE Long LTE
  • the service providing system 200 performs a three-dimensional (3D) spatial recognition and 3D mapping of the real world image input from the camera in the real-world image Create a virtual space corresponding to the real world space, perform 3D object recognition and 3D mapping on the real world image to generate a virtual object corresponding to the real world object in the real world image,
  • 3D object recognition and 3D mapping on the real world image to generate a virtual object corresponding to the real world object in the real world image
  • the user can create a variety of types of messages dynamically combined with the virtual space and the virtual object Can be done.
  • the user terminal device 300 is a digital device including a function to enable communication after connecting to the communication network 100, a memory such as a smartphone, tablet, desktop, laptop, etc. Any portable digital device having a means and a microprocessor capable of computing may be adopted as the user terminal device 300 according to the present invention.
  • the user terminal device 300 according to an embodiment of the present invention may include a necessary program such as an application, a web browser, a widget, and the like for supporting a user to generate a message including a virtual space and a virtual object. Can be.
  • the messenger server 400 or the SNS server 400 performs communication with the service providing system 200 and / or the user terminal device 300 through the communication network 100.
  • the messenger server 400 or the SNS server 400 performs a function of transferring a message generated by the user terminal device 300 and / or the service providing system 200 from one user to another user. Can be.
  • FIG. 2 is a diagram illustrating an internal configuration of a service providing system according to an embodiment of the present invention.
  • the service providing system 200 may include a virtual space processor 210, a virtual object processor 220, an additional object manager 230, a communicator 240, and a controller ( 250).
  • the virtual space processor 210, the virtual object processor 220, the additional object manager 230, the communicator 240, and the controller 250 may be an external system (not shown).
  • Program modules may be included in the service providing system 200 in the form of an operating system, an application program module, and other program modules, and may be physically stored on various known storage devices.
  • these program modules may be stored in a remote storage device that can communicate with the service providing system 200.
  • program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
  • the virtual space processor 210 performs 3D space recognition and 3D mapping on a real world image input from a camera to correspond to the real world space in the real world image.
  • a function to create a virtual space can be performed.
  • the real world image may be an image photographed by a camera provided in the terminal device 300 of the user who wants to write a message, or may be an image previously stored in the user terminal device 300 or the service providing system 200. .
  • the virtual space processor 210 may include Augmented Reality (AR) scanning technology or SLAM (Simultaneous Localization And Mapping) technology, marker and QR code recognition.
  • AR Augmented Reality
  • SLAM Simultaneous Localization And Mapping
  • marker and QR code recognition Recognition of real-world space in real-world images (ie, 3D space recognition) using recognition techniques, etc., matching the 3D coordinate system of real-world space in real-world images with the 3D coordinate system of virtual space (ie, 3D mapping)
  • a virtual space corresponding to the 3D real world space within the space may be generated.
  • the virtual space according to the present invention is a three-dimensional space.
  • the present invention is not necessarily limited thereto, and the virtual space according to the present invention may be a two-dimensional space.
  • the virtual object processing unit 220 may generate a virtual object corresponding to the real world object by recognizing the real world object in the real world image input from the camera.
  • the virtual object processing unit 220 uses an object recognition technique, an augmented reality scan technique, a SLAM technique, a marker and a QR code recognition technique, etc.
  • a virtual object corresponding to a 3D real world object in real world image by recognizing an object (ie, 3D object recognition) and matching the coordinate and coordinate system of the 3D real world object in the real world image with the 3D coordinate and coordinate system of the virtual object (ie 3D mapping) Can be generated.
  • the virtual object according to the present invention is a three-dimensional object, but is not necessarily limited thereto, and the virtual object according to the present invention may be a two-dimensional object.
  • the virtual space or the virtual object generated as described above may be visualized separately from the real world image and displayed in a form appended to the real world image on the screen of the user terminal device 300, but in contrast, the virtual space or virtual object The object may not be visualized separately from the real world image.
  • the virtual space or the virtual object is not visualized separately, only the real world image currently being photographed is displayed on the screen of the user terminal device 300, and the virtual space or the virtual object is dynamically combined with the additional object, which will be described later, to be displayed. It only performs the function of virtually defining a space or real world object.
  • the additional object manager 230 dynamically combines the additional object input from the terminal device 300 of the user who wants to write a message with the above virtual space and the above virtual object. By doing so, you can perform the function of generating a message.
  • the additional object may include a visual object including a visual effect that may be combined with a virtual space or a virtual object, an audio object including a sound effect that may be combined with a virtual space or a virtual object, and a user who sends a message.
  • It may include a text object including the text input by the text object, a benefit object including the benefit information available to the user receiving the message, in addition to the schedule, alarm, weather, fortune telling, food information, beauty, fashion, dating, Other information objects, including various other information such as shopping, may be further included.
  • the additional object manager 230 may support editing of a body, motion, movement path, sound effect, etc. of a visual object among additional objects included in a message.
  • a user interface may be provided that allows a user who wants to compose a message to edit a body, a motion, a movement path, a sound effect, etc. of a virtual object.
  • the visual object according to the present invention refers to all kinds of objects that can be visually expressed in combination with the virtual space or the virtual object.
  • the visual object according to the present invention includes a character or an avatar. This may include objects capable of motion or item objects such as clothes, wings, weapons, parts, and equipment.
  • the additional object manager 230 may set a path in which a visual object such as a character moves in a virtual space with reference to a user manipulation.
  • the user's operation is an operation capable of specifying a virtual straight line or a curve extending from the first point to the second point in the virtual space, for example, a touch operation extending from the first point to the second point on the display screen,
  • a motion operation for moving the terminal apparatus including the predetermined motion input means from the first position to the second position or changing the posture of the terminal apparatus from the first posture to the second posture.
  • the additional object manager 230 may assign a motion (or a property value related to an operation) of a visual object such as a character with reference to the user operation with reference to the user operation.
  • the motion that can be given to the visual object includes various actions such as walking, running, jumping, rolling, crawling, punching, shrugging, shaking, talking, singing, motion expressing the emotional state of the virtual object, and the like. Actions can be included.
  • the type of motion in the present invention is not necessarily limited to those listed above, it will be appreciated that it can be added or changed as much as possible within the scope that can achieve the object of the present invention.
  • the additional object manager 230 may have a form in which virtual objects existing in the virtual space directly speak text input from the user terminal device 300 (for example, in a speech bubble). Text objects) can be combined into virtual spaces or virtual objects.
  • the additional object manager 230 may further include a benefit object related to benefits available to the user who will receive the message in the message generated as described above.
  • the benefit information that may be included in the message may include, but is not limited to, Gifticon to receive the product or service, prepaid card to purchase the product or service, or link information on a product or service already purchased on the online store.
  • the benefit object such as the gift icon, the prepaid card, or the link information may be visualized and displayed in a form associated with the aforementioned virtual space or virtual object in the message.
  • the virtual space, the virtual object, the additional object, or the message generated as described above may be stored in a predetermined database (not shown) in a state that can be used again later, and the stored virtual Spaces, virtual objects, additional objects or messages can be invoked at the user's request and reused to generate other messages.
  • the communication unit 240 performs a function to enable the service providing system 200 to communicate with the external device.
  • the communication unit 240 according to an embodiment of the present invention is interlocked with the message service provided by the messenger server 400 or the SNS server 400 so that the message generated as described above is delivered to at least one other user. To perform the function.
  • the controller 250 controls the flow of data between the virtual space processor 210, the virtual object processor 220, the additional object manager 230, and the communicator 240. To perform. That is, the controller 250 controls the flow of data from the outside or between the respective components of the service providing system, such that the virtual space processor 210, the virtual object processor 220, the additional object manager 230, and the communicator 240 are controlled. Control each to perform its own function.
  • FIG. 3 is a diagram illustrating a process of generating a message including a virtual space and a virtual object according to an embodiment of the present invention.
  • the virtual space and the virtual object may be generated by recognizing the 3D space and the 3D object in the real world image obtained from the camera and performing 3D mapping (S310, S315, and S320).
  • the user can select a character that is a visual object that can be visually combined with a virtual space or a virtual object according to a user's operation, and set a motion, a movement path, and a sound effect of the character (S325, S330), and text input by the user In operation S335, a text object including the text object may be generated to be displayed in a metabolic form.
  • a message may be generated (S335).
  • the message generated as described above is directly transmitted through the message service provided by the service providing system 200, the known messenger server 400, or the known SNS server 400 according to the present invention (S345), It may be stored in the database for later reuse (S350).
  • the service providing system 200 performs 3D spatial recognition and 3D mapping on a real world image input from a camera of the terminal device 300 of the first user, thereby real world.
  • 220 and a terminal of the first user by dynamically combining an additional object input in association with the real world object by the second device terminal device 300 with at least one of the virtual space and the virtual object. It may include an additional object manager 230 for generating a message provided on the device 300.
  • a real-world object for example, a toy car, a doll, etc.
  • a real-world object for example, a toy car, a doll, etc.
  • a first user may photograph a real world image including a doll A, which is a real world object, by using a camera provided in his terminal device 300.
  • the first user may take a picture captured by the terminal device 300 of the first user.
  • 3D space recognition, 3D object recognition, and 3D mapping are performed on the real world image, a virtual object corresponding to the doll A in the real world image may be generated.
  • the virtual object created through the terminal device 300 of the first user may be utilized when the first user inputs an additional object to be delivered to the second user.
  • the first user may deliver the doll A, which is the real-world object recognized above, to the second user as a real object.
  • the second user may take a real world image including the doll A, which is a real world object received as a real object from the first user, using a camera provided in the terminal device 300. Accordingly, the second user As 3D space recognition, 3D object recognition, and 3D mapping are performed on the real world image captured by the terminal device 300, the virtual object corresponding to the doll A in the real world image may be generated. Meanwhile, the virtual object created through the terminal device 300 of the second user may be utilized in providing the additional object received by the second user from the first user through the second user terminal device 300.
  • the first user may input the text to be conveyed to the second user using his terminal device 300 as an additional object to be displayed in combination with the virtual object corresponding to the doll A.
  • the doll The virtual object corresponding to the doll A and the additional object corresponding to the text input by the first user may be displayed on the screen of the terminal device 300 of the second user photographing A. That is, the second user can receive the message from the first user via the doll A.
  • the first user delivers a visual object called doll clothes B to the second user as an additional object to be included in the message while the first user delivers the doll A, which is a real world object, to the second user.
  • a scene of doll A wearing doll clothes B may be displayed on the screen of the terminal device 300 of the second user photographing doll A, which is a real world object.
  • the first user may continuously input, modify or delete various additional objects to be displayed in combination with the virtual object corresponding to the doll A by using the terminal device 300 of the user.
  • the additional object displayed in combination with the virtual object corresponding to the doll A on 300 may be updated.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

According to one aspect of the present invention, a method for generating a message including a virtual space and a virtual object comprises the steps of: (a) generating a virtual space corresponding to a real world space within a real world image by performing 3D space recognition and 3D mapping for the real world image inputted from a camera; (b) generating a virtual object corresponding to a real world object within the real world image by performing 3D object recognition and 3D mapping for the real world image; and (c) generating a message by dynamically combining an additional object inputted by a user with the virtual space and/or the virtual object.

Description

가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체Method, system and computer readable recording medium for generating a message comprising a virtual space and a virtual object
본 발명은 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, a system and a computer readable recording medium for generating a message comprising a virtual space and a virtual object.
종래에 소개된 메신저 서비스나 소셜 네트워크 서비스(SNS)에서는, 사용자가 메시지 내에 텍스트에 더하여 자신의 현재 상황이나 감정 상태 등을 나타내는 이모티콘이나 스티커 등의 컨텐츠를 포함시킬 수 있다. 최근에는, 사용자 단말 장치의 성능이 향상되고 사용자가 접하는 컨텐츠의 종류가 다양해짐에 따라, 메시지 내에 색다른 컨텐츠를 포함시키고자 하는 사용자의 요구가 존재하는 상황이다.In the conventionally introduced messenger service or social network service (SNS), a user may include content such as an emoticon or a sticker indicating his or her current situation or emotional state in addition to text in a message. In recent years, as the performance of the user terminal device is improved and the types of content that the user encounters become diverse, there is a situation in which a user's request to include different content in a message exists.
이에, 본 발명자는 사용자가 가상 공간 및 가상 객체와 동적으로 결합된 다양한 형태의 메시지를 생성할 수 있도록 하는 기술을 개발하기에 이르렀다.Accordingly, the present inventors have developed a technology that enables a user to generate various types of messages that are dynamically combined with virtual spaces and virtual objects.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.The object of the present invention is to solve all the above-mentioned problems.
또한, 본 발명은 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하고, 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하고, 사용자에 의하여 입력되는 부가 객체를 위의 가상 공간 및 가상 객체 중 적어도 하나와 동적으로 결합하여 메시지를 생성함으로써, 사용자가 가상 공간 및 가상 객체와 동적으로 결합된 다양한 형태의 메시지를 생성할 수 있도록 하는 것을 다른 목적으로 한다.In addition, the present invention generates a virtual space corresponding to the real world space in the real world image by performing 3D spatial recognition and 3D mapping on the real world image input from the camera, 3D object recognition and 3D mapping are performed to create a virtual object corresponding to the real world object in the real world image, and dynamically combine the additional object input by the user with at least one of the above virtual space and the virtual object. To generate a message, so that the user can generate various types of messages that are dynamically combined with virtual space and virtual objects.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.Representative configuration of the present invention for achieving the above object is as follows.
본 발명의 일 태양에 따르면, 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법으로서, (a) 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 단계, (b) 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 단계, 및 (c) 사용자에 의하여 입력되는 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 메시지를 생성하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method for generating a message including a virtual space and a virtual object, comprising: (a) performing 3D space recognition and 3D mapping on a real world image input from a camera; Generating a virtual space corresponding to the real world space in the real world image, (b) performing 3D object recognition and 3D mapping on the real world image to perform a virtual object corresponding to the real world object in the real world image ( a virtual object), and (c) generating a message by dynamically combining an additional object input by a user with at least one of the virtual space and the virtual object.
본 발명의 다른 태양에 따르면, 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법으로서, (a) 제1 사용자의 단말 장치의 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 단계, (b) 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 단계, 및 (c) 제2 사용자의 단말 장치에 의하여 상기 실세계 객체와 연관되어 입력된 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 상기 제1 사용자의 단말 장치 상에서 제공되는 메시지를 생성하는 단계를 포함하는 방법이 제공된다.According to another aspect of the present invention, there is provided a method for generating a message including a virtual space and a virtual object, the method comprising: (a) 3D space recognition for a real world image input from a camera of a terminal device of a first user; Generating a virtual space corresponding to the real world space in the real world image by performing 3D mapping; (b) performing 3D object recognition and 3D mapping on the real world image to perform a real world in the real world image Creating a virtual object corresponding to the object, and (c) dynamically adding an additional object input in association with the real world object by at least one of the virtual space and the virtual object by a terminal device of a second user. By combining to generate a message provided on the terminal device of the first user.
본 발명의 또 다른 태양에 따르면, 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 시스템으로서, 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 가상 공간 처리부, 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 가상 객체 처리부, 및 사용자에 의하여 입력되는 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 메시지를 생성하는 부가 객체 관리부를 포함하는 시스템이 제공된다.According to still another aspect of the present invention, there is provided a system for generating a message including a virtual space and a virtual object, wherein 3D space recognition and 3D mapping are performed on a real world image input from a camera. A virtual space processor that generates a virtual space corresponding to the real world space in the real world image, and performs a 3D object recognition and 3D mapping on the real world image to perform a virtual object corresponding to the real world object in the real world image. There is provided a system including a virtual object processing unit for generating a, and an additional object management unit for generating a message by dynamically combining the additional object input by the user with at least one of the virtual space and the virtual object.
본 발명의 또 다른 태양에 따르면, 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 시스템으로서, 제1 사용자의 단말 장치의 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 가상 공간 처리부, 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 가상 객체 처리부, 및 제2 사용자의 단말 장치에 의하여 상기 실세계 객체와 연관되어 입력된 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 상기 제1 사용자의 단말 장치 상에서 제공되는 메시지를 생성하는 부가 객체 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, a system for generating a message including a virtual space and a virtual object, 3D space recognition and 3D mapping of the real world image input from the camera of the terminal device of the first user a virtual space processor for generating a virtual space corresponding to the real world space in the real world image by performing mapping, and performing 3D object recognition and 3D mapping on the real world image to correspond to the real world object in the real world image A virtual object processing unit for generating a virtual object, and an additional object input in association with the real world object by a terminal device of a second user by dynamically combining with at least one of the virtual space and the virtual object; The additional object manager which generates a message provided on the terminal device of the first user. The system is also provided.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided a computer readable recording medium for recording another method, system for implementing the present invention and a computer program for executing the method.
본 발명에 의하면, 사용자가 자신이 전하고자 하는 메시지를 가상 공간 또는 가상 객체와 동적으로 결합된 다양한 형태로 생성할 수 있으므로, 사용자 사이에서 다양한 형태의 의사소통이 이루어질 수 있도록 지원하고 새로운 방식의 메시지 서비스를 제공할 수 있게 되는 효과가 달성된다.According to the present invention, the user can create a message that he wants to convey in various forms that are dynamically combined with a virtual space or a virtual object, so that various forms of communication can be achieved between users and a new way of message. The effect of being able to provide a service is achieved.
또한, 본 발명에 의하면, 사용자가 간단한 조작을 행하는 것만으로 실세계(real world) 영상 내의 실세계 객체에 대응되는 가상 객체를 매개로 하여 메시지를 전달할 수 있게 되는 효과가 달성된다.In addition, according to the present invention, the effect of enabling a user to deliver a message via a virtual object corresponding to a real world object in a real world image is achieved by simply performing a simple operation.
도 1은 본 발명의 일 실시예에 따라 가상 공간 및 가상 객체를 포함하는 메시지를 생성 및 관리하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram illustrating a schematic configuration of an entire system for generating and managing a message including a virtual space and a virtual object according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 서비스 제공 시스템의 내부 구성을 예시적으로 나타내는 도면이다.2 is a diagram illustrating an internal configuration of a service providing system according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라 가상 공간 및 가상 객체가 포함된 메시지를 생성하는 과정을 예시적으로 나타내는 도면이다.3 is a diagram illustrating a process of generating a message including a virtual space and a virtual object according to an embodiment of the present invention.
<부호의 설명><Description of the code>
100: 통신망100: network
200: 서비스 제공 시스템200: service delivery system
210: 가상 공간 처리부210: virtual space processing unit
220: 가상 객체 처리부220: virtual object processing unit
230: 부가 객체 관리부230: additional object management unit
240: 통신부240: communication unit
250: 제어부250: control unit
300: 사용자 단말 장치300: user terminal device
400: 공지의 메신저 서버 또는 SNS 서버400: known messenger server or SNS server
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily implement the present invention.
전체 시스템의 구성Configuration of the entire system
도 1은 본 발명의 일 실시예에 따라 가상 객체를 포함하는 메시지를 생성 및 관리하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram illustrating a schematic configuration of an entire system for generating and managing a message including a virtual object according to an embodiment of the present invention.
도 1에 도시되어 있는 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은, 통신망(100), 서비스 제공 시스템(200), 사용자 단말 장치(300) 및 공지의 메신저 서버(400) 또는 SNS 서버(400)로 구성될 수 있다.As shown in Figure 1, the entire system according to an embodiment of the present invention, the communication network 100, the service providing system 200, the user terminal device 300 and a known messenger server 400 or SNS server 400.
먼저, 본 발명의 일 실시예에 따르면, 통신망(100)은 유무선 통신을 모두 포함하는 양태로 구성될 수 있으며 이동 통신망을 포함하는 통신망으로 구성될 수 있다. 보다 구체적으로, 본 발명에서 말하는 통신망(100)은 공지의 WLAN(Wireless LAN), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), GSM(Global System for Mobile communications) 또는 LTE(Long Term Evolution) 통신망 등을 모두 포함하는 개념인 것으로 이해되어야 한다.First, according to an embodiment of the present invention, the communication network 100 may be configured to include both wired and wireless communication and may be configured as a communication network including a mobile communication network. More specifically, the communication network 100 according to the present invention is a known wireless LAN (WLAN), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global System for Mobile communications (GSM) or Long LTE (Long). Term Evolution) It should be understood that the concept includes all the communication networks.
다음으로, 본 발명의 일 실시예에 따르면, 서비스 제공 시스템(200)은 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3차원(3D) 공간 인식 및 3D 매핑(mapping)을 수행하여 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하고, 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하고, 사용자에 의하여 입력되는 부가 객체를 위의 가상 공간 및 가상 객체 중 적어도 하나와 동적으로 결합하여 메시지를 생성함으로써, 사용자가 가상 공간 및 가상 객체와 동적으로 결합된 다양한 형태의 메시지를 생성할 수 있도록 하는 기능을 수행할 수 있다.Next, according to an embodiment of the present invention, the service providing system 200 performs a three-dimensional (3D) spatial recognition and 3D mapping of the real world image input from the camera in the real-world image Create a virtual space corresponding to the real world space, perform 3D object recognition and 3D mapping on the real world image to generate a virtual object corresponding to the real world object in the real world image, By generating the message by dynamically combining the additional object input by the at least one of the above virtual space and the virtual object, the user can create a variety of types of messages dynamically combined with the virtual space and the virtual object Can be done.
서비스 제공 시스템(200)의 내부 구성에 대해서는 후술할 "서비스 제공 시스템의 구성" 부분에서 보다 자세하게 살펴보기로 한다.The internal configuration of the service providing system 200 will be described in more detail in the section "Configuration of the service providing system" to be described later.
다음으로, 본 발명의 일 실시예에 따른 사용자 단말 장치(300)는 통신망(100)에 접속한 후 통신할 수 있도록 하는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿, 데스크탑, 노트북 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 휴대용 디지털 기기라면 얼마든지 본 발명에 따른 사용자 단말 장치(300)로서 채택될 수 있다. 한편, 본 발명의 일 실시예에 따른 사용자 단말 장치(300)에는 사용자가 가상 공간 및 가상 객체를 포함하는 메시지를 생성할 수 있도록 지원하기 위한 애플리케이션, 웹 브라우저, 위젯 등의 필요 프로그램이 포함되어 있을 수 있다.Next, the user terminal device 300 according to an embodiment of the present invention is a digital device including a function to enable communication after connecting to the communication network 100, a memory such as a smartphone, tablet, desktop, laptop, etc. Any portable digital device having a means and a microprocessor capable of computing may be adopted as the user terminal device 300 according to the present invention. Meanwhile, the user terminal device 300 according to an embodiment of the present invention may include a necessary program such as an application, a web browser, a widget, and the like for supporting a user to generate a message including a virtual space and a virtual object. Can be.
다음으로, 본 발명의 일 실시예에 따르면, 메신저 서버(400) 또는 SNS 서버(400)는 통신망(100)을 통하여 서비스 제공 시스템(200) 및/또는 사용자 단말 장치(300)와의 통신을 수행한다. 예를 들어, 메신저 서버(400) 또는 SNS 서버(400)는 사용자 단말 장치(300) 및/또는 서비스 제공 시스템(200)에 의하여 생성되는 메시지를 한 사용자로부터 다른 사용자에게 전달하는 기능을 수행하는 서버일 수 있다.Next, according to an embodiment of the present invention, the messenger server 400 or the SNS server 400 performs communication with the service providing system 200 and / or the user terminal device 300 through the communication network 100. . For example, the messenger server 400 or the SNS server 400 performs a function of transferring a message generated by the user terminal device 300 and / or the service providing system 200 from one user to another user. Can be.
서비스 제공 시스템의 구성Configuration of Service Delivery System
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 서비스 제공 시스템의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the service providing system performing important functions for the implementation of the present invention and the function of each component will be described.
도 2는 본 발명의 일 실시예에 따른 서비스 제공 시스템의 내부 구성을 예시적으로 나타내는 도면이다.2 is a diagram illustrating an internal configuration of a service providing system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 서비스 제공 시스템(200)은, 가상 공간 처리부(210), 가상 객체 처리부(220), 부가 객체 관리부(230), 통신부(240) 및 제어부(250)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 가상 공간 처리부(210), 가상 객체 처리부(220), 부가 객체 관리부(230), 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 서비스 제공 시스템(200)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 서비스 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.2, the service providing system 200 according to an exemplary embodiment of the present invention may include a virtual space processor 210, a virtual object processor 220, an additional object manager 230, a communicator 240, and a controller ( 250). According to an embodiment of the present invention, the virtual space processor 210, the virtual object processor 220, the additional object manager 230, the communicator 240, and the controller 250 may be an external system (not shown). Program modules). Such program modules may be included in the service providing system 200 in the form of an operating system, an application program module, and other program modules, and may be physically stored on various known storage devices. In addition, these program modules may be stored in a remote storage device that can communicate with the service providing system 200. On the other hand, such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
먼저, 본 발명의 일 실시예에 따르면, 가상 공간 처리부(210)는 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 실세계 영상 내의 실세계 공간에 대응되는 가상 공간을 생성하는 기능을 수행할 수 있다. 여기서, 실세계 영상은 메시지를 작성하고자 하는 사용자의 단말 장치(300)에 구비되어 있는 카메라에 의하여 촬영된 영상이거나 사용자 단말 장치(300) 또는 서비스 제공 시스템(200)에 미리 저장되어 있는 영상일 수 있다.First, according to an embodiment of the present invention, the virtual space processor 210 performs 3D space recognition and 3D mapping on a real world image input from a camera to correspond to the real world space in the real world image. A function to create a virtual space can be performed. Here, the real world image may be an image photographed by a camera provided in the terminal device 300 of the user who wants to write a message, or may be an image previously stored in the user terminal device 300 or the service providing system 200. .
구체적으로, 본 발명의 일 실시예에 따르면, 가상 공간 처리부(210)는 증강 현실(Augmented Reality, AR) 스캔 기술 또는 SLAM(Simultaneous Localization And Mapping) 기술, 마커 및 QR 코드(Marker and QR code Recognition) 인식 기술 등을 이용하여 실세계 영상 내의 실세계 공간을 인식하고(즉, 3D 공간 인식), 실세계 영상 내의 실세계 공간의 3D 좌표계와 가상 공간의 3D 좌표계를 매칭시켜(즉, 3D 매핑(mapping)) 실세계 영상 내의 3D 실세계 공간에 대응되는 가상 공간을 생성할 수 있다.Specifically, according to an embodiment of the present invention, the virtual space processor 210 may include Augmented Reality (AR) scanning technology or SLAM (Simultaneous Localization And Mapping) technology, marker and QR code recognition. Recognition of real-world space in real-world images (ie, 3D space recognition) using recognition techniques, etc., matching the 3D coordinate system of real-world space in real-world images with the 3D coordinate system of virtual space (ie, 3D mapping) A virtual space corresponding to the 3D real world space within the space may be generated.
이상에서, 본 발명에 따른 가상 공간이 3차원 공간인 실시예에 대하여 주로 설명되어 있지만, 반드시에 이에 한정되는 것은 아니며 본 발명에 따른 가상 공간은 2차원 공간일 수도 있음을 밝혀 둔다.In the above, an embodiment in which the virtual space according to the present invention is a three-dimensional space is mainly described. However, the present invention is not necessarily limited thereto, and the virtual space according to the present invention may be a two-dimensional space.
다음으로, 본 발명의 일 실시예에 따르면, 가상 객체 처리부(220)는 카메라로부터 입력되는 실세계 영상 내의 실세계 객체를 인식하여 해당 실세계 객체에 대응되는 가상 객체를 생성할 수 있다.Next, according to an embodiment of the present invention, the virtual object processing unit 220 may generate a virtual object corresponding to the real world object by recognizing the real world object in the real world image input from the camera.
구체적으로, 본 발명의 일 실시예에 따르면, 가상 객체 처리부(220)는 객체 인식(Object Recognition) 기술, 증강 현실 스캔 기술, SLAM 기술, 마커 및 QR 코드 인식 기술 등을 이용하여 실세계 영상 내의 3D 실세계 객체를 인식하고(즉, 3D 객체 인식), 실세계 영상 내의 3D 실세계 객체의 좌표 및 좌표계와 가상 객체의 3D 좌표 및 좌표계를 매칭시켜(즉, 3D 매핑) 실세계 영상 내의 3D 실세계 객체에 대응되는 가상 객체를 생성할 수 있다.Specifically, according to an embodiment of the present invention, the virtual object processing unit 220 uses an object recognition technique, an augmented reality scan technique, a SLAM technique, a marker and a QR code recognition technique, etc. A virtual object corresponding to a 3D real world object in real world image by recognizing an object (ie, 3D object recognition) and matching the coordinate and coordinate system of the 3D real world object in the real world image with the 3D coordinate and coordinate system of the virtual object (ie 3D mapping) Can be generated.
이상에서, 본 발명에 따른 가상 객체가 3차원 객체인 실시예에 대하여 주로 설명되어 있지만, 반드시에 이에 한정되는 것은 아니며 본 발명에 따른 가상 객체는 2차원 객체일 수도 있음을 밝혀 둔다.In the above, an embodiment in which the virtual object according to the present invention is a three-dimensional object is mainly described, but is not necessarily limited thereto, and the virtual object according to the present invention may be a two-dimensional object.
한편, 본 발명에 있어서, 위와 같이 생성된 가상 공간 또는 가상 객체는 실세계 영상과는 별개로 시각화되어 사용자 단말 장치(300)의 화면 상에서 실세계 영상에 덧붙여진 형태로 표시될 수도 있지만, 반대로 가상 공간 또는 가상 객체는 실세계 영상과 별개로 시각화되지 않을 수도 있다. 가상 공간 또는 가상 객체가 별개로 시각화되지 않을 경우, 사용자 단말 장치(300)의 화면 상에는 현재 촬영되고 있는 실세계 영상만이 표시되고 가상 공간 또는 가상 객체는 후술할 부가 객체와 동적으로 결합되어 표시될 실세계 공간 또는 실세계 객체를 가상으로 정의하는 기능만을 수행하게 된다.Meanwhile, in the present invention, the virtual space or the virtual object generated as described above may be visualized separately from the real world image and displayed in a form appended to the real world image on the screen of the user terminal device 300, but in contrast, the virtual space or virtual object The object may not be visualized separately from the real world image. When the virtual space or the virtual object is not visualized separately, only the real world image currently being photographed is displayed on the screen of the user terminal device 300, and the virtual space or the virtual object is dynamically combined with the additional object, which will be described later, to be displayed. It only performs the function of virtually defining a space or real world object.
다음으로, 본 발명의 일 실시예에 따르면, 부가 객체 관리부(230)는 메시지를 작성하고자 하는 사용자의 단말 장치(300)로부터 입력되는 부가 객체를 위의 가상 공간 및 위의 가상 객체와 동적으로 결합함으로써 메시지를 생성하는 기능을 수행할 수 있다. 여기서, 부가 객체에는, 가상 공간 또는 가상 객체와 결합될 수 있는 시각 효과를 포함하는 비주얼(visual) 객체, 가상 공간 또는 가상 객체와 결합될 수 있는 음향 효과를 포함하는 오디오 객체, 메시지를 보내는 사용자에 의하여 입력되는 텍스트를 포함하는 텍스트 객체, 메시지를 받는 사용자가 활용할 수 있는 혜택 정보를 포함하는 혜택 객체 등이 포함될 수 있으며, 이에 더하여 스케쥴, 알람, 날씨, 운세, 음식 정보, 뷰티, 패션, 연애, 쇼핑 등의 다양한 기타 정보를 포함하는 기타 정보 객체가 더 포함될 수 있다.Next, according to an embodiment of the present invention, the additional object manager 230 dynamically combines the additional object input from the terminal device 300 of the user who wants to write a message with the above virtual space and the above virtual object. By doing so, you can perform the function of generating a message. Here, the additional object may include a visual object including a visual effect that may be combined with a virtual space or a virtual object, an audio object including a sound effect that may be combined with a virtual space or a virtual object, and a user who sends a message. It may include a text object including the text input by the text object, a benefit object including the benefit information available to the user receiving the message, in addition to the schedule, alarm, weather, fortune telling, food information, beauty, fashion, dating, Other information objects, including various other information such as shopping, may be further included.
이하에서는, 본 발명에 따른 메시지에 포함될 수 있는 부가 객체에 관하여 자세히 설명하기로 한다.Hereinafter, additional objects that may be included in a message according to the present invention will be described in detail.
먼저, 본 발명의 일 실시예에 따르면, 부가 객체 관리부(230)는 메시지에 포함될 수 있는 부가 객체 중 비주얼 객체의 본체, 모션, 이동 경로, 음향 효과 등이 편집될 수 있도록 지원할 수 있는데, 이를 위해 메시지를 작성하고자 하는 사용자가 가상 객체의 본체, 모션, 이동 경로, 음향 효과 등을 편집할 수 있도록 지원하는 사용자 인터페이스를 제공할 수 있다. 여기서, 본 발명에 따른 비주얼 객체는 가상 공간 또는 가상 객체와 결합되어 시각적으로 표현될 수 있는 모든 종류의 객체(object)를 가리키는 것으로서, 예를 들면, 본 발명에 따라 비주얼 객체에는 캐릭터나 아바타와 같이 모션이 가능한 객체나 옷, 날개, 무기, 부품, 장비와 같은 아이템 객체 등이 포함될 수 있다.First, according to an embodiment of the present invention, the additional object manager 230 may support editing of a body, motion, movement path, sound effect, etc. of a visual object among additional objects included in a message. A user interface may be provided that allows a user who wants to compose a message to edit a body, a motion, a movement path, a sound effect, etc. of a virtual object. Here, the visual object according to the present invention refers to all kinds of objects that can be visually expressed in combination with the virtual space or the virtual object. For example, the visual object according to the present invention includes a character or an avatar. This may include objects capable of motion or item objects such as clothes, wings, weapons, parts, and equipment.
구체적으로, 본 발명의 일 실시예에 따른 부가 객체 관리부(230)는 사용자 조작을 참조로 하여 가상 공간 내에서 캐릭터 등의 비주얼 객체가 이동하는 경로를 설정할 수 있다. 여기서, 사용자의 조작은 가상 공간 내의 제1 지점에서 제2 지점까지 이어지는 가상의 직선 또는 곡선을 특정할 수 있는 조작으로서, 예를 들면, 표시 화면 상의 제1 지점에서 제2 지점까지 이어지는 터치 조작, 소정의 모션 입력 수단을 포함하는 단말 장치를 제1 위치로부터 제2 위치로 이동시키거나 단말 장치의 자세를 제1 자세에서 제2 자세로 변경시키는 모션 조작 등을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 부가 객체 관리부(230)는 사용자 조작을 참조로 하여 사용자 조작을 참조로 하여 캐릭터 등의 비주얼 객체의 모션(또는 동작에 관한 속성값)을 부여할 수 있다. 여기서, 비주얼 객체에 부여될 수 있는 모션에는, 걷기, 뛰기, 점프하기, 구르기, 기어가기, 주먹질하기, 으쓱하기, 흔들기, 대화하기, 노래하기, 가상 객체의 감정 상태를 표현하는 모션 등의 다양한 동작이 포함될 수 있다. 다만, 본 발명에서 말하는 모션의 종류가 반드시 상기 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 추가되거나 변경될 수 있음을 밝혀 둔다.In detail, the additional object manager 230 according to an embodiment of the present invention may set a path in which a visual object such as a character moves in a virtual space with reference to a user manipulation. Here, the user's operation is an operation capable of specifying a virtual straight line or a curve extending from the first point to the second point in the virtual space, for example, a touch operation extending from the first point to the second point on the display screen, And a motion operation for moving the terminal apparatus including the predetermined motion input means from the first position to the second position or changing the posture of the terminal apparatus from the first posture to the second posture. In addition, the additional object manager 230 according to an embodiment of the present invention may assign a motion (or a property value related to an operation) of a visual object such as a character with reference to the user operation with reference to the user operation. Here, the motion that can be given to the visual object includes various actions such as walking, running, jumping, rolling, crawling, punching, shrugging, shaking, talking, singing, motion expressing the emotional state of the virtual object, and the like. Actions can be included. However, the type of motion in the present invention is not necessarily limited to those listed above, it will be appreciated that it can be added or changed as much as possible within the scope that can achieve the object of the present invention.
다음으로, 본 발명의 일 실시예에 따르면, 부가 객체 관리부(230)는 가상 공간 내에 존재하는 가상 객체가 사용자 단말 장치(300)로부터 입력되는 텍스트를 직접 말하는 것과 같은 형태(예를 들면, 말풍선에 포함되는 대사의 형태)로 텍스트 객체를 가상 공간 또는 가상 객체에 결합시킬 수 있다.Next, according to an embodiment of the present invention, the additional object manager 230 may have a form in which virtual objects existing in the virtual space directly speak text input from the user terminal device 300 (for example, in a speech bubble). Text objects) can be combined into virtual spaces or virtual objects.
다음으로, 본 발명의 일 실시예에 따르면, 부가 객체 관리부(230)는 위와 같이 생성된 메시지 내에 해당 메시지를 전달 받게 될 사용자가 활용할 수 있는 혜택에 관한 혜택 객체를 더 포함시킬 수 있다. 예를 들면, 메시지에 포함될 수 있는 혜택 정보에는, 상품이나 서비스를 제공 받을 수 있는 기프티콘(Gifticon), 상품이나 서비스를 구매할 수 있는 선불카드, 온라인 쇼핑몰 상에서 이미 구매가 완료된 상품이나 서비스에 대한 링크 정보 등이 포함될 수 있으며, 위의 기프티콘, 선불카드 또는 링크 정보와 같은 혜택 객체는 해당 메시지 내에서 앞서 언급된 가상 공간 또는 가상 객체와 결합된 형태로 시각화되어 표시될 수 있다.Next, according to an embodiment of the present invention, the additional object manager 230 may further include a benefit object related to benefits available to the user who will receive the message in the message generated as described above. For example, the benefit information that may be included in the message may include, but is not limited to, Gifticon to receive the product or service, prepaid card to purchase the product or service, or link information on a product or service already purchased on the online store. The benefit object such as the gift icon, the prepaid card, or the link information may be visualized and displayed in a form associated with the aforementioned virtual space or virtual object in the message.
한편, 본 발명의 일 실시예에 따르면, 위와 같이 생성된 가상 공간, 가상 객체, 부가 객체 또는 메시지는 나중에 다시 사용될 수 있는 상태로 소정의 데이터베이스(미도시됨)에 저장될 수 있으며, 이렇게 저장된 가상 공간, 가상 객체, 부가 객체 또는 메시지는 사용자의 요청에 따라 호출되어 다른 메시지를 생성하는 데에 재사용될 수 있다.Meanwhile, according to an embodiment of the present invention, the virtual space, the virtual object, the additional object, or the message generated as described above may be stored in a predetermined database (not shown) in a state that can be used again later, and the stored virtual Spaces, virtual objects, additional objects or messages can be invoked at the user's request and reused to generate other messages.
다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 서비스 제공 시스템(200)이 외부 장치와 통신할 수 있도록 하는 기능을 수행한다. 구체적으로, 본 발명의 일 실시예에 따른 통신부(240)는 메신저 서버(400) 또는 SNS 서버(400)에서 제공하는 메시지 서비스와 연동하여, 위와 같이 생성된 메시지가 적어도 하나의 다른 사용자에게 전달되도록 하는 기능을 수행할 수 있다.Next, the communication unit 240 according to an embodiment of the present invention performs a function to enable the service providing system 200 to communicate with the external device. Specifically, the communication unit 240 according to an embodiment of the present invention is interlocked with the message service provided by the messenger server 400 or the SNS server 400 so that the message generated as described above is delivered to at least one other user. To perform the function.
마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 가상 공간 처리부(210), 가상 객체 처리부(220), 부가 객체 관리부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 제어부(250)는 외부로부터의 또는 서비스 제공 시스템의 각 구성요소 간의 데이터의 흐름을 제어함으로써, 가상 공간 처리부(210), 가상 객체 처리부(220), 부가 객체 관리부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어한다.Lastly, the controller 250 according to an embodiment of the present invention controls the flow of data between the virtual space processor 210, the virtual object processor 220, the additional object manager 230, and the communicator 240. To perform. That is, the controller 250 controls the flow of data from the outside or between the respective components of the service providing system, such that the virtual space processor 210, the virtual object processor 220, the additional object manager 230, and the communicator 240 are controlled. Control each to perform its own function.
도 3은 본 발명의 일 실시예에 따라 가상 공간 및 가상 객체가 포함된 메시지를 생성하는 과정을 예시적으로 나타내는 도면이다.3 is a diagram illustrating a process of generating a message including a virtual space and a virtual object according to an embodiment of the present invention.
도 3을 참조하면, 새로운 메시지를 만드는 경우에, 카메라로부터 획득되는 실세계 영상 내의 3D 공간 및 3D 객체를 인식하고 3D 매핑을 수행하여 가상 공간 및 가상 객체를 생성할 수 있고(S310, S315, S320), 사용자 조작에 따라 가상 공간 또는 가상 객체와 시각적으로 결합될 수 있는 비주얼 객체인 캐릭터를 선택하고 해당 캐릭터의 모션, 이동 경로 및 음향 효과를 설정할 수 있으며(S325, S330), 사용자에 의하여 입력되는 텍스트를 포함하는 텍스트 객체가 대사 형태로 표시되도록 하는 메시지를 생성할 수 있다(S335). 한편, 기존 메시지를 편집하는 경우에는, 미리 저장되어 있는 가상 공간, 가상 객체, 비주얼 객체를 호출하고 여기에 사용자에 의하여 새로 입력되는 텍스트를 포함하는 텍스트 객체를 결합함으로써 캐릭터의 대사 형태로 표시되도록 하는 메시지를 생성할 수 있다(S335). 다음으로, 위와 같이 생성된 메시지는 본 발명에 따른 서비스 제공 시스템(200), 공지의 메신저 서버(400) 또는 공지의 SNS 서버(400)에 의하여 제공되는 메시지 서비스를 통하여 바로 전송되거나(S345), 추후 재사용을 위하여 데이터베이스에 저장될 수 있다(S350).Referring to FIG. 3, when creating a new message, the virtual space and the virtual object may be generated by recognizing the 3D space and the 3D object in the real world image obtained from the camera and performing 3D mapping (S310, S315, and S320). The user can select a character that is a visual object that can be visually combined with a virtual space or a virtual object according to a user's operation, and set a motion, a movement path, and a sound effect of the character (S325, S330), and text input by the user In operation S335, a text object including the text object may be generated to be displayed in a metabolic form. Meanwhile, when editing an existing message, a virtual space, a virtual object, and a visual object which are stored in advance are called, and a text object including text newly input by the user is combined to be displayed in the form of a dialogue of the character. A message may be generated (S335). Next, the message generated as described above is directly transmitted through the message service provided by the service providing system 200, the known messenger server 400, or the known SNS server 400 according to the present invention (S345), It may be stored in the database for later reuse (S350).
한편, 본 발명의 다른 실시예에 따르면, 서비스 제공 시스템(200)은 제1 사용자의 단말 장치(300)의 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑을 수행하여 실세계 영상 내의 3D 실세계 공간에 대응되는 가상 공간을 생성하는 가상 공간 처리부(210), 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 실세계 영상 내의 3D 실세계 객체에 대응되는 가상 객체를 생성하는 가상 객체 처리부(220), 및 제2 사용자의 단말 장치(300)에 의하여 위의 실세계 객체와 연관되어 입력된 부가 객체를 위의 가상 공간 및 위의 가상 객체 중 적어도 하나와 동적으로 결합함으로써 제1 사용자의 단말 장치(300) 상에서 제공되는 메시지를 생성하는 부가 객체 관리부(230)를 포함할 수 있다.Meanwhile, according to another exemplary embodiment of the present invention, the service providing system 200 performs 3D spatial recognition and 3D mapping on a real world image input from a camera of the terminal device 300 of the first user, thereby real world. A virtual space processor 210 for generating a virtual space corresponding to the 3D real world space in the image, and a virtual object processor for generating a virtual object corresponding to the 3D real world object in the real world image by performing 3D object recognition and 3D mapping on the real world image. 220, and a terminal of the first user by dynamically combining an additional object input in association with the real world object by the second device terminal device 300 with at least one of the virtual space and the virtual object. It may include an additional object manager 230 for generating a message provided on the device 300.
따라서, 본 발명의 다른 실시예에 따른 서비스 제공 시스템(200)에 의하면, 제1 사용자와 제2 사용자 사이에서 실물로서 주고 받을 수 있는 실세계 객체(예를 들면, 장난감 자동차, 인형 등)를 매개로 하여 메시지가 전달될 수 있게 된다.Therefore, according to the service providing system 200 according to another embodiment of the present invention, through a real-world object (for example, a toy car, a doll, etc.) that can be exchanged as a real thing between the first user and the second user. So that the message can be delivered.
이하에서는, 본 발명의 다른 실시예에 따라, 실세계 객체인 인형 A를 매개로 하여 제1 사용자가 제2 사용자에게 메시지를 전달하는 과정에 대하여 구체적으로 살펴보기로 한다.Hereinafter, according to another embodiment of the present invention, a process in which the first user delivers a message to the second user through the doll A, which is a real world object, will be described in detail.
먼저, 제1 사용자는 자신의 단말 장치(300)에 구비된 카메라를 이용하여 실세계 객체인 인형 A가 포함된 실세계 영상을 촬영할 수 있는데, 이때, 제1 사용자의 단말 장치(300)에 의해 촬영된 실세계 영상에 대하여 3D 공간 인식, 3D 객체 인식 및 3D 매핑이 수행됨에 따라 실세계 영상 내의 인형 A에 대응되는 가상 객체가 생성될 수 있다. 한편, 제1 사용자의 단말 장치(300)를 통하여 생성된 가상 객체는 제1 사용자가 제2 사용자에게 전달될 부가 객체를 입력함에 있어서 활용될 수 있다.First, a first user may photograph a real world image including a doll A, which is a real world object, by using a camera provided in his terminal device 300. In this case, the first user may take a picture captured by the terminal device 300 of the first user. As 3D space recognition, 3D object recognition, and 3D mapping are performed on the real world image, a virtual object corresponding to the doll A in the real world image may be generated. Meanwhile, the virtual object created through the terminal device 300 of the first user may be utilized when the first user inputs an additional object to be delivered to the second user.
다음으로, 제1 사용자는 앞서 인식된 실세계 객체인 인형 A를 제2 사용자에게 실물로서 전달할 수 있다.Next, the first user may deliver the doll A, which is the real-world object recognized above, to the second user as a real object.
다음으로, 제2 사용자는 자신의 단말 장치(300)에 구비된 카메라를 이용하여 제1 사용자로부터 실물로서 전달 받은 실세계 객체인 인형 A가 포함된 실세계 영상을 촬영할 수 있는데, 이에 따라, 제2 사용자의 단말 장치(300)에 의해 촬영된 실세계 영상에 대하여 3D 공간 인식, 3D 객체 인식 및 3D 매핑이 수행됨에 따라 실세계 영상 내의 인형 A에 대응되는 가상 객체가 생성될 수 있다. 한편, 제2 사용자의 단말 장치(300)를 통하여 생성된 가상 객체는 제2 사용자가 제1 사용자로부터 전달 받은 부가 객체를 제2 사용자 단말 장치(300)을 통해 제공함에 있어서 활용될 수 있다.Next, the second user may take a real world image including the doll A, which is a real world object received as a real object from the first user, using a camera provided in the terminal device 300. Accordingly, the second user As 3D space recognition, 3D object recognition, and 3D mapping are performed on the real world image captured by the terminal device 300, the virtual object corresponding to the doll A in the real world image may be generated. Meanwhile, the virtual object created through the terminal device 300 of the second user may be utilized in providing the additional object received by the second user from the first user through the second user terminal device 300.
다음으로, 제1 사용자가 자신의 단말 장치(300)를 이용하여 제2 사용자에게 전하고자 하는 텍스트를 인형 A에 대응되는 가상 객체에 결합되어 표시될 부가 객체로서 입력할 수 있는데, 이러한 경우, 인형 A를 촬영하고 있는 제2 사용자의 단말 장치(300)의 화면 상에는 인형 A에 대응되는 가상 객체와 제1 사용자가 입력한 텍스트에 해당하는 부가 객체가 결합되어 표시될 수 있다. 즉, 제2 사용자는 제1 사용자로부터의 메시지를 인형 A를 매개로 하여 전달 받을 수 있게 된다. 다른 예를 들면, 제1 사용자가 제2 사용자에게 실세계 객체인 인형 A를 실물로서 전달한 상태에서 제1 사용자가 제2 사용자에게 인형 옷 B라는 비주얼 객체를 메시지에 포함될 부가 객체로서 전달하는 경우를 가정할 수 있는데, 이러한 경우에 실세계 객체인 인형 A를 촬영하고 있는 제2 사용자의 단말 장치(300)의 화면 상에는 인형 A가 인형 옷 B를 입고 있는 장면이 표시될 수 있다.Next, the first user may input the text to be conveyed to the second user using his terminal device 300 as an additional object to be displayed in combination with the virtual object corresponding to the doll A. In this case, the doll The virtual object corresponding to the doll A and the additional object corresponding to the text input by the first user may be displayed on the screen of the terminal device 300 of the second user photographing A. That is, the second user can receive the message from the first user via the doll A. For another example, suppose that the first user delivers a visual object called doll clothes B to the second user as an additional object to be included in the message while the first user delivers the doll A, which is a real world object, to the second user. In this case, a scene of doll A wearing doll clothes B may be displayed on the screen of the terminal device 300 of the second user photographing doll A, which is a real world object.
한편, 제1 사용자는 자신의 단말 장치(300)를 이용하여 인형 A에 대응되는 가상 객체와 결합되어 표시될 다양한 부가 객체를 지속적으로 입력, 수정 또는 삭제할 수 있으며, 이에 따라 제2 사용자의 단말 장치(300) 상에서 인형 A에 대응되는 가상 객체와 결합되어 표시되는 부가 객체가 업데이트될 수 있다.Meanwhile, the first user may continuously input, modify or delete various additional objects to be displayed in combination with the virtual object corresponding to the doll A by using the terminal device 300 of the user. The additional object displayed in combination with the virtual object corresponding to the doll A on 300 may be updated.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present invention has been described by specific embodiments such as specific components and the like, but the embodiments and the drawings are provided to assist in a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations can be made from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.

Claims (11)

  1. 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법으로서,A method for generating a message comprising a virtual space and a virtual object, the method comprising:
    (a) 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 단계,(a) generating a virtual space corresponding to the real world space in the real world image by performing 3D spatial recognition and 3D mapping on a real world image input from a camera;
    (b) 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 단계, 및(b) generating a virtual object corresponding to the real world object in the real world image by performing 3D object recognition and 3D mapping on the real world image, and
    (c) 사용자에 의하여 입력되는 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 메시지를 생성하는 단계(c) generating a message by dynamically combining the additional object input by the user with at least one of the virtual space and the virtual object.
    를 포함하는 방법.How to include.
  2. 제1항에 있어서,The method of claim 1,
    상기 (c) 단계에서,In the step (c),
    상기 부가 객체에는, 상기 가상 공간 또는 상기 가상 객체와 결합될 수 있는 시각 효과를 포함하는 비주얼(visual) 객체, 상기 가상 공간 또는 상기 가상 객체와 결합될 수 있는 음향 효과를 포함하는 오디오 객체, 상기 메시지를 보내는 사용자에 의하여 입력되는 텍스트를 포함하는 텍스트 객체 및 상기 메시지를 받는 사용자가 활용할 수 있는 혜택 정보를 포함하는 혜택 객체 중 적어도 하나가 포함되는 방법.The additional object may include a visual object including a visual effect that may be combined with the virtual space or the virtual object, an audio object that includes a sound effect that may be combined with the virtual space or the virtual object, and the message. And at least one of a text object including text input by a user sending the benefit object and a benefit object including benefit information available to the user receiving the message.
  3. 제1항에 있어서,The method of claim 1,
    상기 (c) 단계에서,In the step (c),
    상기 부가 객체에 상기 비주얼 객체가 포함되는 경우에, 상기 사용자가 상기 비주얼 객체의 본체, 모션, 이동 경로 및 음향 효과 중 적어도 하나를 편집할 수 있도록 지원하는 사용자 인터페이스를 제공하는 방법.And when the visual object is included in the additional object, providing a user interface for allowing the user to edit at least one of a body, a motion, a movement path, and a sound effect of the visual object.
  4. 제2항에 있어서,The method of claim 2,
    상기 (c) 단계에서,In the step (c),
    상기 부가 객체에 상기 텍스트 객체가 포함되는 경우에, 상기 텍스트 객체를 상기 가상 객체가 말하는 대사의 형태로 상기 가상 객체와 결합하는 방법.Combining the text object with the virtual object in the form of dialogue spoken by the virtual object when the text object is included in the additional object.
  5. 제1항에 있어서,The method of claim 1,
    상기 가상 공간, 상기 가상 객체, 상기 부가 객체 및 상기 메시지 중 적어도 하나는 재사용될 수 있는 상태로 저장되는 방법.At least one of the virtual space, the virtual object, the additional object, and the message is stored in a reusable state.
  6. 제1항에 있어서,The method of claim 1,
    (d) 상기 생성된 메시지가 적어도 하나의 다른 사용자에게 전달되도록 하는 단계(d) causing the generated message to be delivered to at least one other user
    를 더 포함하는 방법.How to include more.
  7. 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법으로서,A method for generating a message comprising a virtual space and a virtual object, the method comprising:
    (a) 제1 사용자의 단말 장치의 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 단계,(a) 3D space recognition and 3D mapping are performed on a real world image input from a camera of a terminal device of a first user to create a virtual space corresponding to the real world space in the real world image. Generating step,
    (b) 상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 단계, 및(b) generating a virtual object corresponding to the real world object in the real world image by performing 3D object recognition and 3D mapping on the real world image, and
    (c) 제2 사용자의 단말 장치에 의하여 상기 실세계 객체와 연관되어 입력된 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 상기 제1 사용자의 단말 장치 상에서 제공되는 메시지를 생성하는 단계(c) generating a message provided on the terminal device of the first user by dynamically combining the additional object input in association with the real world object by at least one of the virtual space and the virtual object by the terminal device of the second user; Steps to
    를 포함하는 방법.How to include.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 (c) 단계에서,In the step (c),
    상기 부가 객체에는, 상기 가상 공간 또는 상기 가상 객체와 결합될 수 있는 시각 효과를 포함하는 비주얼 객체, 상기 가상 공간 또는 상기 가상 객체와 결합될 수 있는 음향 효과를 포함하는 오디오 객체, 상기 제2 사용자에 의하여 입력되는 텍스트를 포함하는 텍스트 객체 및 상기 상기 제2 사용자에 의하여 입력되고 상기 제1 사용자가 활용할 수 있는 혜택 정보를 포함하는 혜택 객체 중 적어도 하나가 포함되는 방법.The additional object may include a visual object including a visual effect that may be combined with the virtual space or the virtual object, an audio object that includes a sound effect that may be combined with the virtual space or the virtual object, and the second user. And at least one of a text object including text input by the user and a benefit object including the benefit information input by the second user and available to the first user.
  9. 제1항 내지 제8항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a computer program for executing the method according to any one of claims 1 to 8.
  10. 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 시스템으로서,A system for generating a message comprising a virtual space and a virtual object, the system comprising:
    카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 가상 공간 처리부,A virtual space processor configured to generate a virtual space corresponding to the real world space in the real world image by performing 3D space recognition and 3D mapping on a real world image input from a camera;
    상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 가상 객체 처리부, 및A virtual object processor configured to generate a virtual object corresponding to the real world object in the real world image by performing 3D object recognition and 3D mapping on the real world image;
    사용자에 의하여 입력되는 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 메시지를 생성하는 부가 객체 관리부Additional object management unit for generating a message by dynamically combining the additional object input by the user with at least one of the virtual space and the virtual object
    를 포함하는 시스템.System comprising.
  11. 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 시스템으로서,A system for generating a message comprising a virtual space and a virtual object, the system comprising:
    제1 사용자의 단말 장치의 카메라로부터 입력되는 실세계(real world) 영상에 대하여 3D 공간 인식 및 3D 매핑(mapping)을 수행하여 상기 실세계 영상 내의 실세계 공간에 대응되는 가상 공간(virtual space)을 생성하는 가상 공간 처리부,Virtual to generate a virtual space corresponding to the real world space in the real world image by performing 3D space recognition and 3D mapping on a real world image input from a camera of the terminal device of the first user Space Processing Unit,
    상기 실세계 영상에 대하여 3D 객체 인식 및 3D 매핑을 수행하여 상기 실세계 영상 내의 실세계 객체에 대응되는 가상 객체(virtual object)를 생성하는 가상 객체 처리부, 및A virtual object processor configured to generate a virtual object corresponding to the real world object in the real world image by performing 3D object recognition and 3D mapping on the real world image;
    제2 사용자의 단말 장치에 의하여 상기 실세계 객체와 연관되어 입력된 부가 객체를 상기 가상 공간 및 상기 가상 객체 중 적어도 하나와 동적으로 결합함으로써 상기 제1 사용자의 단말 장치 상에서 제공되는 메시지를 생성하는 부가 객체 관리부The additional object generating a message provided on the terminal device of the first user by dynamically combining the additional object input in association with the real world object by at least one of the virtual space and the virtual object by the terminal device of the second user. Management
    를 포함하는 시스템.System comprising.
PCT/KR2015/010396 2014-10-01 2015-10-01 Method and system for generating message including virtual space and virtual object, and computer-readable recording medium WO2016053029A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0132684 2014-10-01
KR1020140132684A KR101659066B1 (en) 2014-10-01 2014-10-01 Method, system and computer-readable recording medium for creating message containing virtual space and virtual object

Publications (1)

Publication Number Publication Date
WO2016053029A1 true WO2016053029A1 (en) 2016-04-07

Family

ID=55630975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/010396 WO2016053029A1 (en) 2014-10-01 2015-10-01 Method and system for generating message including virtual space and virtual object, and computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR101659066B1 (en)
WO (1) WO2016053029A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019546A1 (en) * 2020-07-23 2022-01-27 삼성전자주식회사 Method and electronic device for generating partial virtual models of objects
KR102445745B1 (en) * 2022-05-26 2022-09-21 (주)커넥 Method, device and computer-readable recording medium for providing character-based payment service using metaverse
KR102639050B1 (en) * 2022-09-27 2024-02-21 주식회사 브로즈 Vr image content providing ststem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100677502B1 (en) * 2006-01-13 2007-02-02 엘지전자 주식회사 Message composing method in mobile communication terminal based on augmented reality and its mobile communication terminal
KR20120017329A (en) * 2010-08-18 2012-02-28 엘지전자 주식회사 Method for transmitting information and mobile terminal using this method
KR20120087259A (en) * 2010-12-20 2012-08-07 최현옥 Social network system using augmented reality
KR20130029683A (en) * 2011-09-15 2013-03-25 주식회사 팬택 Mobile terminal, server and method for forming communication channel using augmented reality
KR20140071086A (en) * 2012-12-03 2014-06-11 삼성전자주식회사 Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092774B2 (en) * 2012-09-14 2015-07-28 William BECOREST Augmented reality messaging system and method based on multi-factor recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100677502B1 (en) * 2006-01-13 2007-02-02 엘지전자 주식회사 Message composing method in mobile communication terminal based on augmented reality and its mobile communication terminal
KR20120017329A (en) * 2010-08-18 2012-02-28 엘지전자 주식회사 Method for transmitting information and mobile terminal using this method
KR20120087259A (en) * 2010-12-20 2012-08-07 최현옥 Social network system using augmented reality
KR20130029683A (en) * 2011-09-15 2013-03-25 주식회사 팬택 Mobile terminal, server and method for forming communication channel using augmented reality
KR20140071086A (en) * 2012-12-03 2014-06-11 삼성전자주식회사 Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof

Also Published As

Publication number Publication date
KR20160039776A (en) 2016-04-12
KR101659066B1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
US11557075B2 (en) Body pose estimation
US10567449B2 (en) Apparatuses, methods and systems for sharing virtual elements
US20210146255A1 (en) Emoji-based communications derived from facial features during game play
WO2016165615A1 (en) Expression specific animation loading method in real-time video and electronic device
US11594025B2 (en) Skeletal tracking using previous frames
JP6782846B2 (en) Collaborative manipulation of objects in virtual reality
US10084986B2 (en) System and method for video call using augmented reality
CN106462407A (en) Code service for language-independent dispatch
WO2016117962A1 (en) Method and user terminal for providing hologram image-based message service, and hologram image display device
WO2016053029A1 (en) Method and system for generating message including virtual space and virtual object, and computer-readable recording medium
US20230164298A1 (en) Generating and modifying video calling and extended-reality environment applications
CN104509095B (en) Cooperative surroundings and view
WO2021187646A1 (en) Method and system for conducting conference by using avatar
CN109165072A (en) A kind of expression packet generation method and device
CN107070784A (en) A kind of 3D instant communicating systems based on WebGL and VR technologies
JP6721727B1 (en) Information processing apparatus control program, information processing apparatus control method, and information processing apparatus
WO2019124850A1 (en) Method and system for personifying and interacting with object
KR102248081B1 (en) Non-face-to-face universal remote platform providing system using avatar robot
WO2021187647A1 (en) Method and system for expressing avatar imitating user&#39;s motion in virtual space
Xu et al. Sharing augmented reality experience between hmd and non-hmd user
KR20210007931A (en) Real time VR service method through robot avatar
WO2024090935A1 (en) Method, system, and non-transitory computer-readable recording medium for supporting advertisement linked to metaverse platform
JP7162737B2 (en) Computer program, server device, terminal device, system and method
WO2021033666A1 (en) Electronic device, method, program, and system for identifier information inference using image recognition model
CN117899488A (en) Collision detection method and device for virtual character movement, electronic equipment and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15848093

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15848093

Country of ref document: EP

Kind code of ref document: A1