WO2011031026A2 - 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법 - Google Patents

배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법 Download PDF

Info

Publication number
WO2011031026A2
WO2011031026A2 PCT/KR2010/005824 KR2010005824W WO2011031026A2 WO 2011031026 A2 WO2011031026 A2 WO 2011031026A2 KR 2010005824 W KR2010005824 W KR 2010005824W WO 2011031026 A2 WO2011031026 A2 WO 2011031026A2
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
camera position
avatars
image
plane
Prior art date
Application number
PCT/KR2010/005824
Other languages
English (en)
French (fr)
Other versions
WO2011031026A3 (ko
Inventor
진세형
Original Assignee
(주)트라이디커뮤니케이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트라이디커뮤니케이션 filed Critical (주)트라이디커뮤니케이션
Priority to US13/147,122 priority Critical patent/US20110285703A1/en
Publication of WO2011031026A2 publication Critical patent/WO2011031026A2/ko
Publication of WO2011031026A3 publication Critical patent/WO2011031026A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Definitions

  • the present invention relates to a system and method for providing a 3D image including a 3D avatar on a screen.
  • 3D graphics technology is used in various fields.
  • 3D graphics technology is used to provide more realistic images in services such as games and online communities.
  • a modeled 3D object is positioned in a 3D virtual space, and the screen when the 3D virtual space is viewed in a specific view is rendered as a 2D image.
  • the display device capable of displaying a 2D image may be implemented to feel as if the image is viewed in 3D.
  • a 3D object to be positioned in a 3D virtual space needs to be modeled, but it takes a lot of time and money to model more closely to a real world.
  • the present invention can provide a system and method for providing a realistic three-dimensional image.
  • the present invention can provide a system and method for providing a more realistic background while providing a 3D avatar service.
  • the present invention can provide a system and method for providing a service that allows an avatar to move in the background of a real living space without modeling a background of an actual building.
  • the present invention provides a system and method for providing a screen such as a three-dimensional image by mapping two-dimensional image data on the inner surface of the three-dimensional object and providing a three-dimensional image with an inner view of the three-dimensional object. Can provide.
  • the 3D avatar service providing system stores image data storing two-dimensional image data photographed at a plurality of camera positions and coordinate information of each camera position on an XY plane in correspondence with the camera position. And an avatar position storage unit for storing coordinate information on the XY plane of one or more three-dimensional avatars, positioning a three-dimensional object to have a center on the coordinates of the camera position, and positioning the three-dimensional object on the inner surface of the three-dimensional object. Map the corresponding 2D image data, position the 3D avatars on the XY plane based on the coordinate information of the 3D avatars, and then create a 3D image having the center of the 3D object as a viewpoint.
  • 3D image providing module receives avatar movement command or screen rotation command from user And a controller for moving the user's avatar on the XY plane according to the command receiving unit and the avatar moving command, and rotating the angle of the screen provided at the viewpoint according to the screen rotating command.
  • the controller checks whether the user's avatar is out of the first area centered on the coordinates of the camera position on the XY plane, and if the user's avatar is out of the first area,
  • the 3D image providing module may be controlled to provide the 3D image using 2D image data corresponding to a camera position closest to the avatar.
  • the 3D image providing module may display only avatars among the plurality of avatars existing in the second area centered on the coordinates of the camera position on the XY plane.
  • the center of the three-dimensional object may be located at a position away from the XY plane by the height of the camera position in the Z-axis direction.
  • the 3D image providing module may first display a 3D object to which the 2D image data is mapped and then display the 3D avatars.
  • the 3D image providing module may adjust the sizes of the respective 3D avatars according to the distance between the coordinates of the camera position and the coordinates of the 3D avatars.
  • the three-dimensional object may be in the form of a sphere.
  • a method of providing a 3D avatar service includes storing two-dimensional image data photographed at a plurality of camera positions and coordinate information of each camera position on an XY plane in correspondence with the camera position. Storing coordinate information on the XY plane of the three-dimensional avatar, positioning a three-dimensional object to have a center on the coordinate of the camera position, and a two-dimensional image corresponding to the camera position on the inner surface of the three-dimensional object.
  • Mapping data positioning the 3D avatars on the XY plane based on the coordinate information of the 3D avatars, providing a 3D image having the center of the 3D object as a viewpoint; Receiving an avatar moving command and a screen rotating command from a user and the avatar moving command And moving the user's avatar on the XY plane and changing the angle of the screen provided at the viewpoint according to the screen rotation command.
  • the 3D avatar service providing method may include checking whether the avatar of the user is out of a first area centered on the coordinates of the camera position on an XY plane, and the avatar of the user is configured to check the first area. In case of deviation, the method may further include providing the 3D image using 2D image data corresponding to a camera position closest to the user's avatar.
  • the center of the three-dimensional object may be located at a distance away from the XY plane by the height of the camera position in the Z-axis direction.
  • the size of each 3D avatar may be adjusted according to the distance between the coordinates of the camera position and the coordinates of the 3D avatars.
  • the three-dimensional object may be in the form of a sphere.
  • the present invention may include a computer-readable recording medium, characterized in that a program for executing the 3D avatar service providing method is recorded.
  • mapping two-dimensional image data on an inner surface of a three-dimensional object and providing a three-dimensional image with an internal viewpoint of the three-dimensional object there is an effect of providing a screen like a three-dimensional image without three-dimensional modeling.
  • FIG. 1 is a diagram schematically illustrating a 3D avatar service providing system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an internal configuration of a 3D avatar service providing system according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a camera area configured on an XY plane in the 3D avatar service providing system according to the present invention.
  • FIG. 4 is a diagram illustrating an example of an avatar display area configured on an XY plane in the 3D avatar service providing system according to the present invention.
  • FIG. 5 is a diagram illustrating an example of positioning a three-dimensional object on the XY plane in the three-dimensional avatar service providing system according to the present invention.
  • FIG. 6 is a diagram illustrating an example of a 3D image provided by a 3D avatar service providing system according to the present invention.
  • FIG. 7 is a diagram illustrating an example of a screen provided when an avatar moves in a 3D image provided by a 3D avatar service providing system according to the present invention.
  • FIG. 8 is a diagram illustrating another example of a 3D image provided by the 3D avatar service providing system according to the present invention.
  • FIG. 9 is a diagram illustrating an example of a screen provided when an avatar moves in a 3D image provided by a 3D avatar service providing system according to the present invention.
  • FIG. 10 is a flowchart illustrating a flow of a 3D avatar service providing method according to an embodiment of the present invention.
  • Avatar is a dictionary meaning an individual's personal incarnation or incarnation, and means a character in place of a user's role in cyberspace.
  • an avatar refers to a character that a user can manipulate through a command in a three-dimensional virtual space, and may generally mean a character used to represent a user in an online community or the like. It may mean a character to say.
  • the avatar is used to mean a character that can be manipulated by a user in a 3D virtual space.
  • FIG. 1 is a diagram schematically illustrating a 3D avatar service providing system according to an embodiment of the present invention.
  • the three-dimensional avatar service providing system 101 can be applied to the terminal that can be connected to the server 102 via the communication network 103 can be configured.
  • the terminal to which the 3D avatar service providing system 101 is applied may be configured in the form of a personal computer as shown in the figure, or may be applied to various portable terminals such as a mobile phone, a PDA, and a PMP.
  • the 3D avatar service providing system 101 may be applied to various types of terminals capable of performing arithmetic processing by including a CPU and a memory device.
  • the terminal to which the 3D avatar service providing system 101 is applied is preferably configured as a terminal having a 3D acceleration function.
  • the server 102 may store information about an avatar and a background screen of a plurality of members including a user and provide the same to a terminal device of each member.
  • the information about the avatar may include information about a shape, an item, and the like of the avatar, and may include information indicating a location of the avatar in the virtual space.
  • the information about the background screen may include information on the 2D image data indicating the background at a predetermined position, the information about the avatar and the information about the background screen is stored in the server 102
  • the terminal may be delivered to the terminal at the request of the terminal.
  • each terminal device stores the information about the avatar and the background screen information received from the server 102 in a storage device such as a hard disk, a memory, etc. included in the terminal device, by using the 3D avatar service to the user Can be provided.
  • the communication network 103 may transmit and receive data between the terminal on which the 3D avatar service providing system 101 is installed and the server 102, and generally may use an internet communication network.
  • a wired or wireless communication network may be applied according to the type of the terminal, and any type of communication network may be used as long as the communication network is capable of transmitting and receiving the above-described information about the avatar or the background screen.
  • the 3D avatar service providing system 101 may be configured in a form distributed in a terminal and a server.
  • the server may be distributed in one or a plurality of physical servers.
  • FIG. 2 is a diagram illustrating an internal configuration of a 3D avatar service providing system according to an embodiment of the present invention.
  • the 3D avatar service providing system 101 of the present invention includes an image data storage 210, an avatar position storage 220, a 3D video providing module 230, and a command receiver 240. And a controller 250.
  • the above components may be implemented in the form of software, hardware or a combination of software and hardware, and may be configured to be physically or logically connected to each other to exchange data.
  • the above components may be included in one physical terminal while configuring the 3D avatar service providing system 101, and functions may be distributed in a server and a terminal and may be connected to each other through a communication network.
  • the components will be described in detail.
  • the image data storage unit 210 stores two-dimensional image data photographed at at least one camera position and coordinate information of each camera position on the XY plane in correspondence with the camera position.
  • the system for providing a 3D avatar service according to the present invention configures a background of a 3D space by using a 2D image photographed in all directions 360 degrees at one or more camera positions, thereby providing a realistic 3D image without modeling a separate background. To make it available to the user.
  • the image data storage unit 210 may process and store 2D image data in all directions about the camera position photographed from at least one camera position so as to easily map to the 3D image.
  • the backgrounds of the plurality of camera positions should be provided to the user, information indicating each camera position and the two-dimensional image photographed at the camera position are stored in correspondence with each other so that the user wants to view the image at a specific camera position.
  • two-dimensional image data corresponding to the image may be used.
  • Information about the camera position stored in the image data storage unit 210 is information indicating a place where the actual camera was photographed, and the information of the camera photographed when the actual map was composed of planar coordinates to indicate the position on the actual road or the like.
  • the location may be represented by coordinates.
  • the XY plane refers to a plane represented by the map when the actual map is represented as a plane and the coordinates are substituted thereto, and may represent a plane corresponding to land in the real world. Therefore, when the camera position is set based on the XY plane and the avatar position is set, the camera can be expected to exist on the ground in the real world and the effect of making the avatar feel the same.
  • the XY plane does not necessarily mean a plane formed by the X-axis and the Y-axis in three-dimensional space, and for easier explanation, a plane corresponding to the land of the real world is called an XY plane
  • the axis representing the height in the world is only composed of the Z axis, and various other variations may be possible.
  • the image data storage 210 may use various storage devices such as a hard disk, an optical disk, and a volatile / nonvolatile memory to store two-dimensional image data corresponding to camera positions.
  • various commercial databases such as Oracle, Ms-SQL, and My-SQL can be used to store information representing the relationship between the two-dimensional image data and the camera position. In this case, it is difficult to store the two-dimensional image data in the database.
  • the storage device may store information indicating an address at which 2D image data is stored in a database and apply the same to a camera position. This is just an example, and may be modified in various forms, and may be in any form as long as the camera position and the two-dimensional image data are correspondingly stored.
  • the image data storage unit 210 may store two-dimensional image data corresponding to all camera positions that can be provided by the three-dimensional avatar service providing system 101 according to the present invention, or two-dimensional images corresponding to a plurality of camera positions. Only data of one or more parts of the data may be stored. Accordingly, the server 102 stores the 2D image data corresponding to all camera positions, and the 3D avatar service providing system 101 requests the 2D image data corresponding to the required camera position through the communication network 102. In response to this, it is possible to temporarily store two-dimensional image data transmitted in a storage device such as a memory or a hard disk and construct a three-dimensional image based on the two-dimensional image data.
  • a storage device such as a memory or a hard disk
  • the avatar position storage unit 220 stores coordinate information on the XY plane of one or more 3D avatars.
  • the XY plane in the present invention means a plane corresponding to the ground in the real world.
  • the coordinate information on the XY plane may be configured in the form of (x, y), and may be expressed by storing a value representing coordinates on the X axis and a value representing coordinates on the Y axis, respectively.
  • X and Y in the coordinates at this time are for convenience of explanation and various modifications are possible.
  • the avatar location storage unit 220 may also store location information of the avatar using various storage devices such as a hard disk, an optical disk, and a volatile / nonvolatile memory.
  • various storage devices such as a hard disk, an optical disk, and a volatile / nonvolatile memory.
  • one or more avatars and coordinate information on the XY plane of each avatar may be stored using various commercial databases such as Oracle, Ms-SQL, and My-SQL.
  • the avatar location storage unit 220 may store location information of avatars of all members of the 3D avatar service providing system 101 or only location information of some avatars.
  • the avatar position storage unit 220 includes only information on the position of the avatar included within a predetermined range around the currently displayed camera position, such as a memory or a hard disk. It may be temporarily stored in the storage device of, and when the location of each avatar is changed or the camera location is changed, avatar location information may be received and updated from the server 102 which stores the location information of all avatars. In order to achieve such a configuration, the server 102 needs to receive and store information on the positional movement of the avatar from the terminals connected to the server 102.
  • the 3D image providing module 230 positions the 3D object to have a center on the coordinates of the camera position, and maps the 2D image data corresponding to the camera position on the inner surface of the 3D object.
  • the viewpoint inside the user sees the inner surface of the 3D object surrounding the viewpoint no matter how the eye is turned, so that the image with the 2D image mapped on the inner surface is provided.
  • the three-dimensional object set in the three-dimensional image providing module 230 is configured in the form of a sphere, it is possible to position the two-dimensional image image of the background at the same distance for all angles when viewed from the center.
  • in order to facilitate shooting and mapping may have a cube shape.
  • the center of the 3D object may be located on the coordinates of the camera position on the XY plane, but the center of the 3D object may be located on the XY plane, but is spaced apart by a predetermined height in the Z-axis direction on the XY plane. It is preferred that the center is located. This is to place the camera as close as possible to the actual camera, since the shooting is done by placing the camera on the ground or about the height of a person when shooting with the camera in real life. . Therefore, it is preferable to configure the center of the three-dimensional object is located in the XY plane in the Z-axis direction spaced apart by the height of the actual camera position.
  • the 3D object since the inside of the 3D object should be the background of all avatars displayed on the screen, it is preferable that the 3D object has a size that can cover a somewhat wider range than the area where the avatars displayed on the screen can be located.
  • the 3D image providing module 230 positions the 3D avatars on the XY plane based on the coordinate information of the 3D avatars. As described above, by positioning the 3D avatars on the XY plane which is a plane corresponding to the real land, an effect of providing the user with a screen such as an avatar on the real land can be expected.
  • the avatars disposed and provided in the 3D space in the 3D image providing module 230 may be avatars included in a predetermined area centered on the coordinates of the camera position. It is desirable to allow as many avatars as possible to meet in space in order to allow users to interact smoothly with other users. However, as described above, the inner image of the 3D object should always be the background of the 3D avatars. Therefore, it may be desirable not to display avatars existing in positions outside the 3D object on the screen. Therefore, the present invention may be configured to set an area around the camera position and display only avatars having coordinates in the area.
  • the 3D image providing module 230 displays the 3D object first on the screen, and then displays the 3D avatars thereafter, so that the 3D avatars that are always displayed are displayed in front of the 3D object. It is also possible to implement.
  • the avatars may be sized according to the distance between the coordinates of the camera position and the coordinates of the respective avatars, so that the avatars can be sensed as if in reality.
  • the 3D image providing module 230 provides a user with a 3D image having a center of the 3D object as a viewpoint in the 3D space configured as above through a display screen.
  • the center of the three-dimensional object corresponds to the position of the camera that actually photographed the background image. Therefore, the user can manipulate his avatar with the background of the same screen as looking around at the actual camera position.
  • the terminal in which the 3D avatar service providing system 101 is configured to render the virtual 3D space in the 3D image providing module 230 and provide the 3D image on the 2D display screen is 3 It can be configured to include a dimensional acceleration function.
  • the 3D image providing module 230 may receive information about a position movement of another user's avatar when the avatar of the user moves, the viewpoint of the user rotates, or the like.
  • the avatar may move in the space and the screen may be rotated.
  • the command receiving unit 240 receives an avatar moving command or a screen rotating command from the user.
  • the position, operation, etc. of the avatar can be manipulated according to a user's command.
  • the command receiving unit 240 receives an avatar moving command from the user.
  • the terminal to which the 3D avatar service providing system 101 is applied may include a user interface such as a mouse, a keyboard, and a touch screen.
  • the screen rotation command is also used to provide a 3D avatar service at various times, and can be received using the above-described user interface.
  • the command receiving unit 240 may further receive a command for changing the operation of the avatar or a zoom-in / zoom-out command.
  • the present invention may be further provided by the additionally provided functions. This is not limited.
  • the controller 250 moves the user's avatar on the XY plane according to the avatar moving command, and rotates the angle of the screen provided at the viewpoint according to the screen rotating command.
  • the controller 250 controls the three-dimensional according to the user's command.
  • the image providing module may be controlled to provide a 3D image according to a corresponding command to the display device.
  • the controller 250 checks whether the avatar is out of the first area centered on the camera position on the XY plane, and when the avatar is out of the first area, the controller 250 corresponds to the position closest to the avatar of the user.
  • the 3D image providing module 230 may be controlled to provide the 3D image using 2D image data. Through such a configuration, as the avatar moves in position, the 3D image may be provided using a background image shown at a camera position nearest to the user's avatar at all times.
  • the area checked by the controller 250 is configured in a square shape with respect to the camera position, and is configured in the form of a checkerboard as a whole, and the image is obtained by using a camera position located at the center of the area whenever crossing each area. It is possible to make the configuration. In addition, it is also possible to set up to another adjacent camera position as an area so that the camera position is moved only when the adjacent camera position is exceeded. With this implementation, it is possible for the camera to continue to present the screen in the same direction when the user's avatar moves in one direction.
  • the screen opposite to the direction of the viewpoint of the existing camera must be provided.
  • the avatar will be displayed on the screen.
  • an image is provided at another adjacent camera position after passing another adjacent camera position, the image can be provided in the same direction as at the existing camera position, thereby providing a more natural image.
  • FIG. 3 is a diagram illustrating an example of a camera area configured on an XY plane in the three-dimensional avatar service providing system 101 according to the present invention.
  • a specific area is set as the camera area 301 based on one camera location 310, and when the user's avatar 320 exists in the area, While providing the 3D image to the user, as shown in the figure, when the user's avatar 320 moves to another area, the 3D image may be provided by using a camera position located at the center of the moved area.
  • each camera area is set using a plurality of camera positions, the avatar can move freely, and when the avatar leaves the current area, a 3D image is provided using the camera position located at the center of the new area.
  • the camera area may be configured to overlap with the adjacent camera area, and the camera area surrounding each camera location may be set so that the checker board does not overlap with each other. It is also possible to configure in the form.
  • the size of the camera area can be determined according to the distance between each adjacent camera position, the distance between each camera position is determined according to the distance between the camera position taken in the real world. If the distance between adjacent camera positions is short, the most suitable background image can be provided at the position of the avatar, so that a more detailed description can be provided, while the change of the background scene can be frequently failed to provide a stable screen. If the distance is long, the opposite may be true. Therefore, it is preferable to shoot while maintaining the distance between camera positions appropriately.
  • FIG. 4 is a diagram illustrating an example of an avatar display area configured on an XY plane in the three-dimensional avatar service providing system 101 according to the present invention.
  • the 3D avatar service providing system 101 As described above, in the 3D avatar service providing system 101 according to the present invention, not only the user's avatar but also the avatar of other members is displayed, so that the user can exchange the avatar using the avatar. In this case, since the avatars of all users connected to the 3D avatar service providing system 101 cannot be displayed on the screen, only avatars located within a predetermined range are displayed.
  • the user's avatar 320 is displayed based on the camera position 310. As shown in FIG. 3, while the user's avatar 320 is present in the camera area 301, the camera position ( An image centered at 310 is provided. At this time, the avatar display area 401 centered on the camera position 310 may be set, and only the avatars included in the avatar display area 401 may be displayed on the screen.
  • avatars existing at positions 330, 340, and 350 are included in the image and displayed, and avatars existing at positions 360 and 370 are not included in the image.
  • a new avatar display area is set based on the camera position forming the center of the camera area, and the avatar included in the area is displayed.
  • the avatar display area 401 is shown as a rectangle. However, the avatar display area 401 may have a circular area, and other modifications may be made.
  • the avatars 330, 340, and 350 of other users located near the user's avatar 320 may be checked and exchanged on the screen, and the avatars may be separated from the avatar display area 401.
  • the image since the image is located farther than the background displayed on the screen, it may be displayed only when the distance moves closer to the direction in which the avatar is present.
  • FIG. 5 is a diagram illustrating an example of positioning a three-dimensional object on the XY plane in the three-dimensional avatar service providing system according to the present invention.
  • the three-dimensional objects 502 and 503 are positioned to have a center 510 above the coordinates of the camera position 310 in the XY plane 501.
  • the center 510 of the 3D object is located at a position spaced apart from the camera position 310 by the height of the camera position in the Z-axis direction.
  • the center 510 of the 3D object is positioned as high as the height of the camera position, an effect of providing an image such as looking around the background at the same height as the height photographed by the actual camera may be obtained.
  • the three-dimensional object may have the shape of a sphere as shown in (a), or may have the shape of a cube as shown in (b).
  • it can have a variety of shapes, it is necessary to take a picture and edit the image so that it can be mapped to the shape to be implemented to provide a screen like a real reality.
  • the avatar display area 401 is preferably limited to a range that does not exceed the three-dimensional objects 502 and 503, in which the present invention maps a background image to the inner surface of the three-dimensional objects 502 and 503. This is because the viewpoint exists within it. If the avatar display area 401 has an area beyond the three-dimensional objects 502 and 503, even the avatar that is farther than the part indicated by the background is displayed in front of the background, thereby providing a distorted image unlike reality. In order to prevent this, it is preferable that the avatar display area 401 does not leave the 3D objects 502 and 503.
  • FIGS. 6 to 9 are diagrams showing an example of a three-dimensional image provided by the three-dimensional avatar service providing system according to the present invention.
  • FIG. 6 illustrates an image in which a user's avatar 601 and other members' avatars provided by the 3D avatar service providing system 101 according to an embodiment of the present invention feel as if they exist on a road in the real world. It is. 7 illustrates a screen displayed when the user's avatar 601 moves to the far side on the same screen.
  • the avatar can freely move within the 3D virtual space according to a user's command, and by representing the real world as a background, the avatar can feel like moving in the real world.
  • the user's avatar 701 is located far from the camera position, as shown in FIG.
  • FIGS. 8 and 9 are images provided at a camera position as shown in FIGS. 6 and 7 so that only the direction of the provided images is changed according to a user's command.
  • the user can look around the camera position as in the real world, and can check his avatar at a desired angle and move the avatar.
  • FIG. 9 illustrates an image when the user's avatar 601 moves to a distant place as in the case of FIG. 7.
  • FIG. 10 is a flowchart illustrating a flow of a 3D avatar service providing method according to an embodiment of the present invention.
  • the 3D avatar service providing method according to the present invention is not limited only to the description of FIG. 10, and all of the above-described configurations of the 3D avatar service providing system 101 may be applied, and various other modifications are possible.
  • step S1001 two-dimensional image data photographed at one or more camera positions and coordinate information of each camera position on the XY plane are stored in correspondence with the camera position.
  • the coordinate information of the 2D image data and the camera position may be 2D image and coordinate information of all the camera positions that can be provided by the 3D avatar service providing method 101, and correspond to the currently displayed camera position. It may be to store only information temporarily.
  • the 2D image data corresponding to the currently displayed camera position and the coordinate information of the camera position the 2D image data and the camera corresponding to the new camera position are requested by the server 102 when the camera position is moved.
  • the coordinate information of the position can be received and stored.
  • the XY plane means a plane represented by the map when the actual map is represented as a plane and the coordinates are assigned thereto, and the plane may correspond to the ground in the real world.
  • step S1002 coordinate information of the one or more three-dimensional avatars on the XY plane is stored.
  • the coordinate information on the XY plane may be configured in the form of (x, y), and may be expressed by storing a value representing coordinates on the X axis and a value representing coordinates on the Y axis, respectively.
  • the position information of all the avatars that can be provided in the 3D avatar service providing method according to the present invention may be stored, or only the position information of some avatars may be stored.
  • a storage device such as a memory or a hard disk
  • the location of each avatar is changed or the camera position is changed. It is also possible to configure in such a manner that receives and updates the avatar location information from the server 102, which stores the location information of all avatars.
  • the 3D object is positioned to have a center on the coordinate of the camera position.
  • the 3D object may have a shape such as a sphere or a cube, and the center of the 3D object may be positioned to be spaced apart by a height of a camera position in the Z-axis direction from the XY plane.
  • 2D image data corresponding to the camera position is mapped onto an inner surface of the 3D object.
  • the 3D avatars are positioned on the XY plane based on the coordinate information of the 3D avatars.
  • the positioned avatars may be avatars included within a range of a predetermined range from the camera position.
  • a 3D image is provided with the center of the 3D object as a viewpoint.
  • the 3D image may be generated by rendering a virtual 3D space to be displayed on a 2D display screen.
  • the center of the three-dimensional object is the viewpoint, the user can obtain an effect such as looking around at the position of the camera.
  • step S1007 an avatar moving command and a screen rotating command are received from the user.
  • the avatar move command and the screen rotation command can be executed through a user interface such as a keyboard, a mouse, and a touch screen. Need to receive
  • step S1008 the avatar of the user is moved on the XY plane according to the avatar moving command, and the angle of the screen provided at the viewpoint is changed according to the screen rotating command.
  • the user can freely manipulate the avatar by moving the avatar and rotating the screen according to the user's command.
  • a new 3D image is composed and provided to the user based on the camera position closest to the user's avatar, whereby the user's avatar is located in the plurality of camera positions. While moving freely in a large virtual space consisting of a, it is possible to obtain the effect of always using the background photographed by a camera of a close position.
  • 3D avatar service providing method is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

실제로 존재하는 장면을 배경으로 아바타 서비스를 제공할 수 있도록 하는 시스템 및 방법이 제공된다. 본 발명은 2차원의 이미지를 배경으로 하여 3차원 아바타 서비스를 제공하면서, 2차원 배경 이미지가 마치 3차원 공간으로 구현된 것처럼 느껴지게 함으로써, 별도의 3차원 렌더링 과정 없이도 카메라로 촬영한 2차원 이미지만으로 실제 3차원 공간 속에 아바타가 존재하는 것과 같은 현실감을 제공한다.

Description

배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
본 발명은 화면 상에서 3차원 아바타를 포함하는 3차원 영상을 제공하는 시스템 및 방법에 관한 것이다.
최근 3차원 그래픽스 기술과 컴퓨터 하드웨어의 발달로 인하여, 여러 분야에서 3차원 영상이 이용되고 있다. 특히, 게임이나 온라인 커뮤니티 등의 서비스에서는 보다 현실감 있는 영상을 제공하기 위하여 3차원 그래픽스 기술이 사용되고 있다.
3차원 영상을 제공하기 위해서는 3차원의 가상 공간 상에 모델링 된 3차원 오브젝트(Object)를 위치시키고, 특정 시점에서 상기 3차원의 가상 공간을 바라보았을 때의 화면을 2차원 영상으로 렌더링 하여 제공한다. 이를 통하여, 2차원 영상을 표시할 수 있는 디스플레이 장치에서 3차원으로 영상을 보는 것처럼 느끼도록 구현할 수 있다.
이와 같이, 3차원 영상을 제공하기 위해서는 3차원의 가상 공간 상에 위치시킬 3차원 오브젝트를 모델링 해야 하는데, 보다 실제 현실과 가깝게 모델링 하기 위해서는 많은 시간과 비용이 소요된다.
한편, 최근 가상 현실의 개념으로 온라인상에서 타인과 교류하는 서비스가 많아지면서, 보다 현실감 있는 공간에서 타인과 교류하고자 하는 욕구가 늘어나고, 단순한 3차원 영상이 아니라, 보다 구체적인 배경이 묘사되는 3차원 영상이 요구되고 있다. 특히, 실제 현실과 마찬가지로 실제 거리, 빌딩 속 등의 공간을 3차원 영상으로 구성하여 보다 사실에 가까운 영상을 이용하고자 하는 사용자가 늘고 있다.
종래의 기술에 따르면, 실제 건물 또는 다양한 물건들을 각각 모델링 하여 제공해야 했기 때문에, 엄청난 시간과 비용이 요구되며, 이와 같은 모델링 과정을 통해서도 다소 간단한 오브젝트로 변환되기 때문에, 현실 세계와는 다소 차이가 느껴지는 문제점이 있었다.
따라서, 사용자에게 3차원 공간을 제공하면서, 모든 배경을 모델링 하지 않고도, 그 3차원 공간이 현실감 있는 배경을 가질 수 있도록 하는 시스템 및 방법이 요구된다.
본 발명은 현실감 있는 3차원 영상을 제공할 수 있도록 하는 시스템 및 방법을 제공할 수 있다.
본 발명은 3차원 아바타 서비스를 제공하면서 더욱 현실감 있는 배경을 제공할 수 있도록 하는 시스템 및 방법을 제공할 수 있다.
본 발명은 실제 건물 등의 배경을 모델링 하지 않고도 실제 생활 공간을 배경으로 아바타가 움직일 수 있는 서비스를 제공하는 시스템 및 방법을 제공할 수 있다.
본 발명은 3차원 오브젝트의 내면에 2차원 영상 데이터를 매핑하고 그 3차원 오브젝트의 내부 시점을 두어 3차원 영상을 제공함으로써, 3차원 모델링이 없이도 3차원 영상과 같은 화면을 제공하는 시스템 및 방법을 제공할 수 있다.
본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템은 복수의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY평면 상에서의 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장하는 영상 데이터 저장부, 하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장하는 아바타 위치 저장부, 상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시키고, 상기 3차원 오브젝트 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑하고, 상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시킨 후, 상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 제공하는 3차원 영상 제공 모듈, 사용자로부터 아바타 이동 명령 또는 화면 회전 명령을 수신하는 명령어 수신부 및 상기 아바타 이동 명령에 따라 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 회전시키는 제어부를 포함하여 구성될 수 있다.
이 때, 상기 제어부는 상기 사용자의 아바타가 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제1 영역을 벗어나는지 여부를 확인하고, 상기 사용자의 아바타가 상기 제1 영역을 벗어나는 경우, 상기 사용자의 아바타와 가장 가까운 카메라 위치에 대응되는 2차원 영상 데이터를 이용하여 상기 3차원 영상을 제공하도록 상기 3차원 영상 제공 모듈을 제어할 수 있다.
또한, 상기 3차원 영상 제공 모듈은 상기 복수의 아바타들 중에서 상기 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제2 영역 내부에 존재하는 아바타들 만을 표시할 수 있다.
또한, 상기 3차원 오브젝트의 중심은 상기 XY평면에서 Z축 방향으로 상기 카메라 위치의 높이만큼 떨어진 곳에 위치할 수 있다.
또한, 상기 3차원 영상 제공 모듈은 상기 2차원 영상 데이터가 매핑된 3차원 오브젝트를 먼저 표시한 후, 상기 3차원 아바타들을 표시할 수 있다.
또한, 상기 3차원 영상 제공 모듈은 상기 카메라 위치의 좌표 및 상기 3차원 아바타들의 좌표 사이의 거리에 따라서 상기 각각의 3차원 아바타들의 크기를 조절할 수 있다.
또한, 상기 3차원 오브젝트는 구의 형태일 수 있다.
본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 방법은 복수의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY평면 상에서의 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장하는 단계, 하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장하는 단계, 상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시키는 단계, 상기 3차원 오브젝트 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑하는 단계, 상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시키는 단계, 상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 제공하는 단계, 사용자로부터 아바타 이동 명령 및 화면 회전 명령을 수신하는 단계 및 상기 아바타 이동 명령에 따라 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 변경시키는 단계를 포함하여 구성될 수 있다.
이 때, 상기 3차원 아바타 서비스 제공 방법은 상기 사용자의 아바타가 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제1 영역을 벗어나는지 여부를 확인하는 단계 및 상기 사용자의 아바타가 상기 제1 영역을 벗어나는 경우, 상기 사용자의 아바타와 가장 가까운 카메라 위치에 대응되는 2차원 영상 데이터를 이용하여 상기 3차원 영상을 제공하는 단계를 더 포함할 수 있다.
또한, 상기 3차원 영상을 제공하는 단계는 상기 복수의 아바타들 중에서 상기 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제2 영역 내부에 존재하는 아바타들 만을 표시할 수 있다.
이 때, 상기 3차원 오브젝트의 중심은 상기 XY평면에서 Z축 방향으로 상기 카메라 위치의 높이만큼 떨어진 곳에 위치할 수 있다.
또한, 상기 3차원 아바타들을 위치시키는 단계는 상기 카메라 위치의 좌표 및 상기 3차원 아바타들의 좌표 사이의 거리에 따라서 상기 각각의 3차원 아바타들의 크기를 조절할 수 있다.
또한, 상기 3차원 오브젝트는 구의 형태일 수 있다.
그리고, 본 발명은 상기 3차원 아바타 서비스 제공 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다.
본 발명에 따르면 현실감 있는 3차원 영상을 제공할 수 있도록 하는 효과가 있다.
본 발명에 따르면 3차원 아바타 서비스를 제공하면서 더욱 현실감 있는 배경을 제공할 수 있도록 하는 효과가 있다.
본 발명에 따르면 실제 건물 등의 배경을 모델링 하지 않고도 실제 생활 공간을 배경으로 아바타가 움직일 수 있는 서비스를 제공하는 효과가 있다.
본 발명에 따르면 3차원 오브젝트의 내면에 2차원 영상 데이터를 매핑하고 그 3차원 오브젝트의 내부 시점을 두어 3차원 영상을 제공함으로써, 3차원 모델링이 없이도 3차원 영상과 같은 화면을 제공하는 효과가 있다.
도 1은 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템의 내부 구성을 도시하는 도면이다.
도 3은 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 XY평면 상에 구성되는 카메라 영역의 일례를 도시하는 도면이다.
도 4는 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 XY평면 상에 구성되는 아바타 표시 영역의 일례를 도시하는 도면이다.
도 5는 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 XY평면 위에 3차원 오브젝트를 위치시키는 것의 일례를 도시하는 도면이다.
도 6은 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 제공되는 3차원 영상의 일례를 도시하는 도면이다.
도 7은 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 제공되는 3차원 영상에서 아바타가 이동하는 경우에 제공되는 화면의 일례를 도시하는 도면이다.
도 8은 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 제공되는 3차원 영상의 다른 일례를 도시하는 도면이다.
도 9은 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 제공되는 3차원 영상에서 아바타가 이동하는 경우에 제공되는 화면의 일례를 도시하는 도면이다.
도 10은 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 방법의 흐름을 도시하는 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
101: 3차원 아바타 서비스 제공 시스템
210: 영상 데이터 저장부
220: 아바타 위치 저장부
230: 3차원 영상 제공 모듈
240: 명령어 수신부
250: 제어부
이하에서, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아바타(Avata)라 함은 사전적으로는 개인의 분신 또는 화신을 뜻하는 말로, 사이버공간에서 사용자의 역할을 대신하는 캐릭터를 의미한다. 본 발명에서 아바타는 3차원의 가상 공간 상에서 사용자가 명령을 통하여 조작할 수 있는 캐릭터를 의미하며, 일반적으로 온라인 커뮤니티 등에서 사용자를 나타내기 위하여 사용되는 캐릭터를 의미할 수도 있고, 온라인 게임에서 사용자가 조작하는 캐릭터를 의미하는 것일 수도 있다. 이처럼, 본 발명에서 아바타라고 하는 것은 3차원 가상 공간 상에서 사용자가 조작 가능한 캐릭터를 통칭하는 의미로 사용된다.
도 1은 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템을 개략적으로 도시하는 도면이다.
도면에 도시한 바와 같이, 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템(101)은 통신망(103)을 통하여 서버(102)와 연결될 수 있는 단말기에 적용되어 구성되는 것이 가능하다.
이 때 3차원 아바타 서비스 제공 시스템(101)이 적용되는 단말기는 도면에서와 같이 개인용 컴퓨터의 형태로 구성될 수도 있고, 휴대전화, PDA, PMP 등 다양한 휴대용 단말기들에 적용되는 것도 가능하다. 이와 같이 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템(101)은 중앙처리장치(CPU) 및 기억장치(메모리, Memory) 등을 구비하여 연산 처리가 가능한 다양한 형태의 단말기에 적용이 가능하며, 다만 원활한 3차원 영상의 제공을 위하여 3차원 아바타 서비스 제공 시스템(101)이 적용되는 단말기는 3차원 가속 기능을 갖춘 단말기로 구성되는 것이 바람직하다.
서버(102)는 사용자를 포함하는 복수의 회원들의 아바타에 관한 정보 및 배경 화면에 관한 정보를 저장하고, 이를 각 회원들의 단말 장치에 제공할 수 있다. 상기 아바타에 관한 정보는 아바타의 모양, 아이템 등에 관한 정보를 포함할 수 있으며, 아바타가 가상 공간 상에서 존재하는 위치를 나타내는 정보를 포함할 수 있다. 또한, 배경 화면에 관한 정보는 소정의 위치에서의 배경을 나타내는 2차원 영상 데이터에 대한 정보를 포함할 수 있으며, 상기 아바타에 관한 정보 및 배경 화면에 관한 정보는 서버(102)에 저장되어 있다가, 단말기의 요청 등에 의하여 단말기로 전달될 수 있다. 또한 각 단말 장치는 서버(102)로부터 전달 받은 상기 아바타에 관한 정보 및 배경 화면에 관한 정보를 단말 장치에 포함된 하드디스크, 메모리 등의 저장 장치에 저장하고, 이를 이용하여 사용자에게 3차원 아바타 서비스를 제공할 수 있다.
통신망(103)은 3차원 아바타 서비스 제공 시스템(101)이 설치된 단말기와 서버(102) 사이에서 데이터를 주고 받을 수 있도록 하는 것으로, 일반적으로 인터넷 통신망을 사용할 수 있다. 이 때, 상기 단말기의 형태에 따라서 유선 또는 무선 통신망이 적용될 수 있으며, 상술한 아바타에 관한 정보 또는 배경 화면에 관한 정보 등을 주고 받을 수 있도록 하는 통신망이라면 어떤 형태로도 적용이 가능하다.
또한, 도면과는 다르게 3차원 아바타 서비스 제공 시스템(101)은 단말기와 서버에 분산된 형태로 구성되는 것도 가능하며, 이 때, 서버는 하나 또는 복수의 물리적인 서버로 분산되어 구성될 수도 있다. 또 달리, 통신망(103)을 통하여 접속하지 않고도 구동할 수 있는 형태로 서버(102)로부터 정보를 수신하지 않는 단말기 자체만으로 구성되는 것도 가능하며, 이와 같은 구성 태양에 의해 본 발명이 제한되지는 않는다.
도 2는 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템의 내부 구성을 도시하는 도면이다.
도면에 도시한 바와 같이, 본 발명의 3차원 아바타 서비스 제공 시스템(101)은 영상 데이터 저장부(210), 아바타 위치 저장부(220), 3차원 영상 제공 모듈(230), 명령어 수신부(240) 및 제어부(250)를 포함하여 구성될 수 있다. 상기한 구성요소들은 소프트웨어, 하드웨어 또는 소프트웨어 및 하드웨어가 결합된 형태로 구현될 수 있으며, 서로 물리적 또는 논리적으로 연결되어 데이터를 주고 받을 수 있도록 구성될 수 있다. 또한, 상기한 구성요소들은 3차원 아바타 서비스 제공 시스템(101)을 구성하면서 하나의 물리적인 단말기에 모두 포함될 수도 있고, 서버와 단말기에 기능이 분산되어 구성되며 서로 통신망을 통하여 연결되는 것도 가능하다. 이하 구성요소 별로 구체적으로 기술하도록 한다.
영상 데이터 저장부(210)는 하나 이상의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY 평면 상에서 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장한다. 본 발명에 따른 3차원 아바타 서비스 제공 시스템은 하나 이상의 카메라 위치에서 360도 모든 방향에 대하여 촬영한 2차원 영상을 이용하여 3차원 공간의 배경을 구성함으로써, 별도의 배경에 대한 모델링 없이도 현실적인 3차원 영상을 사용자에게 제공할 수 있도록 한다.
따라서, 영상 데이터 저장부(210)는 하나 이상의 카메라 위치에서 촬영한 상기 카메라 위치를 중심으로 한 모든 방향에 대한 2차원 영상 데이터를 3차원 영상에 매핑하기 용이하도록 가공하고, 이를 저장할 수 있다. 이 때, 복수의 카메라 위치에서의 배경을 사용자에게 제공해야 하므로, 각 카메라 위치를 나타내는 정보와 상기 카메라 위치에서 촬영된 2차원 영상을 대응시켜 저장함으로써, 사용자가 특정 카메라 위치에서의 영상을 보고자 하는 경우 그 영상에 대응되는 2차원 영상 데이터를 이용할 수 있도록 한다.
영상 데이터 저장부(210)에 저장되는 카메라 위치에 대한 정보는 실제 카메라가 촬영을 한 장소를 나타내는 정보로, 실제 도로 등에서의 위치를 나타내기 위하여 실제 지도를 평면 좌표로 구성하였을 때에 촬영한 카메라의 위치를 좌표로 나타낸 것일 수 있다. 본 발명에서 XY평면이라 함은 이와 같이 실제 지도를 평면으로 나타내고 이에 좌표를 대입하였을 경우에 상기 지도가 나타내는 평면을 의미하는 것으로, 현실 세계에서의 땅에 대응되는 평면을 나타낼 수 있다. 따라서, XY평면을 기준으로 카메라 위치를 설정하고 아바타의 위치를 설정하게 되면 현실 세계에서 땅 위에 카메라가 존재하고, 아바타가 존재하는 것과 동일하게 느껴지도록 하는 효과를 기대할 수 있다. 이 때, XY평면이라고 하여 실제로 3차원 공간 상에서 반드시 X축 및 Y축으로 인하여 형성되는 평면을 의미하는 것은 아니며, 보다 용이한 설명을 위하여, 현실 세계의 땅에 대응되는 평면을 XY평면이라 하고 현실 세계에서 높이를 나타내는 축을 Z축으로 구성한 것일 뿐이고, 다양하게 다른 변형이 가능할 수 있다.
영상 데이터 저장부(210)는 2차원 영상 데이터를 카메라 위치에 대응시켜 저장하기 위하여, 하드디스크, 광학디스크, 휘발성/비휘발성 메모리 등 다양한 저장장치를 이용할 수 있다. 또한, Oracle, Ms-SQL, My-SQL 등 다양한 상용 데이터베이스를 이용하여 2차원 영상 데이터 및 카메라 위치 사이의 관계를 나타내는 정보를 저장할 수 있는데, 이 경우에는 데이터베이스 내에 2차원 영상 데이터를 저장하기 어려우므로, 저장 장치에서 2차원 영상 데이터가 저장되어 있는 주소를 나타내는 정보를 데이터베이스에 저장하고, 이를 카메라 위치에 대응시키는 방법으로 적용이 가능하다. 이는 하나의 실시예에 불과한 것으로, 다양한 형태로 변형이 가능하고, 카메라 위치 및 2차원 영상 데이터가 대응되어 저장되기만 한다면 어떤 형태로도 가능하다.
또한 영상 데이터 저장부(210)는 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)에서 제공 가능한 모든 카메라 위치에 대응되는 2차원 영상 데이터를 저장할 수도 있고, 복수의 카메라 위치에 대응되는 2차원 영상 데이터 중 하나 이상의 일부의 데이터만을 저장할 수도 있다. 따라서, 서버(102)에 모든 카메라 위치에 대응되는 2차원 영상 데이터를 저장해 두고, 3차원 아바타 서비스 제공 시스템(101)에서는 통신망(102)을 통하여 필요한 카메라 위치에 대응되는 2차원 영상 데이터를 요청하고 이에 응답하여 전송되는 2차원 영상 데이터를 메모리 또는 하드디스크 등의 저장 장치에 일시적으로 저장하고 이를 기초로 3차원 영상을 구성하는 것이 가능하다. 만일 제공 가능한 모든 카메라 위치에 대응되는 2차원 영상 데이터를 저장하는 경우에는 큰 용량의 데이터들을 모두 저장해야 하는 문제가 있지만, 통신망(103)을 통하여 서버(102)에 접속되지 않고도 다양한 위치에서의 영상을 제공할 수 있다. 본 발명에서는 상술한 방법들과 같이 데이터를 서버측에 분산하여 저장하고 필요시에 수신하여 사용하거나, 모든 데이터를 단말기 측에 저장하는 등 다양한 변형이 적용 가능하며, 이와 같은 구성에 의하여 본 발명이 제한되지는 않는다.
아바타 위치 저장부(220)는 하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장한다. 상술한 바와 같이, 본 발명에서의 XY평면이라 함은 현실 세계에서의 땅에 대응되는 평면을 의미하는 것으로, 3차원 아바타의 위치를 XY평면상의 좌표 정보로 나타내게 되면, 아바타가 현실세계에 존재하는 것처럼 느껴지게 되는 효과를 얻을 수 있다. 상기 XY평면상에서의 좌표 정보는 (x,y)와 같은 형태로 구성될 수 있으며, X축 상에서의 좌표를 나타내는 값과 Y축 상에서의 좌표를 나타내는 값을 각각 대응시켜 저장함으로써 표현할 수 있다. 상술한 것과 마찬가지로, 이 때의 좌표에서의 X, Y라 함은 설명의 편의를 위한 것으로 다양한 변형도 가능하다.
아바타 위치 저장부(220)도 하드디스크, 광학디스크, 휘발성/비휘발성 메모리 등 다양한 저장장치를 이용하여 아바타의 위치 정보를 저장할 수 있다. 또한, 영상 데이터 저장부(210)와 마찬가지로, Oracle, Ms-SQL, My-SQL 등 다양한 상용 데이터베이스를 이용하여 하나 이상의 아바타와 각 아바타의 XY평면 상에서의 좌표 정보를 저장할 수 있다.
또한, 아바타 위치 저장부(220)에서 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)의 모든 회원의 아바타의 위치 정보를 저장할 수도 있고, 일부 아바타의 위치 정보만을 저장할 수도 있다. 상술한 영상 데이터 저장부(220)의 경우와 마찬가지로, 상기 아바타 위치 저장부(220)는 현재 표시되고 있는 카메라 위치를 중심으로 소정의 범위 이내에 포함된 아바타의 위치에 대한 정보만을 메모리 또는 하드디스크 등의 저장장치에 일시적으로 저장하고, 각 아바타의 위치가 변경되거나 카메라 위치가 변경되는 경우에 모든 아바타의 위치 정보를 저장하고 있는 서버(102)로부터 아바타 위치 정보를 수신하여 업데이트할 수 있다. 이와 같은 구성을 위해서는 서버(102)는 서버(102)에 연결된 각 단말기들로부터 아바타의 위치 이동에 관한 정보를 수신하여 저장할 필요가 있다.
3차원 영상 제공 모듈(230)은 상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시키고, 3차원 오브젝트의 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑한다. 본 발명에서는 2차원 영상 데이터를 이용하여 3차원으로 구성된 배경 안에 아바타가 존재하는 것과 같은 영상을 제공해야 하므로, 3차원 오브젝트를 위치시키고, 그 내부에 2차원 영상을 매핑한 후, 그 3차원 오브젝트의 내부에 시점을 위치시킴으로써, 시선을 어느 쪽으로 돌리더라도 시점을 둘러싼 상기 3차원 오브젝트의 내면을 보게 되므로, 그 내면에 매핑된 2차원 영상을 배경으로 하는 영상이 제공되게 된다.
이 때, 3차원 영상 제공 모듈(230)에서 설정하는 상기 3차원 오브젝트는 구의 형태로 구성되어, 중심에서 바라보았을 때에 모든 각도에 대하여 동일한 거리에 배경이 되는 2차원 영상 이미지가 위치하도록 하는 것이 가능하며, 촬영 및 매핑이 용이하도록 하기 위하여 정육면체 형태를 가질 수도 있다.
상기 3차원 오브젝트의 중심은 상기 XY평면 상에서의 상기 카메라 위치의 좌표 위에 위치할 수 있는데, 상기 XY평면 상에 그 중심이 위치하도록 할 수도 있으나, XY평면 상에서 Z축 방향으로 일정 높이만큼 이격된 곳에 중심이 위치하는 것이 바람직하다. 이는 실제 현실에서 카메라로 촬영을 할 때에, 카메라를 땅바닥에 위치시키는 것이 아니라, 차 위 또는 사람의 키 높이 정도에 위치시켜 촬영이 이루어지기 때문에 실제 촬영한 카메라와 최대한 가까운 곳에 시점을 두도록 하기 위함이다. 따라서, 상기 XY평면에서 Z축 방향으로 실제 카메라 위치의 높이만큼 이격된 곳에 상기 3차원 오브젝트의 중심이 위치하도록 구성하는 것이 바람직하다.
이 때, 상기 3차원 오브젝트는 그 내면이 화면에 표시되는 모든 아바타들의 배경이 되어야 하므로, 화면에 표시되는 아바타들이 위치할 수 있는 영역보다 다소 넓은 범위를 커버할 수 있는 크기를 가지는 것이 바람직하다.
또한, 3차원 영상 제공 모듈(230)은 상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시킨다. 상술한 바와 같이, 실제 땅에 대응되는 평면인 XY평면 위에 상기 3차원 아바타들을 위치시킴으로써, 실제 땅 위에 아바타가 존재하는 것과 같은 화면을 사용자에게 제공할 수 있는 효과를 기대할 수 있다.
3차원 영상 제공 모듈(230)에서 3차원 공간 상에 배치되어 제공되는 아바타들은 상기 카메라 위치의 좌표를 중심으로 하는 소정의 영역 내에 포함되어 있는 아바타들일 수 있다. 사용자들이 다른 사용자들과 원활히 교류할 수 있도록 하기 위해서는 최대한 많은 아바타들이 공간 내에서 마주칠 수 있도록 하는 것이 바람직하지만, 상술한 바와 같이, 3차원 오브젝트의 내면의 이미지가 언제나 3차원 아바타들의 배경이 되어야 하므로, 상기 3차원 오브젝트를 벗어나는 위치에 존재하는 아바타들은 화면에 표시하지 않는 것이 바람직할 수 있다. 따라서, 본 발명에서는 카메라 위치를 중심으로 영역을 설정하고, 그 영역 내부에 좌표를 가지는 아바타들만을 표시하도록 구성될 수 있다.
또한, 3차원 영상 제공 모듈(230)은 상기 3차원 오브젝트를 먼저 화면에 표시하도록 하고, 상기 3차원 아바타들은 그 후에 표시하도록 함으로써, 언제나 표시되는 3차원 아바타들이 상기 3차원 오브젝트보다 앞쪽에 표시되도록 구현하는 것도 가능하다. 그리고, 상기 아바타들은 상기 카메라 위치의 좌표 및 각 아바타의 좌표 사이의 거리에 따라서 크기가 조절되어 표현됨으로써, 현실에서와 같은 원근감이 느껴지도록 구현할 수 있다.
3차원 영상 제공 모듈(230)은 이와 같이 구성된 3차원 공간에서 상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 디스플레이 화면을 통하여 사용자에게 제공한다. 상술한 바와 같이, 3차원 오브젝트의 중심은 실제로 배경 이미지를 촬영한 카메라의 위치에 대응된다. 따라서, 사용자는 실제 카메라의 위치에서 주변을 둘러보는 것과 동일한 화면을 배경으로 하여 자신의 아바타를 조작할 수 있다.
이처럼, 3차원 영상 제공 모듈(230)에서 가상의 3차원 공간을 렌더링하여 3차원 영상을 2차원의 디스플레이 화면에 제공할 수 있도록 하기 위해서 상기 3차원 아바타 서비스 제공 시스템(101)이 설정된 단말기는 3차원 가속 기능을 포함하여 구성될 수 있다.
또한, 3차원 영상 제공 모듈(230)은 사용자의 아바타가 이동하거나, 사용자의 시점이 회전하는 등의 변경이 있을 때, 그리고 서버(102)로부터 다른 사용자의 아바타들의 위치 이동 등에 대한 정보가 수신될 때에 상기 3차원 공간을 재구성하여 사용자에게 영상을 제공함으로써, 실제 상기 공간 내에서 아바타가 움직이고, 화면이 회전하는 것과 같은 효과를 제공할 수 있다.
명령어 수신부(240)는 사용자로부터 아바타 이동 명령 또는 화면 회전 명령을 수신한다. 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)에서는 사용자의 명령에 따라서 아바타의 위치, 동작 등을 조작할 수 있도록 한다. 따라서, 명령어 수신부(240)에서는 사용자로부터 아바타 이동 명령을 수신하는데, 이를 위하여 상기 3차원 아바타 서비스 제공 시스템(101)이 적용된 단말기에는 마우스, 키보드, 터치스크린 등의 사용자 인터페이스가 포함될 수 있다. 상기 화면 회전 명령 또한 다양한 시각에서 3차원 아바타 서비스를 제공하기 위하여 사용되는 것으로, 상술한 사용자 인터페이스를 이용하여 수신할 수 있다.
상술한 명령 이외에도 명령어 수신부(240)는 아바타의 동작을 변경하기 위한 명령 또는 줌인/줌아웃(Zoom-In/Zoom-out) 명령 등을 더 수신할 수 있으며, 이와 같이 추가적으로 제공되는 기능에 의하여 본 발명이 제한되지는 않는다.
제어부(250)는 상기 아바타 이동 명령에 따라서 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 회전시킨다. 상술한 바와 같이 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)은 사용자의 명령에 따른 아바타의 자유로운 이동과 화면의 회전을 제공하므로, 제어부(250)는 이와 같은 사용자의 명령에 따라서 상기 3차원 영상 제공 모듈을 제어하여 디스플레이 장치에 해당 명령에 따른 3차원 영상을 제공하도록 할 수 있다.
이 때, 제어부(250)는 상기 아바타가 XY 평면 상에서 상기 카메라 위치를 중심으로 하는 제1 영역을 벗어나는지 여부를 확인하고, 상기 제1 영역을 벗어나는 경우 상기 사용자의 아바타와 가장 가까운 위치에 대응되는 2차원 영상 데이터를 이용하여 상기 3차원 영상을 제공하도록 상기 3차원 영상 제공 모듈(230)을 제어할 수 있다. 이와 같은 구성을 통하여, 아바타가 위치를 이동함에 따라서, 언제나 사용자의 아바타와 가장 가까운 곳에 위치한 카메라 위치에서 보여지는 배경 이미지를 이용하여 3차원 영상을 제공할 수 있다.
제어부(250)에서 확인하는 상기 영역은 카메라 위치를 중심으로 정사각형 형태로 구성되어 전체적으로 볼 때 바둑판과 같은 형태로 구성되고, 각 영역을 넘어갈 때 마다 그 영역의 중심에 위치하는 카메라 위치를 이용하여 영상을 구성하도록 하는 것이 가능하다. 또한, 인접한 다른 카메라 위치까지를 영역으로 설정하여, 인접한 카메라 위치를 넘어선 경우에만 카메라 위치의 이동이 이루어지도록 구현하는 것도 가능하다. 이와 같은 구현을 통하여, 사용자의 아바타가 한 방향으로 이동할 때에, 카메라가 계속 같은 방향으로 화면을 제공할 수 있도록 하는 것이 가능하다.
예를 들어, 사용자의 아바타가 한 방향으로 이동할 때에, 인접한 다른 카메라 위치를 지나치지 않은 채로 상기 인접한 다른 카메라 위치를 이용한 영상을 제공하게 된다면, 기존 카메라에서의 시점의 방향과 반대 방향의 화면을 제공해야 아바타가 화면에 표시되게 된다. 하지만, 인접한 다른 카메라 위치를 지나친 후에 상기 인접한 다른 카메라 위치에서 영상을 제공한다면, 기존의 카메라 위치에서와 동일한 방향의 영상을 제공할 수 있어, 보다 자연스러운 영상을 제공할 수 있게 된다.
도 3은 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)에서 XY평면 상에 구성되는 카메라 영역의 일례를 도시하는 도면이다.
도면에 도시한 바와 같이, 하나의 카메라 위치(310)를 중심으로 특정 영역을 카메라 영역(301)으로 설정하고, 그 영역 내에 사용자의 아바타(320)가 존재하는 경우에는 해당 카메라 위치를 중심으로 한 3차원 영상을 사용자에게 제공하다가, 도면에서와 같이 사용자의 아바타(320)가 다른 영역으로 넘어가는 경우, 이동한 영역의 중심에 위치한 카메라 위치를 이용하여 3차원 영상을 제공하도록 할 수 있다.
이와 같이 복수의 카메라 위치를 이용하여 각각의 카메라 영역을 설정하고, 아바타가 자유롭게 이동할 수 있도록 하며, 아바타가 현재의 영역을 벗어나는 경우, 새로운 영역의 중심에 위치한 카메라 위치를 이용하여 3차원 영상을 제공하도록 함으로써, 실제로 넓은 현실 공간 내에서 아바타가 자유롭게 이동하는 것과 같은 화면을 사용자에게 제공할 수 있는 효과를 기대할 수 있다.
상기 카메라 영역은 상술한 바와 같이, 인접한 다른 카메라 위치를 넘어서지 않는 범위까지로 한정함으로써, 인접한 카메라 영역과 서로 겹치도록 구성되는 것도 가능하고, 각 카메라 위치를 둘러싸는 카메라 영역을 설정하여 서로 겹치지 않도록 바둑판 형태로 구성하는 것도 가능하다.
또한, 상기 카메라 영역의 크기는 인접한 각 카메라 위치 사이의 거리에 따라서 결정될 수 있는데, 상기 각 카메라 위치 사이의 거리는 실제 현실에서 촬영한 카메라 위치 사이의 거리에 따라서 결정된다. 만일 인접한 카메라 위치 사이의 거리가 짧으면, 아바타의 위치에서 가장 적합한 배경 이미지를 제공할 수 있어서 보다 세밀한 묘사가 가능해지는 반면, 배경화면의 변화가 잦아 안정적인 화면을 제공하지 못할 수 있으며, 인접한 카메라 위치 사이의 거리가 긴 경우는 그 반대가 될 수 있다. 따라서, 카메라 위치 사이의 거리를 적절히 유지하면서 촬영을 하는 것이 바람직하다.
도 4는 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)에서 XY평면 상에 구성되는 아바타 표시 영역의 일례를 도시하는 도면이다.
상술한 바와 같이, 본 발명에 따른 3차원 아바타 서비스 제공 시스템(101)에서는 사용자의 아바타뿐 아니라, 다른 회원들의 아바타를 표시하여 줌으로써, 사용자들간에 아바타를 이용한 교류가 가능하도록 한다. 이 때, 상기 3차원 아바타 서비스 제공 시스템(101)에 접속한 모든 사용자의 아바타를 화면에 표시할 수 없으므로, 소정의 범위 내에 위치하는 아바타들만을 표시하도록 한다.
도면에서는 카메라 위치(310)를 중심으로 사용자의 아바타(320)를 표시하는 경우를 나타낸 것인데, 도 3에서 살펴본 바와 같이, 카메라 영역(301) 내에 사용자의 아바타(320)가 존재하는 동안에는 카메라 위치(310)을 중심으로 하는 영상이 제공된다. 이 때, 상기 카메라 위치(310)을 중심으로 하는 아바타 표시 영역(401)을 설정하고, 상기 아바타 표시 영역(401)의 내에 포함되어 있는 아바타들만을 화면에 표시하도록 할 수 있다.
즉, 도면부호 330, 340 및 350의 위치에 존재하는 아바타는 영상에 포함시켜 표시하고, 도면부호 360 및 370의 위치에 존재하는 아바타는 영상에 포함시키지 않도록 한다. 만일 사용자의 아바타(320)가 이동하여 다른 카메라 영역에 포함되게 되는 경우, 그 카메라 영역의 중심을 이루는 카메라 위치를 중심으로, 새로운 아바타 표시 영역을 설정하고, 그 영역에 포함된 아바타를 표시하게 된다. 도면에서는 아바타 표시 영역(401)이 사각형으로 표시되었으나, 실제 구현시 원형의 영역을 가질 수도 있고, 그 밖의 변형도 가능하다.
이와 같은 구성을 통하여, 사용자의 아바타(320)와 가까운 곳에 위치하는 다른 사용자들의 아바타(330, 340 및 350)를 화면 상에서 확인하교 교류를 나눌 수 있으며, 아바타 표시 영역(401)을 벗어나 있는 아바타의 경우에는 화면에 표시되는 배경보다 더 먼 곳에 존재하는 것이므로, 해당 아바타가 존재하는 방향으로 이동하여 거리가 가까워지는 경우에만 표시되도록 할 수 있다.
도 5는 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 XY평면 위에 3차원 오브젝트를 위치시키는 것의 일례를 도시하는 도면이다.
도면에 도시한 바와 같이, XY평면(501)에서 카메라 위치(310)의 좌표 위에 중심(510)을 가지도록 3차원 오브젝트(502 및 503)가 위치된다. 이 때, 상기 3차원 오브젝트의 중심(510)은 상기 카메라 위치(310)에서 Z축 방향으로 상기 카메라 위치의 높이만큼 이격된 곳에 위치하게 된다. 이와 같이 3차원 오브젝트의 중심(510)이 카메라 위치의 높이만큼 높은 곳에 위치함으로써, 실제 카메라로 촬영된 높이와 동일한 높이에서 배경을 둘러보는 것과 같은 영상을 제공할 수 있는 효과를 얻을 수 있다.
상기 3차원 오브젝트는 도면 (a)에서와 같이 구의 형태를 가질 수도 있고, 도면 (b)에서와 같이 정육면체의 형태를 가질 수도 있다. 이 밖에도 다양한 형상을 가질 수 있는데, 구현하고자 하는 형상에 매핑하여 실제 현실과 같은 화면을 제공할 수 있도록 맞추어 촬영을 하고, 이미지를 편집할 필요가 있다.
도면에서와 같이, 아바타 표시 영역(401)은 3차원 오브젝트(502 및 503)를 넘어서지 않는 범위로 제한되는 것이 바람직한데, 이는 본 발명이 3차원 오브젝트(502 및 503)의 내면에 배경 이미지가 매핑 되고, 그 내부에 시점이 존재하도록 하는 것이기 때문이다. 만일 아바타 표시 영역(401)이 3차원 오브젝트(502 및 503)을 넘어서는 영역을 가지게 된다면, 배경으로 표시된 부분보다 더 멀리에 존재하는 아바타까지도 배경의 앞쪽에 표시되어, 현실과 달리 왜곡된 영상이 제공될 수 있으므로, 이를 방지하기 위하여, 아바타 표시 영역(401)이 3차원 오브젝트(502 및 503)를 벗어나지 않는 것이 바람직하다.
도 6 내지 도 9는 본 발명에 따른 3차원 아바타 서비스 제공 시스템에서 제공되는 3차원 영상의 일례를 도시하는 도면들이다.
도 6에서는 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 시스템(101)에서 제공하는 사용자의 아바타(601) 및 다른 회원들의 아바타들이 현실에서의 도로 상에 존재하는 것처럼 느껴지게 하는 영상을 도시한 것이다. 또한 도 7은 동일한 화면 상에서 사용자의 아바타(601)이 먼 쪽으로 이동한 경우에 표시되는 화면을 도시한 것이다.
도면에서와 같이 아바타가 사용자의 명령에 따라서 3차원 가상 공간 내를 자유롭게 이동할 수 있고, 실제 현실 세계를 배경으로 표현함으로써, 실제 현실 세계에서 사용자의 아바타(601)가 이동하는 것과 같은 느낌을 가질 수 있는 영상을 제공한다. 또한 더욱 현실감 있는 영상을 제공하기 위하여, 도 7에서와 같이 사용자의 아바타(701)가 카메라 위치로부터 먼 곳에 위치하는 경우 크기가 작게 표시되도록 함으로써 원근감을 나타낼 수 있다.
도 8 및 도 9는 도 6 및 도 7과 같은 카메라 위치에서 제공되는 영상으로, 사용자의 명령에 따라서 제공되는 영상의 방향만 달라지도록 한 것이다. 이와 같이 사용자는 카메라 위치를 중심으로 실제 현실에서와 같이 주변을 둘러 보는 것이 가능하며, 원하는 각도로 자신의 아바타를 확인하고 아바타를 이동시킬 수 있다. 도 9은 도 7의 경우와 같이 사용자의 아바타(601)가 먼 곳으로 이동한 경우의 영상을 도시한 것이다.
도 10은 본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 방법의 흐름을 도시하는 흐름도이다. 본 발명에 따른 3차원 아바타 서비스 제공 방법은 도 10의 설명에 의하여만 한정되는 것은 아니고, 상술한 3차원 아바타 서비스 제공 시스템(101)의 구성이 모두 적용될 수 있으며, 그 밖의 다양한 변형도 가능하다.
단계 S1001에서는 하나 이상의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY평면 상에서의 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장한다. 상기 2차원 영상 데이터 및 카메라 위치의 좌표 정보는 상기 3차원 아바타 서비스 제공 방법(101)에서 제공할 수 있는 모든 카메라 위치에 대한 2차원 영상 및 좌표 정보일 수도 있고, 현재 표시되는 카메라 위치에 대응되는 정보만을 일시적으로 저장하는 것일 수도 있다. 이와 같이 현재 표시되는 카메라 위치에 대응되는 2차원 영상 데이터 및 카메라 위치의 좌표 정보를 저장하는 경우, 카메라 위치가 이동될 때에는 서버(102) 등에 요청하여 새로운 카메라 위치에 대응되는 2차원 영상 데이터 및 카메라 위치의 좌표 정보를 수신하여 저장할 수 있다. 이 때, 본 발명에서 XY평면이라 함은 이와 같이 실제 지도를 평면으로 나타내고 이에 좌표를 대입하였을 경우에 상기 지도가 나타내는 평면을 의미하는 것으로, 현실 세계에서의 땅에 대응되는 평면을 나타낼 수 있다.
단계 S1002에서는 하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장한다. 상기 XY평면상에서의 좌표 정보는 (x,y)와 같은 형태로 구성될 수 있으며, X축 상에서의 좌표를 나타내는 값과 Y축 상에서의 좌표를 나타내는 값을 각각 대응시켜 저장함으로써 표현할 수 있다.
또한, 단계 S1002에서는 본 발명에 따른 3차원 아바타 서비스 제공 방법에서 제공 가능한 모든 회원의 아바타의 위치 정보를 저장할 수도 있고, 일부 아바타의 위치 정보만을 저장할 수도 있다. 현재 표시되고 있는 카메라 위치를 중심으로 소정의 범위 이내에 포함된 아바타의 위치에 대한 정보만을 메모리 또는 하드디스크 등의 저장장치에 일시적으로 저장하고, 각 아바타의 위치가 변경되거나 카메라 위치가 변경되는 경우에 모든 아바타의 위치 정보를 저장하고 있는 서버(102)로부터 아바타 위치 정보를 수신하여 업데이트하는 방식으로 구성하는 것도 가능하다.
단계 S1003에서는 상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시킨다. 상기 3차원 오브젝트는 구 또는 정육면체 등의 형상을 가질 수 있으며, 상기 3차원 오브젝트의 중심은 상기 XY평면에서 Z축 방향으로 카메라 위치의 높이만큼 이격된 곳에 위치하도록 구성될 수 있다.
단계 S1004에서는 상기 3차원 오브젝트 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑한다. 이와 같이 3차원 오브젝트의 내면에 2차원 영상을 매핑함으로써, 상기 3차원 오브젝트의 중심에서 어느 방향으로 둘러 보더라도, 실제 배경을 보고 있는 것과 같은 화면이 제공될 수 있다. 특히 단계 S1003에서 3차원 오브젝트의 중심을 XY평면에서 Z축 방향으로 카메라 위치의 높이만큼 이격시키는 경우, 실제 영상을 촬영한 카메라가 있던 위치에서 주변을 둘러보는 것과 같은 효과를 제공할 수 있다.
단계 S1005에서는 상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시킨다. 상술한 바와 같이, 상기 위치되는 아바타들은 상기 카메라 위치로부터 정해진 범위의 영역 이내에 포함되어 있는 아바타들일 수 있다. 이와 같이 사용자의 아바타 및 타인의 아바타들을 3차원 공간 내에 위치시키고 그 영상을 사용자에게 제공함으로써, 사용자는 온라인 상에서 다른 회원들과 아바타를 통하여 교류할 수 있게 된다.
단계 S1006에서는 상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 제공한다. 상기 3차원 영상은 가상의 3차원 공간을 2차원 디스플레이 화면에 표시할 수 있도록 렌더링 함으로써 생성될 수 있다. 상술한 바와 같이 3차원 오브젝트의 중심이 시점이 되므로, 사용자가 실제로 카메라의 위치에서 주위를 둘러보는 것과 같은 효과를 얻을 수 있다.
단계 S1007에서는 사용자로부터 아바타 이동 명령 및 화면 회전 명령을 수신한다. 본 발명에서는 아바타가 사용자의 명령에 따라 이동할 수 있고, 사용자가 원하는 방향으로 배경을 둘러볼 수 있도록 하는 것이므로, 키보드, 마우스, 터치스크린 등의 사용자 인터페이스를 통하여 사용자의 아바타 이동 명령 및 화면 회전 명령을 수신할 필요가 있다.
단계 S1008에서는 상기 아바타 이동 명령에 따라 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 변경시킨다. 상술한 바와 같이, 사용자의 명령에 따라 아바타를 이동시키고 화면을 회전시킴으로써, 사용자가 자유롭게 조작할 수 있도록 한다. 단, 사용자의 아바타가 카메라 위치를 중심으로 하는 카메라 영역을 벗어나는 경우에는 상기 사용자의 아바타와 가장 인접한 카메라 위치를 중심으로 새로운 3차원 영상을 구성하여 사용자에게 제공함으로써, 사용자의 아바타가 복수의 카메라 위치로 구성된 넓은 가상 공간 상에서 자유롭게 이동하면서, 항상 가까운 위치의 카메라에서 촬영된 배경을 이용할 수 있도록 하는 효과를 얻을 수 있다.
본 발명의 일실시예에 따른 3차원 아바타 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (14)

  1. 하나 이상의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY평면 상에서의 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장하는 영상 데이터 저장부;
    하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장하는 아바타 위치 저장부;
    상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시키고, 상기 3차원 오브젝트 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑하고, 상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시킨 후, 상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 제공하는 3차원 영상 제공 모듈;
    사용자로부터 아바타 이동 명령 또는 화면 회전 명령을 수신하는 명령어 수신부; 및
    상기 아바타 이동 명령에 따라 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 회전시키는 제어부
    를 포함하는 것을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  2. 제1항에 있어서,
    상기 제어부는
    상기 사용자의 아바타가 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제1 영역을 벗어나는지 여부를 확인하고,
    상기 사용자의 아바타가 상기 제1 영역을 벗어나는 경우, 상기 사용자의 아바타와 가장 가까운 카메라 위치에 대응되는 2차원 영상 데이터를 이용하여 상기 3차원 영상을 제공하도록 상기 3차원 영상 제공 모듈을 제어하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  3. 제1항에 있어서,
    상기 3차원 영상 제공 모듈은
    상기 복수의 아바타들 중에서 상기 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제2 영역 내부에 존재하는 아바타들 만을 표시하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  4. 제1항에 있어서,
    상기 3차원 오브젝트의 중심은 상기 XY평면에서 Z축 방향으로 상기 카메라 위치의 높이만큼 떨어진 곳에 위치하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  5. 제1항에 있어서,
    상기 3차원 영상 제공 모듈은
    상기 2차원 영상 데이터가 매핑된 3차원 오브젝트를 먼저 표시한 후, 상기 3차원 아바타들을 표시하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  6. 제1항에 있어서,
    상기 3차원 영상 제공 모듈은
    상기 카메라 위치의 좌표 및 상기 3차원 아바타들의 좌표 사이의 거리에 따라서 상기 각각의 3차원 아바타들의 크기를 조절하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  7. 제1항에 있어서,
    상기 3차원 오브젝트는 구의 형태인 것
    을 특징으로 하는 3차원 아바타 서비스 제공 시스템.
  8. 하나 이상의 카메라 위치에서 촬영된 2차원 영상 데이터 및 XY평면 상에서의 상기 각 카메라 위치의 좌표 정보를 상기 카메라 위치에 대응시켜 저장하는 단계;
    하나 이상의 3차원 아바타들의 상기 XY평면상에서의 좌표 정보를 저장하는 단계;
    상기 카메라 위치의 좌표 위에 중심을 가지도록 3차원 오브젝트를 위치시키는 단계;
    상기 3차원 오브젝트 내면에 상기 카메라 위치에 대응되는 2차원 영상 데이터를 매핑하는 단계;
    상기 3차원 아바타들의 좌표 정보를 기초로 상기 XY평면 위에 상기 3차원 아바타들을 위치시키는 단계;
    상기 3차원 오브젝트의 중심을 시점(視點)으로 하는 3차원 영상을 제공하는 단계;
    사용자로부터 아바타 이동 명령 및 화면 회전 명령을 수신하는 단계; 및
    상기 아바타 이동 명령에 따라 상기 사용자의 아바타를 상기 XY평면 위에서 이동시키고, 상기 화면 회전 명령에 따라 상기 시점에서 제공되는 화면의 각도를 변경시키는 단계
    를 포함하는 것을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  9. 제8항에 있어서,
    상기 사용자의 아바타가 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제1 영역을 벗어나는지 여부를 확인하는 단계; 및
    상기 사용자의 아바타가 상기 제1 영역을 벗어나는 경우, 상기 사용자의 아바타와 가장 가까운 카메라 위치에 대응되는 2차원 영상 데이터를 이용하여 상기 3차원 영상을 제공하는 단계
    를 더 포함하는 것을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  10. 제8항에 있어서,
    상기 3차원 영상을 제공하는 단계는
    상기 복수의 아바타들 중에서 상기 XY평면 상에서 상기 카메라 위치의 좌표를 중심으로 하는 제2 영역 내부에 존재하는 아바타들 만을 표시하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  11. 제8항에 있어서,
    상기 3차원 오브젝트의 중심은 상기 XY평면에서 Z축 방향으로 상기 카메라 위치의 높이만큼 떨어진 곳에 위치하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  12. 제8항에 있어서,
    상기 3차원 아바타들을 위치시키는 단계는
    상기 카메라 위치의 좌표 및 상기 3차원 아바타들의 좌표 사이의 거리에 따라서 상기 각각의 3차원 아바타들의 크기를 조절하는 것
    을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  13. 제8항에 있어서,
    상기 3차원 오브젝트는 구의 형태인 것
    을 특징으로 하는 3차원 아바타 서비스 제공 방법.
  14. 제8항 내지 제13항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.
PCT/KR2010/005824 2009-09-10 2010-08-30 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법 WO2011031026A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/147,122 US20110285703A1 (en) 2009-09-10 2010-08-30 3d avatar service providing system and method using background image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090085283A KR101101114B1 (ko) 2009-09-10 2009-09-10 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
KR10-2009-0085283 2009-09-10

Publications (2)

Publication Number Publication Date
WO2011031026A2 true WO2011031026A2 (ko) 2011-03-17
WO2011031026A3 WO2011031026A3 (ko) 2011-06-09

Family

ID=43732913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/005824 WO2011031026A2 (ko) 2009-09-10 2010-08-30 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법

Country Status (3)

Country Link
US (1) US20110285703A1 (ko)
KR (1) KR101101114B1 (ko)
WO (1) WO2011031026A2 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
KR101440482B1 (ko) * 2012-12-28 2014-09-17 전자부품연구원 2차원 이미지의 홀로그램 이미지 변환 장치 및 그 방법
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
KR101781028B1 (ko) * 2016-08-02 2017-10-23 주식회사 씨투몬스터 콘티 작성 장치 및 방법
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN106774941B (zh) * 2017-01-16 2019-11-19 福建农林大学 触屏终端3d虚拟角色与场景摄像机运动冲突的解决方法
US11893647B2 (en) * 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
CN110800018A (zh) 2017-04-27 2020-02-14 斯纳普公司 用于社交媒体平台的朋友位置共享机制
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US10373390B2 (en) * 2017-11-17 2019-08-06 Metatellus Oü Augmented reality based social platform
KR102585051B1 (ko) * 2018-05-08 2023-10-04 그리 가부시키가이샤 액터의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
KR102133735B1 (ko) * 2018-07-23 2020-07-21 (주)지니트 파노라마 크로마키 합성 시스템 및 방법
US11044535B2 (en) 2018-08-28 2021-06-22 Gree, Inc. Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
JP6559870B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
KR102087917B1 (ko) * 2019-08-07 2020-03-11 주식회사 일루니 2차원 배경으로의 3차원 움직임 모델 투영 방법 및 장치
KR102570286B1 (ko) * 2020-12-10 2023-08-23 주식회사 엘지유플러스 3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법
KR102545996B1 (ko) 2021-06-09 2023-06-23 주식회사 뉴코어 버드뷰 시점을 제공하는 vr 콘텐츠 렌더링 장치, 방법 및 프로그램

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100393185B1 (ko) * 1996-12-20 2004-01-24 삼성전자주식회사 삼차원구조 데이터와 그래픽스 오브젝트의 합성장치 및 그 방법
KR100533328B1 (ko) * 2003-06-27 2005-12-05 한국과학기술연구원 2차원 이미지로부터 3차원 이미지를 생성하는 방법
KR20070098361A (ko) * 2006-03-31 2007-10-05 (주)엔브이엘소프트 2차원 배경 이미지를 3차원 공간에 합성시키는 영상 합성장치 및 방법
JP2008299693A (ja) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk キャラクター表示装置、キャラクター表示方法、ならびに、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
US7256779B2 (en) * 2003-05-08 2007-08-14 Nintendo Co., Ltd. Video game play using panoramically-composited depth-mapped cube mapping
JP5044817B2 (ja) * 2007-11-22 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間を構築するための画像処理方法、装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100393185B1 (ko) * 1996-12-20 2004-01-24 삼성전자주식회사 삼차원구조 데이터와 그래픽스 오브젝트의 합성장치 및 그 방법
KR100533328B1 (ko) * 2003-06-27 2005-12-05 한국과학기술연구원 2차원 이미지로부터 3차원 이미지를 생성하는 방법
KR20070098361A (ko) * 2006-03-31 2007-10-05 (주)엔브이엘소프트 2차원 배경 이미지를 3차원 공간에 합성시키는 영상 합성장치 및 방법
JP2008299693A (ja) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk キャラクター表示装置、キャラクター表示方法、ならびに、プログラム

Also Published As

Publication number Publication date
US20110285703A1 (en) 2011-11-24
KR101101114B1 (ko) 2011-12-30
WO2011031026A3 (ko) 2011-06-09
KR20110027272A (ko) 2011-03-16

Similar Documents

Publication Publication Date Title
WO2011031026A2 (ko) 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
WO2015174729A1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
CN112933599B (zh) 三维模型渲染方法、装置、设备及存储介质
KR101041723B1 (ko) 3차원 비디오게임 시스템
WO2009102138A2 (ko) 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법
WO2010027193A2 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
WO2014010909A1 (ko) 이동 자유도를 개선한 융합형 가상현실 구현 방법
WO2021002687A1 (ko) 사용자 간의 경험 공유를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理系统及处理方法
JPWO2005119591A1 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
CN102281455A (zh) 图像显示系统、装置以及方法
JP2020537200A (ja) 画像に挿入される画像コンテンツについての影生成
WO2019212129A1 (ko) 효율적인 데이터 관리를 위한 가상 전시 공간 제공 방법
CN107084740A (zh) 一种导航方法和装置
Chen et al. A case study of security and privacy threats from augmented reality (ar)
JP2022507502A (ja) 拡張現実(ar)のインプリント方法とシステム
Hirose Virtual reality technology and museum exhibit
Ogi et al. Invisible interface for the immersive virtual world
WO2011034306A2 (ko) 파노라마 이미지 사이의 중복을 제거하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20190085681A (ko) 실감형 vr 영상의 제공 방법 및 이를 위한 서버 장치
WO2021029566A1 (ko) 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
CN110349270B (zh) 基于现实空间定位的虚拟沙盘呈现方法
WO2024101776A1 (ko) 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템
WO2018128424A1 (ko) 3차원 지리 정보 시스템 웹 서비스를 제공하는 방법
JP7082698B1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10815571

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13147122

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10815571

Country of ref document: EP

Kind code of ref document: A2