WO2017007254A1 - Device and method for generating and displaying 3d map - Google Patents

Device and method for generating and displaying 3d map Download PDF

Info

Publication number
WO2017007254A1
WO2017007254A1 PCT/KR2016/007359 KR2016007359W WO2017007254A1 WO 2017007254 A1 WO2017007254 A1 WO 2017007254A1 KR 2016007359 W KR2016007359 W KR 2016007359W WO 2017007254 A1 WO2017007254 A1 WO 2017007254A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
observer
point
information
photographing
Prior art date
Application number
PCT/KR2016/007359
Other languages
French (fr)
Korean (ko)
Inventor
도락주
백인식
이건용
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160057705A external-priority patent/KR20170007102A/en
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to EP16821660.4A priority Critical patent/EP3321889A4/en
Priority to US15/742,206 priority patent/US10349033B2/en
Publication of WO2017007254A1 publication Critical patent/WO2017007254A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • Embodiments of the present invention relate to an apparatus and method for generating and displaying a 3D map.
  • HMD Head Mount Display
  • 3D maps are usually 3D models created by humans through 3D modeling programs such as computer-aided design (CAD) tools. It is a general opinion of the industry that the reality is less in terms of color, resolution, and the like compared to the three-dimensional model using the photograph taken at. Or, as shown in the road view provided by Daum Kakao Co., Ltd., it is limited to the form of showing 2D panoramic pictures at the place where the pictures were taken.
  • CAD computer-aided design
  • a three-dimensional map generation capable of finding and capturing a photographing point corresponding to the location information of an observer (avatar) in a virtual reality space and generating and displaying a three-dimensional map using the three-dimensional information acquired at the photographing point And a display device and a method thereof.
  • a 3D map generation and display apparatus includes pose information including position and rotation information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system.
  • Acquisition unit for obtaining A generation unit configured to generate a plurality of local coordinate systems with respect to the three-dimensional space according to at least one of the spatial proximity and the temporal proximity of the photographing points based on the acquired pose information; And when the observer of the virtual reality is located in the three-dimensional space, finds a corresponding photographing point corresponding to the point where the observer is located by using the plurality of local coordinate systems, and uses the three-dimensional information acquired from the corresponding photographing point to determine the photographing point. And a display unit for generating and displaying the dimensional map.
  • the 3D map generation and display device includes at least one of an error between estimation of pose information associated with the plurality of generated local coordinate systems and an error and distortion of 3D information acquired at the selected photographing points.
  • the management unit may further include.
  • 3D map generation and display device includes a calculation unit for calculating the spatial and temporal proximity between the pose information associated with the generated plurality of local coordinate system;
  • the plurality of local coordinate systems are divided into a group area coordinate system and an independent area coordinate system, and the generated group area coordinate system and the independent area coordinate system are generated in one global coordinate system.
  • the management unit may further include a management unit.
  • the generation unit may further perform an operation of selecting photographing points satisfying a preset condition among the photographing points, and generating the plurality of local coordinate systems for the 3D space with respect to the selected photographing points.
  • the preset condition may be a condition for selecting photographing points obtained by obtaining at least a predetermined number of three-dimensional information, or may be a condition for selecting photographing points having a predetermined rank or more.
  • the pause information may be obtained using a SLAM (Simultaneous Localization and Mapping) algorithm or location information input by a user.
  • SLAM Simultaneous Localization and Mapping
  • the display unit may have a long axis of a bounding volume having a specific shape passing through the center of the observer and parallel to the observer's line of sight. Set the size of the bounding volume until the predetermined number of shooting points is included in the bounding volume, and find the corresponding shooting point included in the bounding volume, and use the 3D information acquired from the corresponding shooting point. To generate and display the 3D map.
  • the display unit when there are a plurality of shooting points included in the bounding volume, based on the shooting time of the three-dimensional information acquired at each of the plurality of shooting points, the three-dimensional of the existing position of the three-dimensional information acquired from each of the plurality of shooting points 3D information having a minimum time difference from the information may be selected, and the 3D map may be generated and displayed using the selected 3D information.
  • the display unit corresponds to the entire 3D space based on the global coordinate system when the long axis length of the bounding volume is greater than a preset distance as the size of the bounding volume is enlarged when the 3D map is generated and displayed.
  • the display unit rotates the bounding volume by using the gaze vector of the observer's gaze when the observer rotates to generate the three-dimensional map by using the three-dimensional information acquired at the corresponding photographing point included in the bounding volume.
  • the gaze vector includes a vector corresponding to each of the modes of roll, pitch, and yaw in the case of a gaze of 3 degrees of freedom, and the bounding volume in the case of gaze of 1 degree of freedom. It may include a vector corresponding to the long axis of the.
  • the display unit sets a plurality of cost functions based on each of a plurality of vectors from the photographing points to the point where the observer is located when the viewer is located at a point other than the photographing point in the three-dimensional space.
  • the apparatus may find a corresponding photographing point for minimizing the value of the set cost function, and generate and display the 3D map using the 3D information acquired from the corresponding photographing point.
  • the display unit 3D information acquired at each of the plurality of shooting points based on the shooting time of the three-dimensional information obtained at each of the plurality of shooting points, when there are a plurality of corresponding shooting points to minimize the value of the set cost function 3D information having a minimum time difference from the 3D information of the existing location may be selected, and the 3D map may be generated and displayed using the selected 3D information.
  • the display unit When the display unit generates and displays the 3D map, when the length of each of the vectors from the photographing points to the viewer is greater than a preset length, the display unit corresponds to the entire 3D space based on the global coordinate system.
  • the display unit By generating and displaying a 3D map, two 3D maps can be automatically switched and displayed according to the position of the observer.
  • the display unit generates the three-dimensional map by using the three-dimensional information obtained from another photographing point nearest to the photographing point, regardless of the position of the observer, when the obstacle includes the 3D information acquired at the photographing point. And it is displayed, it is preferable that the obstacle is not included in the three-dimensional information obtained from the other shooting point.
  • the display unit may load data related to a three-dimensional map that is stored in advance in correspondence with a location where the observer is located, and display the three-dimensional map using the data whenever the observer moves.
  • the display unit reproduces the 3D map in the form of a video when the viewer is located within a predetermined distance from one of the photographing points, and the observer moves during reproduction of the 3D map in the form of a video, If it is located outside a predetermined distance from one can further perform the operation of stopping the playback of the three-dimensional map of the video form.
  • the display unit sets a specific threshold distance value when playing the 3D map in the video form, and generates the 3D information generated by using the 3D information acquired at the photographing points within the threshold distance value from the observer's position.
  • the 3D map can be played repeatedly in chronological order.
  • the photographing point closest to the observer's position among photographing points included in a circle of a critical distance centering on the observer's position and having a radius of a critical distance as a radius.
  • the three-dimensional information taken at the interval repeating end point from the three-dimensional map generated using the three-dimensional information photographed at the interval repeating start point Sequence table up to the 3D map created using It can be repeatedly played back.
  • a method of generating and displaying a 3D map includes pose information including position and direction information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system.
  • the observer of the virtual reality is located in the three-dimensional space, finds a corresponding photographing point corresponding to the point where the observer is located by using the plurality of local coordinate systems, and uses the three-dimensional information acquired from the corresponding photographing point to determine the photographing point.
  • Generating and displaying the dimensional map includes pose information including position and direction information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system.
  • the generating of the plurality of local coordinate systems may further include selecting photographing points satisfying a preset condition from among the photographing points. At least one of the adjacency and the temporal adjacency is calculated with respect to the selected photographing points, and the preset condition is a condition for selecting photographing points for acquiring a predetermined number or more of 3D information, or the number of acquired 3D information is equal to or greater than a predetermined rank. It may be a condition for selecting photographing points.
  • the generating and displaying of the 3D map may include a long axis of a bounding volume having a specific shape passing through the center of the observer when the observer is located at a point other than the photographing point in the 3D space. And parallel to the observer's line of sight; Finding a corresponding shooting point included in the bounding volume by enlarging or reducing the size of the bounding volume until a predetermined number of shooting points is included in the bounding volume; And generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point.
  • the generating and displaying of the 3D map may be performed by rotating the bounding volume by using a gaze vector of the observer's gaze, and using the 3D information acquired at a corresponding photographing point included in the bounding volume. And generating and displaying a map, wherein the line of sight vector corresponds to a mode of roll, pitch, and yaw when the line of sight has a degree of freedom of 3, such as a head mounted display (HMD).
  • HMD head mounted display
  • a vector corresponding to the long axis of the bounding volume may be included.
  • the generating and displaying of the 3D map may include: when the observer is located at a point other than the shooting point in the three-dimensional space, each of the plurality of vectors from the shooting points to the point where the observer is located. Establishing a plurality of cost functions based on the number of cost functions; Finding a corresponding photographing point to minimize the value of the set cost function; And generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point.
  • a photographing point corresponding to the location information of an observer (avatar) in the virtual reality space may be found, and a 3D map may be generated and displayed using the 3D information acquired at the photographing point.
  • FIG. 1 is a block diagram illustrating a three-dimensional map generation and display device according to an embodiment of the present invention.
  • 2 to 5 are diagrams for explaining an embodiment of generating and displaying a 3D map when using a bounding volume.
  • 6 to 8 are diagrams for explaining another embodiment of generating and displaying a 3D map when using a cost function.
  • FIG. 9 is a diagram illustrating an example of changing a virtual reality environment in accordance with the movement of an observer.
  • FIG. 10 is a diagram illustrating an example of a photo for creating a virtual reality environment and an example of a 3D screen viewed from a user's point of view.
  • FIG. 11 is a diagram for explaining an example of importing and displaying specific 3D information regardless of the actual position of the observer in the virtual reality.
  • FIG. 12 is a diagram showing that the space is divided, which information acquisition point should be selected at which position, and previously stored and stored.
  • FIG. 13 is a flowchart illustrating a 3D map generation and display method according to an embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a three-dimensional map generation and display device according to an embodiment of the present invention.
  • the 3D map generation and display device 100 may include an acquisition unit 110, a generation unit 120, a display unit 130, a calculation unit 140, and a management unit ( 150, and the controller 160.
  • the acquirer 110 acquires pose information including position and rotation information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system.
  • the global coordinate system refers to a reference coordinate system for the entire 3D space
  • the 3D information includes a 3D image, a 3D video, etc. photographed at photographing points, and can capture a 3D space 360 degrees. It may be generated using a plurality of two-dimensional images generated by a plurality of cameras.
  • the 3D video refers to video data in which RGB information and depth information of the video exist in every image frame constituting the video.
  • the system obtains RGB and depth information of a corresponding time or index for each image frame, and displays the combined information.
  • the combination of the two is implemented by distorting the shape of the RGB image using depth information. If the original RGB image and depth information were captured by a normal camera, the method of distortion distorts the height for each pixel in the plane, and is displayed in the height map format recognized as standard in 3D graphics.
  • the original RGB image and depth information were captured by a 360-degree view camera, it would be displayed in the form of a distorted sphere moved in the opposite direction of the sphere's center vector or the sphere's center vector according to the depth information corresponding to the respective RGB data of the sphere. do.
  • the figure showing the distortion of the sphere is shown in FIG.
  • the 3D information may be generated using a plurality of 2D images generated by one or more cameras capable of capturing a portion of the 3D space. In addition, it may be generated by combining one or more images generated by one or more cameras capable of capturing a portion of the three-dimensional space and one or more lidars capable of laser scanning of the three-dimensional space.
  • acquisition of pose information may be performed using a SLAM (Simultaneous Localization and Mapping) algorithm and other location estimation algorithms, or may be performed by location information input by a user.
  • SLAM Simultaneous Localization and Mapping
  • the pose information may be generated using a lidar, an inertial sensor, an indoor GPS, or a combination thereof capable of laser scanning of a three-dimensional space.
  • the rotation information included in the pose information may include a rolling angle, pitch angle, and yaw angle with respect to the 3D information.
  • a robot equipped with a device including a lidar, an inertial sensor and two 360 degree cameras (upper and lower) moves through a predetermined three-dimensional space,
  • the two-dimensional images of the dimensional space may be acquired (processed into three-dimensional information after being acquired), and the pose information of the two-dimensional images may be obtained through the lidar.
  • the present invention is not limited thereto, and images and pose information about a 3D space may be obtained through various methods.
  • the generation unit 120 generates a plurality of local coordinate systems with respect to the three-dimensional space by calculating at least one of the spatial proximity of the photographing points and the temporal proximity of the photographing points corresponding to the photographing points based on pose information. .
  • the generation unit 120 may generate two or more local coordinate systems by giving priority to photographing points that are temporally and spatially adjacent to the photographing points.
  • the local coordinate system means a reference coordinate system for each area existing in the three-dimensional space.
  • the coordinates of the shooting points may be displayed based on the origin of the corresponding local coordinate system.
  • the observer is located in a specific local coordinate system, only the 3D information of the shooting points belonging to the local coordinate system may be displayed to the observer. Can be.
  • the origin of the local coordinate system may be designated as an inertial sensor mounted on the robot moved to obtain 3D information and a point on the path of the origin of the lidar, but may be randomly determined as an arbitrary point. have.
  • the generation unit 120 may further perform an operation of selecting photographing points satisfying a preset condition among the photographing points.
  • the generation unit 120 may select a shooting point for acquiring a predetermined number or more of 3D information as a preset condition (ie, a shooting point for acquiring 10 or more pieces of 3D information) or the number of the acquired 3D information is greater than or equal to a predetermined rank.
  • a preset condition ie, a shooting point for acquiring 10 or more pieces of 3D information
  • the shooting points satisfying the set conditions are selected, and the selected A plurality of local coordinate systems for the 3D space may be generated by calculating at least one of the spatial adjacency of the photographing points and the temporal adjacency of the photographing points corresponding to the selected photographing points.
  • the display unit 130 finds a corresponding photographing point corresponding to the spot where the observer is located by using the plurality of local coordinate systems, and acquires the three-dimensional image obtained from the corresponding photographing point. Create and display 3D maps using information.
  • the observer may be located at a point other than the photographing point in the three-dimensional space.
  • the display unit 130 may generate and display a 3D map corresponding to the position of the observer using a bounding volume in one embodiment, and in another embodiment, the cost function using the cost function.
  • a 3D map corresponding to the position of the observer may be generated and displayed.
  • the long axis of the bounding volume having a specific shape passes through the center of the observer.
  • the 3D map may be generated and displayed using the 3D information obtained from.
  • the 3D information having a minimum time difference from the 3D information of the existing location may be selected, and the 3D map may be generated and displayed using the selected 3D information.
  • the display unit 130 may provide a user interface that selects and displays one piece of three-dimensional information when a plurality of pieces of three-dimensional information exist in one place (shooting point). There may be several pieces of 3D information photographed at a distance below the threshold from the position of the observer of the virtual position, for example, at a 3D point within 2 m from the observer. At this time, the shooting time between the plurality of three-dimensional information may be different.
  • the 3D information 1 is an image photographed during the day and the 3D information 2 is an image photographed at night
  • the brightness image information of the two 3D information may be different even in the same space due to the influence of light.
  • the surrounding objects such as people passing by, furniture arrangement may be different, and thus there may be a lot of difference in image information. Due to this difference, image information may change rapidly and frequently when an observer in a virtual space passes through the space. As a result, the virtual reality user may feel uncomfortable.
  • the 3D information photographed at the same (or similar) time as the 3D information shown at the location of the existing user is preferentially selected and displayed.
  • a priority algorithm that uses 3D information taken at different times only when there is no 3D information.
  • the user may be informed that various pieces of 3D information exist at the corresponding location, and may provide an interface for the user to select it.
  • the display unit 130 when the display unit 130 generates and displays the 3D map, when the length of the long axis of the bounding volume is larger than a preset distance as the size of the bounding volume is enlarged, the display unit 130 may display the 3D map based on the global coordinate system.
  • the display unit 130 By generating and displaying a 3D map corresponding to the entire dimensional space, two 3D maps can be automatically switched and displayed according to the position of the observer. That is, the display unit 130 generates and displays a 3D map corresponding to the entire 3D space based on the global coordinate system according to the position of the observer, or 3 corresponding to the photographing point of the point where the observer is located based on the local coordinate system. Create and display dimensional maps.
  • the display unit 130 rotates the bounding volume by using a gaze vector of the observer's gaze, and uses the 3D information acquired at a corresponding photographing point included in the bounding volume.
  • the gaze vector includes a vector corresponding to each mode of roll, pitch, and yaw when the gaze vector has a degree of freedom of 3, such as a head mounted display (HMD), and includes an overhead view ( In the case of a line of sight 1 having a degree of freedom, such as an overhead view, a vector corresponding to the long axis of the bounding volume may be included.
  • Bounding volume is any invisible space that is closed to a closed surface in virtual space in computer graphics.
  • the bounding volume refers to the shape of a virtual object that acts like a button that starts the action of the main character's dialogue when the user's avatar enters a specific bounding volume.
  • the method of an embodiment using the bounding volume is as follows.
  • a bounding volume having a specific shape is set as shown in FIG. 2.
  • the bounding volume may be set as a bounding box having a rectangular parallelepiped shape (FIG. 2), a bounding ellipsoid having a three-dimensional ellipse shape, and the like.
  • FOG. 2 rectangular parallelepiped shape
  • a bounding ellipsoid having a three-dimensional ellipse shape
  • it is set as a bounding box.
  • the longest axis of the bounding box is called the long axis, and the long axis passes through the center of the observer's head and is set to be parallel to the observer's line of sight.
  • the size of the bounding box is enlarged or reduced to change its ratio.
  • the number of information acquisition points (shooting points) included in the bounding box is set to M (M Is one or more natural numbers).
  • M the number of information acquisition points included in the bounding box
  • the ratio K is changed to any value larger than 0, and the change is repeated until the number of information acquisition points included in the bounding box (volume) is equal to M.
  • search algorithms such as binary search and linear search can be used.
  • a three-dimensional map corresponding to a space reconstructed with three-dimensional information of the information acquisition point d included in the bounding box is displayed.
  • the bounding box can be rotated using only rotation about a specific axis.
  • the long axis of the bounding box may be perpendicular to the floor, so that appropriate three-dimensional information may not be retrieved.
  • the observer removes the three-dimensional information currently displayed when leaving the position.
  • the display unit 140 may display a plurality of vectors from the photographing points to the point where the observer is located.
  • Set a plurality of cost functions based on the plurality of cost functions find a corresponding photographing point for the minimum or maximum value of the set cost function, and generate and display the 3D map using the 3D information acquired from the corresponding photographing point. Can be.
  • the display unit 130 may consider not only the point where the observer is located, but also the observer's gaze, the moving direction, and the moving speed. In this case, the display unit 130, when there are a plurality of corresponding shooting points to maximize the value of the set cost function, each of the plurality of shooting points based on the shooting time of the three-dimensional information obtained from each of the plurality of shooting points Three-dimensional information having a minimum time difference from the three-dimensional information of the existing position among the three-dimensional information acquired at, may be selected, and the three-dimensional map may be generated and displayed using the selected three-dimensional information.
  • the display unit 130 generates and displays the 3D map, when the length of each of the vectors from the photographing points to the viewer is greater than a preset length, based on the global coordinate system.
  • the display unit 130 By generating and displaying a three-dimensional map corresponding to the entire space, two three-dimensional maps can be automatically switched and displayed according to the position of the observer.
  • the observer point vectors V1, V2, V3, and V4, which are vectors, are defined.
  • the magnitude of the observer point vector Vn is set as a cost function.
  • find 'b' which is an information acquisition point for V2 that minimizes the result of the cost function, that is, the size of the observer point vector Vn is the smallest.
  • 'd' where the result value of the cost function is smaller than 'b' may be found.
  • the gaze vector for the observer's gaze may be further considered.
  • a plurality of cost functions are set on the basis of the gaze vector for the observer's gaze and each of the vectors from the shooting points to the observer, and the corresponding shooting point is set such that the value of the set cost function is maximized. You can find it.
  • the cost function may be expressed as in Equation (1).
  • the cost function is set such that the result value of the cost function fn (v1, v2) is directly proportional to the dot product of V1 and V2, and the result value of the cost function is inversely proportional to the magnitude of V2.
  • the proportional relationship does not need to be linear, and an exponential function, a log function, and the like can be used, but it is preferable that the singular function (a sign of a slope is constant).
  • the 3D space is restored (created and displayed 3D map corresponding to b) using the selected information acquisition point 'b'.
  • the 3D information of the information acquisition point 'd' may be restored.
  • the surrounding virtual reality environment may change from FIG. 9A to FIG. 9B.
  • FIG. 9 shows a movement of a character (observer) in a virtual reality environment
  • the virtual space is not local space due to continuous 3D information update. You may feel that the whole is restored in three dimensions.
  • the avatar sees the local 3D information at a point in time, but the 3D information continues as the avatar moves. It feels like you're navigating a large 3D space because it is updated to.
  • the information acquisition points A and B exist, and a non-moving object K exists in the coordinate of a in the local coordinate system with the A point as the origin, and in the local coordinate system with the B point as the origin,
  • the position of the object K has different coordinates in the local coordinate system based on the point A and the local coordinate system based on the point B, but has the same coordinates based on the global coordinate system.
  • the information acquisition point A and B are managed as the local coordinate system, respectively, and the two local coordinate systems are managed through one global coordinate system, as the avatar moves from the A point to the B point, the A point is the origin. Even if the object K displayed on the three-dimensional map of the local coordinate system is updated and displayed on the three-dimensional map of the local coordinate system with the point B as the origin, only the observation point of the object is changed and the position is managed without change. Accordingly, even if the avatar moves from point A to point B, the position of the object K is displayed on the 3D map unchanged, and the user can feel that the 3D map is displayed continuously on the screen.
  • the present invention can be regarded as an advanced technology than the 2D street view technology of displaying discontinuous images according to the movement of the position on the map.
  • FIG. 10 illustrates an example of a photo for creating a virtual reality environment and an example of a 3D screen viewed from a user's point of view.
  • (a) represents an original RGB photograph
  • (b) restores a 3D image (three-dimensional information).
  • Depth image for (c) represents a 3D screen seen from the user's point of view.
  • the original RGB photograph and (b) since (a) the original RGB photograph and (b) the depth image were generated by being projected inside the spherical three-dimensional space, (a) the original RGB photograph was displayed in a distorted direction toward the center of the sphere. Able to know.
  • the shape of the 3D screen viewed from the user's point of view may be a three-dimensional shape surrounding the character in the virtual reality, may be a plane shape visible only to a part of the field of view, or may be a shape of a curved surface surrounding the entire field of view. It may be.
  • the display unit 130 uses the 3D information acquired at another photographing point closest to the photographing point regardless of the position of the observer. Create and display 3D maps. In this case, it is preferable that the obstacle is not included in the 3D information acquired at the other photographing point.
  • the display unit 130 may retrieve and display specific 3D information regardless of the actual position of the observer in the virtual reality.
  • a function is called a location fake function in the present invention.
  • you need a fake feature In the case of the present invention, the surrounding environment is automatically changed according to the movement of the observer. In this case, there is a problem that may occur, which is a case where you want to observe specific three-dimensional information up close.
  • an observer in a virtual reality observes an object C at a long distance as shown in FIG. 11A.
  • the object C when moving to the B position, the object C can be observed closer and moved to the position B.
  • An image of another object may exist between the observer and the C object.
  • a person may have passed between a photographer and a C object at the time of 3D information collection. In this case, although the distance from the object C is close, the shape of the object C can not be confirmed. If we photographed C from B, it might have been better than C's image from A, but we can't see C near, because we don't see C from B.
  • a function (preferably called a hold function in the present invention) is required to prevent 3D information replacement due to movement. If you activate this hold function, you can prevent 3D information replacement by movement.
  • the present hold function is used for the previous problem, as shown in FIG. 11 (b), even when the user at the position A drives the hold function and goes to the position B, the 3D information is not updated.
  • the three-dimensional shape shown is a three-dimensional shape reconstructed at the position of A, unlike the three-dimensional information reconstructed with the imaging three-dimensional information at the position of B, the object C can be observed.
  • This hold function can be driven by input button, UI on the screen, or automatically executed.
  • the video content may provide an interface that prevents the 3D information update even if the viewer moves until the playback of the video is completed. If there is no such hold function, an observer may move even though the video content is not finished.
  • the user plans the content to watch the video to the end the user can force the user to watch the video content by executing the hold function when the video starts playing and ending the hold function when the video ends.
  • the display unit 130 reproduces the 3D map in the form of a video when the observer is located within a predetermined distance from one of the photographing points, and the observer moves during the reproduction of the 3D map in the form of a video to capture the spot. If it is located outside a predetermined distance from one of these may further perform the operation of stopping the playback of the three-dimensional map of the video form.
  • the 3D map in the form of a video means a form of 3D information in which 3D information on a 3D map changes with time, and color information (RGB + Alpha) of the 3D information changes with time.
  • the display unit 130 reproduces the 3D map in the form of a video when the observer is located within a predetermined distance from one of the photographing points, and the observer moves during the reproduction of the 3D map in the form of a video to capture the spot. If it is located outside a predetermined distance from one of these may further perform the operation of stopping the playback of the three-dimensional map of the video form.
  • the 3D map in the form of a video means a form of 3D information in which 3D information on a 3D map changes with time, and color information (RGB + Alpha) of the 3D information changes with time.
  • the display unit 130 may set a specific threshold distance value R_repeat when playing a video, and may repeatedly play only images photographed at photographing points within a threshold distance value from the observer's position.
  • the interval repetition of the video is searched in reverse chronological order based on the recording time of the closest point to the observer's position among the recording points included in the circle of the critical distance centered on the position of the observer and the critical distance value is the radius.
  • Section retrieval point that is farthest from the observer's position as the start point of interval repeating, and search in time order based on the recording time of the point that is closest to the observer's position. Can be performed. That is, the images acquired at the plurality of photographing points are acquired according to the photographing motion lines. In this embodiment, the photographing points where the images are acquired first in time on the photographing motion lines within a critical distance circle are regarded as the interval repeating start points.
  • the display unit 130 may be located among the photographing points included in a critical distance circle centered on the observer's position and having a radius of a predetermined threshold distance value (for example, 5 m).
  • a predetermined threshold distance value for example, 5 m.
  • the observer moves during the video section repetition to change the section repeat start point and the section repeat end point.
  • the display unit 130 immediately before the observer moves instead of performing the video segment repetition based on the new segment repeat start point and the new segment repeat end point according to the new observer position so that the video jump does not occur according to the observer's movement.
  • the image photographed at the photographing point immediately after the photographing point corresponding to the photographing point of the image which has been reproduced may be reproduced.
  • the video jump means moving to another image frame which is suddenly discontinuous by a user's input or the like while playing a continuous image frame.
  • the display unit 130 plays an image of the 126th photographing point (the changed section repeating start point) or the 148th photographing point ( By reproducing the image of the 141st photographing point without reproducing the image of the changed observer position), the moving image is naturally reproduced regardless of the observer's movement.
  • the video jump may be allowed when the critical distance circle centered on the observer's position after the movement and the critical distance circle centered on the observer's position before the movement do not overlap at all.
  • the display unit 130 loads three-dimensional information about a three-dimensional map that is stored in advance corresponding to the point where the observer is located, and displays the three-dimensional map by using the three-dimensional information whenever the observer moves. can do.
  • the display unit 130 may provide a function of pre-calculating and storing in the form of 3D information before execution of a program which 3D information that the observer in the virtual reality should bring up and display in the program.
  • this function the computational burden to select a lot of 3D information every time is reduced, which helps to increase real-time. This is implemented in the following way.
  • the observer in the virtual reality is at an arbitrary position, the three-dimensional information to be retrieved from the position is calculated before the program execution.
  • the three-dimensional information to be modified manually. Arbitrary points thus calculated are set as regions.
  • FIG. 12 divides the space, calculates in advance which information acquisition point should be selected at which position according to the position (pos) of the observer's movement paths, and segments the three-dimensional space to capture the three-dimensional information. It is an expression of the storage.
  • the calculation unit 140 calculates a grouping index for a plurality of local coordinate systems generated by the generation unit 120.
  • the grouping indicator may include an estimation error between two or more pose information associated with the local coordinate system, a distortion due to the influence of light when matching three-dimensional information acquired at the selected photographing points into one, and each It may be defined as one value that quantifies the error of the 3D information (distance information) acquired from the pose information.
  • the grouping indicator may be defined as a weighted sum of a plurality of estimation errors as shown in Equation 2 below.
  • W is a weight and a sum of weights from W1 to Wn is 1, and e is an error variable of three-dimensional information, and each of e1, e2, and e3 is an error variable representing different uncertainties.
  • error variable of a single information acquisition point may be used, variance of position estimation, standard deviation, Mahalanobis distance, etc.
  • error variables covariance of an image and an energy function comparing each other with 3D feature point information may be used.
  • the management unit 150 generates the plurality of local coordinate systems by dividing the plurality of local coordinate systems into a group area coordinate system and an independent area coordinate system by comparing the calculated grouping index with a specific threshold value, and generates the generated group area coordinate system and the independent area coordinate system by one. Can be managed in the global coordinate system.
  • the two or more pose information when the grouping index between two or more pose information associated with the local coordinate system is less than the threshold value, the two or more pose information is generated as a group area coordinate system. When the grouping index is greater than or equal to the threshold value, the two or more pose information is generated. Each of these can be generated by dividing it into an independent local coordinate system.
  • the grouping indicator is set and the 3D information corresponding to the pose information whose grouping index is less than the threshold is regarded as similar 3D information, and the corresponding pose information is generated as a group area coordinate system instead of an independent area coordinate system, it is unnecessary. Since it is possible to prevent the update of the 3D map, it is possible to reduce the volume of the 3D information used to generate the 3D map.
  • the pose information corresponding to the plurality of similar 3D information is managed by grouping coordinates.
  • the shooting points corresponding to the group area coordinate system After loading all the 3D information about the 3D map can be generated and displayed at once.
  • a plurality of local coordinate systems corresponding to the corresponding shooting points are converted into a group area coordinate system and an independent area coordinate system. It is also possible to distinguish and generate and manage the generated group area coordinate system and the independent area coordinate system in one global coordinate system.
  • the coordinates of the shooting points are managed based on the origin point (0,0) of the individual local coordinate system, and in case of managing each local coordinate system in the global coordinate system, The coordinates of the origin of the local coordinate system are newly set based on the origin of the global coordinate system, and the coordinates of the photographing points are set and managed based on the coordinates of the origin of each of the newly set local coordinate systems.
  • the controller 160 is a three-dimensional map generation and display device 100 according to an embodiment of the present invention, that is, the acquisition unit 110, the generation unit 120, the display unit 130, the calculation unit ( 140), the operation of the manager 150 may be controlled overall.
  • FIG. 13 is a flowchart illustrating a 3D map generation and display method according to an embodiment of the present invention.
  • the 3D map generation and display method may be performed by the 3D map generation and display apparatus 100 of FIG. 1.
  • the 3D map generating and displaying apparatus includes a pose including position and rotation information about photographing points obtained by obtaining 3D information on a 3D space based on a global coordinate system. (pose) Acquire information.
  • the 3D map generating and display apparatus calculates at least one of the spatial proximity of the photographing points and the temporal adjacency of the photographing points corresponding to the selected photographing points, thereby obtaining a plurality of the 3D maps. Create a local coordinate system.
  • the step of selecting shooting points satisfying a predetermined condition among the shooting points may be performed, and in this case, the step 1320 may be performed based on the selected shooting points. have.
  • the 3D map generation and display apparatus uses the plurality of local coordinate systems to capture a corresponding photographing point corresponding to the position where the observer is located. Find it.
  • the 3D map generation and display device generates and displays a 3D map using the 3D information acquired at the corresponding photographing point.
  • Embodiments of the invention include a computer readable medium containing program instructions for performing various computer-implemented operations.
  • the computer readable medium may include program instructions, local data files, local data structures, or the like, alone or in combination.
  • the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like.
  • Hardware devices specifically configured to store and execute the same program instructions are included.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A device for generating and displaying a 3D map, according to one embodiment of the present invention, comprises: an acquisition unit for acquiring pose information including position and rotation information with regard to photographing locations, of which 3D information for the 3D space is obtained, on the basis of a global coordinate system; a generation unit for generating, based on the acquired pose information, a plurality of local coordinates for the 3D space according to at least one of spatial proximity and time proximity of the photographing locations; and a display unit for generating and displaying a 3D map by, if an observer of virtual reality is located within the 3D space, searching for a photographing location corresponding to the location of the observer by using the plurality of local coordinates, and using 3D information obtained in the corresponding photographing location.

Description

3차원 지도 생성 및 표시 장치 및 방법3D map generation and display device and method
본 발명의 실시예들은 3차원 지도 생성 및 표시 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for generating and displaying a 3D map.
최근 PC나 스마트기기들의 성능이 고도화 되고, HMD(Head Mount Display)와 같이 3차원으로 실감 영상을 감상할 수 있는 기기들이 시판되면서, 공간에 대한 컬러영상과 해당 영상의 깊이정보를 동시에 표현하는 3차원 지도에 대한 관심이 증대되고있다.Recently, the performance of PCs and smart devices has been advanced, and devices that can enjoy realistic images in three dimensions such as HMD (Head Mount Display) are commercially available. There is a growing interest in dimensional maps.
포털에서 서비스 되는 기존 2차원 지도는 x, y, z축(3자유도)을 기준하는 회전 이동만 가능하다는 한계를 가지고 있다. 그러나 3차원 지도에서는 각 축을 기준으로 하는 회전 이동뿐만 아니라, 3차원 공간에서의 시점 이동도 가능하기 때문에 총 6자유도로 시점을 바꾸며 지도를 감상할 수 있는 장점이 있다.Existing two-dimensional map serviced by portal has limitation that only rotational movement based on x, y, z axis (3 degree of freedom) is possible. However, in 3D map, not only rotational movement about each axis, but also viewpoint movement in 3D space is possible, so there is an advantage that you can change the viewpoint with 6 degrees of freedom.
그러나 실제 환경에서 이러한 3차원 지도를 생성하는 기술의 한계로 인하여, 현재의 3차원 지도들은 대개 사람이 CAD(Computer-aided design) 툴 등의 3차원 모델링 프로그램을 통해 만들어낸 3차원 모델이며, 현실에서 촬영된 사진을 이용한 3차원 모델에 비해서 색상, 해상도 등의 측면에서 현실감이 떨어지는 것이 업계의 일반적인 의견이다. 또는, (주)다음카카오에서 제공하는 로드뷰에서처럼, 사진이 촬영된 장소에서 2D 파노라마 사진을 보여주는 형태로 한정되어 있다.However, due to the limitations of the technology of generating such 3D maps in the real environment, current 3D maps are usually 3D models created by humans through 3D modeling programs such as computer-aided design (CAD) tools. It is a general opinion of the industry that the reality is less in terms of color, resolution, and the like compared to the three-dimensional model using the photograph taken at. Or, as shown in the road view provided by Daum Kakao Co., Ltd., it is limited to the form of showing 2D panoramic pictures at the place where the pictures were taken.
이에 실제 환경에서도 3차원 공간정보를 용이하게 취득할 수 있는 시스템이 필요하고, 취득된 데이터를 활용하는 3차원 지도 생성방법이 필요하며, 생성된 3차원 지도를 사용자에게 유익하게 제공하는 서비스 방법이 필요하다.Therefore, there is a need for a system capable of easily acquiring three-dimensional spatial information in a real environment, a three-dimensional map generation method using the acquired data, and a service method for providing the generated three-dimensional map to the user. need.
본 발명의 일 실시예는 가상현실 공간에서의 관찰자(아바타)의 위치 정보에 대응하는 촬영 지점을 찾아 그 촬영 지점에서 취득한 3차원 정보를 이용해 3차원 지도를 생성 및 표시할 수 있는 3차원 지도 생성 및 표시 장치 및 그 방법을 제공한다.According to an embodiment of the present invention, a three-dimensional map generation capable of finding and capturing a photographing point corresponding to the location information of an observer (avatar) in a virtual reality space and generating and displaying a three-dimensional map using the three-dimensional information acquired at the photographing point And a display device and a method thereof.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem (s) mentioned above, and other object (s) not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치는 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 회전 정보를 포함하는 포즈(pose) 정보를 획득하는 획득부; 상기 획득된 포즈 정보에 기초하여, 상기 촬영 지점들의 공간적 인접성, 및 시간적 인접성 중 적어도 하나에 따라 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 생성부; 및 가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾고, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시하는 표시부를 포함한다. According to an embodiment of the present invention, a 3D map generation and display apparatus includes pose information including position and rotation information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system. Acquisition unit for obtaining; A generation unit configured to generate a plurality of local coordinate systems with respect to the three-dimensional space according to at least one of the spatial proximity and the temporal proximity of the photographing points based on the acquired pose information; And when the observer of the virtual reality is located in the three-dimensional space, finds a corresponding photographing point corresponding to the point where the observer is located by using the plurality of local coordinate systems, and uses the three-dimensional information acquired from the corresponding photographing point to determine the photographing point. And a display unit for generating and displaying the dimensional map.
본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치는 상기 생성된 복수의 지역 좌표계와 연관된 포즈 정보들 사이의 추정 오류와 상기 선택된 촬영 지점들에서 취득한 3차원 정보의 오류 및 왜곡 중 적어도 하나로 정의되는 그룹핑 지표(grouping index)를 계산하는 계산부; 및 상기 계산된 그룹핑 지표를 특정 임계값과 비교하여 상기 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리하는 관리부를 더 포함할 수 있다.According to an embodiment of the present invention, the 3D map generation and display device includes at least one of an error between estimation of pose information associated with the plurality of generated local coordinate systems and an error and distortion of 3D information acquired at the selected photographing points. A calculator for calculating a defined grouping index; And comparing the calculated grouping index with a specific threshold to generate the plurality of local coordinate systems into a group area coordinate system and an independent area coordinate system, and manage the generated group area coordinate system and the independent area coordinate system in one global coordinate system. The management unit may further include.
본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치는 상기 생성된 복수의 지역 좌표계와 연관된 포즈 정보들 사이의 공간적 인접성 및 시간적 인접성을 계산하는 계산부; 및3D map generation and display device according to an embodiment of the present invention includes a calculation unit for calculating the spatial and temporal proximity between the pose information associated with the generated plurality of local coordinate system; And
상기 계산된 공간적 인접성 및 시간적 인접성을 특정 임계치와 비교하여 상기 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리하는 관리부를 더 포함할 수 있다. Comparing the calculated spatial and temporal adjacencies with a specific threshold, the plurality of local coordinate systems are divided into a group area coordinate system and an independent area coordinate system, and the generated group area coordinate system and the independent area coordinate system are generated in one global coordinate system. The management unit may further include a management unit.
상기 생성부는 상기 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 동작을 더 수행하고, 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 동작은 상기 선택된 촬영 지점들에 대하여 수행하고, 상기 미리 설정된 조건은 소정 개수 이상의 3차원 정보를 취득한 촬영 지점들을 선택하는 조건이거나, 취득한 3차원 정보의 개수가 소정 순위 이상인 촬영 지점들을 선택하는 조건일 수 있다. The generation unit may further perform an operation of selecting photographing points satisfying a preset condition among the photographing points, and generating the plurality of local coordinate systems for the 3D space with respect to the selected photographing points. The preset condition may be a condition for selecting photographing points obtained by obtaining at least a predetermined number of three-dimensional information, or may be a condition for selecting photographing points having a predetermined rank or more.
상기 포즈 정보는 SLAM(Simultaneous Localization and Mapping) 알고리즘 또는 사용자에 의해 입력된 위치 정보를 이용하여 획득될 수 있다. The pause information may be obtained using a SLAM (Simultaneous Localization and Mapping) algorithm or location information input by a user.
상기 표시부는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 특정 모양을 가지는 바운딩 볼륨(bounding volume)의 장축이 상기 관찰자의 중심을 통과하고 상기 관찰자의 시선과 평행하도록 설정하고, 미리 지정한 개수의 촬영 지점이 상기 바운딩 볼륨 안에 포함될 때까지 상기 바운딩 볼륨의 크기를 확대 또는 축소하여 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.When the observer is located at a point other than the photographing point in the three-dimensional space, the display unit may have a long axis of a bounding volume having a specific shape passing through the center of the observer and parallel to the observer's line of sight. Set the size of the bounding volume until the predetermined number of shooting points is included in the bounding volume, and find the corresponding shooting point included in the bounding volume, and use the 3D information acquired from the corresponding shooting point. To generate and display the 3D map.
상기 표시부는 상기 바운딩 볼륨 안에 포함된 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.The display unit, when there are a plurality of shooting points included in the bounding volume, based on the shooting time of the three-dimensional information acquired at each of the plurality of shooting points, the three-dimensional of the existing position of the three-dimensional information acquired from each of the plurality of shooting points 3D information having a minimum time difference from the information may be selected, and the 3D map may be generated and displayed using the selected 3D information.
상기 표시부는 상기 3차원 지도를 생성 및 표시할 때, 상기 바운딩 볼륨의 크기를 확대함에 따라 상기 바운딩 볼륨의 장축 길이가 미리 설정된 거리보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시할 수 있다.The display unit corresponds to the entire 3D space based on the global coordinate system when the long axis length of the bounding volume is greater than a preset distance as the size of the bounding volume is enlarged when the 3D map is generated and displayed. By generating and displaying a 3D map, two 3D maps can be automatically switched and displayed according to the position of the observer.
상기 표시부는 상기 관찰자가 회전하면 상기 관찰자의 시선에 대한 시선 벡터를 이용하여 상기 바운딩 볼륨을 축 회전시켜, 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하고, 상기 시선 벡터는 자유도 3의 시선인 경우 롤(roll), 피치(pitch) 및 요(yaw) 각각의 모드에 대응되는 벡터를 포함하고, 자유도 1의 시선인 경우 상기 바운딩 볼륨의 장축에 대응되는 벡터를 포함할 수 있다.The display unit rotates the bounding volume by using the gaze vector of the observer's gaze when the observer rotates to generate the three-dimensional map by using the three-dimensional information acquired at the corresponding photographing point included in the bounding volume. And the gaze vector includes a vector corresponding to each of the modes of roll, pitch, and yaw in the case of a gaze of 3 degrees of freedom, and the bounding volume in the case of gaze of 1 degree of freedom. It may include a vector corresponding to the long axis of the.
상기 표시부는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 촬영 지점들로부터 상기 관찰자가 위치하는 지점에 이르는 복수의 벡터들 각각에 기초하여 복수의 비용함수를 설정하고, 상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.The display unit sets a plurality of cost functions based on each of a plurality of vectors from the photographing points to the point where the observer is located when the viewer is located at a point other than the photographing point in the three-dimensional space. The apparatus may find a corresponding photographing point for minimizing the value of the set cost function, and generate and display the 3D map using the 3D information acquired from the corresponding photographing point.
상기 표시부는 상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.The display unit 3D information acquired at each of the plurality of shooting points based on the shooting time of the three-dimensional information obtained at each of the plurality of shooting points, when there are a plurality of corresponding shooting points to minimize the value of the set cost function 3D information having a minimum time difference from the 3D information of the existing location may be selected, and the 3D map may be generated and displayed using the selected 3D information.
상기 표시부는 상기 3차원 지도를 생성 및 표시할 때, 상기 촬영 지점들로부터 상기 관찰자에 이르는 벡터들 각각의 길이가 미리 설정된 길이보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시할 수 있다.When the display unit generates and displays the 3D map, when the length of each of the vectors from the photographing points to the viewer is greater than a preset length, the display unit corresponds to the entire 3D space based on the global coordinate system. By generating and displaying a 3D map, two 3D maps can be automatically switched and displayed according to the position of the observer.
상기 표시부는 상기 해당 촬영 지점에서 취득한 3차원 정보에 장애물이 포함된 경우, 상기 관찰자의 위치와 상관 없이 상기 해당 촬영 지점과 가장 인접한 다른 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하되, 상기 다른 촬영 지점에서 취득한 3차원 정보에는 상기 장애물이 포함되지 않는 것이 바람직하다.The display unit generates the three-dimensional map by using the three-dimensional information obtained from another photographing point nearest to the photographing point, regardless of the position of the observer, when the obstacle includes the 3D information acquired at the photographing point. And it is displayed, it is preferable that the obstacle is not included in the three-dimensional information obtained from the other shooting point.
상기 표시부는 상기 관찰자가 위치한 지점에 대응하여 미리 저장되어 있는 3차원 지도에 관한 데이터를 로딩하여, 상기 관찰자가 이동할 때마다 해당 데이터를 이용하여 3차원 지도를 표시할 수 있다.The display unit may load data related to a three-dimensional map that is stored in advance in correspondence with a location where the observer is located, and display the three-dimensional map using the data whenever the observer moves.
상기 표시부는 상기 관찰자가 상기 촬영 지점들 중 하나로부터 소정 거리 이내에 위치하게 되면 동영상 형태의 상기 3차원 지도를 재생하고, 상기 관찰자가 상기 동영상 형태의 상기 3차원 지도 재생 중에 이동하여 상기 촬영 지점들 중 하나로부터 소정 거리 밖에 위치하게 되면 상기 동영상 형태의 상기 3차원 지도의 재생을 중지하는 동작을 더 수행할 수 있다. The display unit reproduces the 3D map in the form of a video when the viewer is located within a predetermined distance from one of the photographing points, and the observer moves during reproduction of the 3D map in the form of a video, If it is located outside a predetermined distance from one can further perform the operation of stopping the playback of the three-dimensional map of the video form.
상기 표시부는 상기 동영상 형태의 상기 3차원 지도를 재생할 때, 특정 임계거리값을 설정하고, 상기 관찰자의 위치로부터 상기 임계거리값 이내에 있는 상기 촬영 지점들에서 취득한 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도를 시간 순서대로 반복하여 재생할 수 있다. The display unit sets a specific threshold distance value when playing the 3D map in the video form, and generates the 3D information generated by using the 3D information acquired at the photographing points within the threshold distance value from the observer's position. The 3D map can be played repeatedly in chronological order.
상기 표시부는 상기 동영상 형태의 상기 3차원 지도를 재생할 때, 상기 관찰자의 위치를 중심으로하고 임계거리값을 반지름으로 하는 원인 임계거리 원 안에 포함되는 촬영 지점들 중에서 상기 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간상 역순으로 검색하여 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 시작점으로 설정하고, 상기 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간 순서대로 검색하여 상기 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 종료점으로 설정한 후, 상기 구간반복 시작점에서 촬영된 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도부터 상기 구간반복 종료점에서 촬영된 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도까지 순서대로 반복하여 재생할 수 있다. When the display unit reproduces the 3D map in the form of a video, the photographing point closest to the observer's position among photographing points included in a circle of a critical distance centering on the observer's position and having a radius of a critical distance as a radius. Search in reverse chronological order on the basis of the shooting time of to set the shooting point farthest from the observer's position as the interval repeating start point, and search in chronological order based on the shooting time of the shooting point nearest to the observer's position. After setting the photographing point farthest from the position of the interval repeating end point, the three-dimensional information taken at the interval repeating end point from the three-dimensional map generated using the three-dimensional information photographed at the interval repeating start point Sequence table up to the 3D map created using It can be repeatedly played back.
본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 방법은 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 방향 정보를 포함하는 포즈(pose) 정보를 획득하는 단계; 상기 획득된 포즈 정보에 기초하여, 상기 촬영 지점들의 공간적 인접성 및 상기 촬영 지점들에 대응되는 촬영 시점들의 시간적 인접성 중 적어도 하나에 따라 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 단계; 및 가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾고, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시하는 단계를 포함한다. According to an embodiment of the present invention, a method of generating and displaying a 3D map includes pose information including position and direction information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system. Obtaining a; Generating a plurality of local coordinate systems with respect to the three-dimensional space based on at least one of spatial proximity of the photographing points and temporal proximity of photographing points corresponding to the photographing points, based on the acquired pose information; And when the observer of the virtual reality is located in the three-dimensional space, finds a corresponding photographing point corresponding to the point where the observer is located by using the plurality of local coordinate systems, and uses the three-dimensional information acquired from the corresponding photographing point to determine the photographing point. Generating and displaying the dimensional map.
본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 방법은 상기 복수의 지역 좌표계를 생성하는 단계는 상기 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 단계를 더 포함하고, 상기 공간적 인접성 및 상기 시간적 인접성 중 적어도 하나는 상기 선택된 촬영 지점들에 대하여 계산되고, 상기 미리 설정된 조건은 소정 개수 이상의 3차원 정보를 취득한 촬영 지점들을 선택하는 조건이거나, 취득한 3차원 정보의 개수가 소정 순위 이상인 촬영 지점들을 선택하는 조건일 수 있다. In the method of generating and displaying a 3D map according to an embodiment of the present disclosure, the generating of the plurality of local coordinate systems may further include selecting photographing points satisfying a preset condition from among the photographing points. At least one of the adjacency and the temporal adjacency is calculated with respect to the selected photographing points, and the preset condition is a condition for selecting photographing points for acquiring a predetermined number or more of 3D information, or the number of acquired 3D information is equal to or greater than a predetermined rank. It may be a condition for selecting photographing points.
상기 3차원 지도를 생성 및 표시하는 단계는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 특정 모양을 가지는 바운딩 볼륨(bounding volume)의 장축이 상기 관찰자의 중심을 통과하고 상기 관찰자의 시선과 평행하도록 설정하는 단계; 미리 지정한 개수의 촬영 지점이 상기 바운딩 볼륨 안에 포함될 때까지 상기 바운딩 볼륨의 크기를 확대 또는 축소하여 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점을 찾는 단계; 및 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계를 포함할 수 있다.The generating and displaying of the 3D map may include a long axis of a bounding volume having a specific shape passing through the center of the observer when the observer is located at a point other than the photographing point in the 3D space. And parallel to the observer's line of sight; Finding a corresponding shooting point included in the bounding volume by enlarging or reducing the size of the bounding volume until a predetermined number of shooting points is included in the bounding volume; And generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point.
상기 3차원 지도를 생성 및 표시하는 단계는 상기 관찰자의 시선에 대한 시선 벡터를 이용하여 상기 바운딩 볼륨을 축 회전시켜, 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계를 더 포함하고, 상기 시선 벡터는 HMD(Head Mounted Display)와 같은 자유도 3의 시선인 경우 롤(roll), 피치(pitch) 및 요(yaw) 각각의 모드에 대응되는 벡터를 포함하고, 오버헤드 뷰(overhead view)와 같은 자유도 1의 시선인 경우 상기 바운딩 볼륨의 장축에 대응되는 벡터를 포함할 수 있다.The generating and displaying of the 3D map may be performed by rotating the bounding volume by using a gaze vector of the observer's gaze, and using the 3D information acquired at a corresponding photographing point included in the bounding volume. And generating and displaying a map, wherein the line of sight vector corresponds to a mode of roll, pitch, and yaw when the line of sight has a degree of freedom of 3, such as a head mounted display (HMD). In the case of a line of sight 1 having a degree of freedom, such as an overhead view, a vector corresponding to the long axis of the bounding volume may be included.
상기 3차원 지도를 생성 및 표시하는 단계는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 촬영 지점들로부터 상기 관찰자가 위치하는 지점에 이르는 복수의 벡터들 각각에 기초하여 복수의 비용함수를 설정하는 단계; 상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점을 찾는 단계; 및 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계를 포함할 수 있다. The generating and displaying of the 3D map may include: when the observer is located at a point other than the shooting point in the three-dimensional space, each of the plurality of vectors from the shooting points to the point where the observer is located. Establishing a plurality of cost functions based on the number of cost functions; Finding a corresponding photographing point to minimize the value of the set cost function; And generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the accompanying drawings.
본 발명의 일 실시예에 따르면, 가상현실 공간에서의 관찰자(아바타)의 위치 정보에 대응하는 촬영 지점을 찾아 그 촬영 지점에서 취득한 3차원 정보를 이용해 3차원 지도를 생성 및 표시할 수 있다.According to an embodiment of the present invention, a photographing point corresponding to the location information of an observer (avatar) in the virtual reality space may be found, and a 3D map may be generated and displayed using the 3D information acquired at the photographing point.
도 1은 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치를 설명하기 위해 도시한 블록도이다.1 is a block diagram illustrating a three-dimensional map generation and display device according to an embodiment of the present invention.
도 2 내지 도 5는 바운딩 볼륨을 이용하는 경우의 3차원 지도를 생성 및 표시하는 일 실시예를 설명하기 위해 도시한 도면이다.2 to 5 are diagrams for explaining an embodiment of generating and displaying a 3D map when using a bounding volume.
도 6 내지 도 8은 비용함수를 이용하는 경우의 3차원 지도를 생성 및 표시하는 다른 실시예를 설명하기 위해 도시한 도면이다.6 to 8 are diagrams for explaining another embodiment of generating and displaying a 3D map when using a cost function.
도 9는 관찰자의 이동에 따라 주변의 가상현실 환경이 바뀌는 일례를 도시한 도면이다.FIG. 9 is a diagram illustrating an example of changing a virtual reality environment in accordance with the movement of an observer.
도 10은 가상현실 환경을 생성하기 위한 사진의 예시 및 유저 시점에서 보이는 3D 화면의 예시를 나타낸 도면이다. 10 is a diagram illustrating an example of a photo for creating a virtual reality environment and an example of a 3D screen viewed from a user's point of view.
도 11은 가상현실 속 관찰자의 실제 위치와 관계없이 특정 3차원 정보를 불러와서 표시하는 일례를 설명하기 위해 도시한 도면이다.FIG. 11 is a diagram for explaining an example of importing and displaying specific 3D information regardless of the actual position of the observer in the virtual reality.
도 12는 공간을 분할해, 어떤 위치에서 어떤 정보 취득점을 선택해야 하는지 미리 연산하고, 저장해 둔 것을 표현한 도면이다.FIG. 12 is a diagram showing that the space is divided, which information acquisition point should be selected at which position, and previously stored and stored.
도 13은 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 방법을 설명하기 위해 도시한 흐름도이다.13 is a flowchart illustrating a 3D map generation and display method according to an embodiment of the present invention.
본 발명의 이점 및 또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.Advantages and / or features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only the present embodiments to make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention;
도 1은 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치를 설명하기 위해 도시한 블록도이다.1 is a block diagram illustrating a three-dimensional map generation and display device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치(100)는 획득부(110), 생성부(120), 표시부(130), 계산부(140), 관리부(150), 및 제어부(160)를 포함할 수 있다.Referring to FIG. 1, the 3D map generation and display device 100 according to an exemplary embodiment of the present invention may include an acquisition unit 110, a generation unit 120, a display unit 130, a calculation unit 140, and a management unit ( 150, and the controller 160.
상기 획득부(110)는 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 회전 정보를 포함하는 포즈(pose) 정보를 획득한다. The acquirer 110 acquires pose information including position and rotation information about photographing points from which 3D information of a 3D space is acquired based on a global coordinate system.
여기서, 상기 전역 좌표계는 상기 3차원 공간 전체에 대한 기준 좌표계를 의미하고, 3차원 정보는 촬영 지점들에서 촬영된 3차원 이미지, 3차원 동영상 등을 포함하고, 3차원 공간을 360도로 촬영할 수 있는 복수의 카메라에서 생성된 복수의 2차원 이미지를 이용하여 생성될 수 있다. Here, the global coordinate system refers to a reference coordinate system for the entire 3D space, and the 3D information includes a 3D image, a 3D video, etc. photographed at photographing points, and can capture a 3D space 360 degrees. It may be generated using a plurality of two-dimensional images generated by a plurality of cameras.
3차원 동영상이란, 동영상을 구성하는 매 이미지 프레임마다 동영상의 RGB 정보와 깊이(Depth) 정보가 존재하는 영상데이터를 말한다. 3차원 동영상의 실행 시점에서 시스템은 각 이미지 프레임마다 해당하는 시간 또는 인덱스의 RGB, 깊이 정보를 가져오고, 두 정보를 조합하여 표시하게 된다. 두 정보의 조합은 RGB 이미지의 형상을 깊이 정보를 이용해 왜곡하는 방식으로 구현된다. 원래의 RGB 이미지와 깊이 정보가 일반 카메라에서 촬영된 경우, 왜곡의 방법은 평면에서 각 화소에 대한 높이를 왜곡하여, 3차원 그래픽스에서 표준으로 인식되는 Height Map 형식으로 표시된다. 원래의 RGB 이미지와 깊이 정보가 360도 뷰 카메라에서 촬영된 경우, 구의 각각의 RGB 데이터에 해당하는 깊이 정보에 따라 구의 중심쪽 벡터 또는 구의 중심쪽 벡터의 반대방향으로 이동시킨 왜곡된 구 형태로 표시된다. 해당 구체의 왜곡에 대한 설명을 나타내는 그림은 도10 에서 도시되어 있다. The 3D video refers to video data in which RGB information and depth information of the video exist in every image frame constituting the video. At the time of executing the 3D video, the system obtains RGB and depth information of a corresponding time or index for each image frame, and displays the combined information. The combination of the two is implemented by distorting the shape of the RGB image using depth information. If the original RGB image and depth information were captured by a normal camera, the method of distortion distorts the height for each pixel in the plane, and is displayed in the height map format recognized as standard in 3D graphics. If the original RGB image and depth information were captured by a 360-degree view camera, it would be displayed in the form of a distorted sphere moved in the opposite direction of the sphere's center vector or the sphere's center vector according to the depth information corresponding to the respective RGB data of the sphere. do. The figure showing the distortion of the sphere is shown in FIG.
또한, 3차원 정보는, 3차원 공간의 일부를 촬영할 수 있는 1개 이상의 카메라에서 생성된 복수의 2차원 이미지를 이용하여 생성될 수 있다. 또한 3차원 공간의 일부를 촬영할 수 있는 1개 이상의 카메라에서 생성된 1개이상의 이미지와 3차원 공간에 대한 레이저 스캔이 가능한 1개 이상의 라이다(lidar)와의 조합으로 생성 될 수 있다.In addition, the 3D information may be generated using a plurality of 2D images generated by one or more cameras capable of capturing a portion of the 3D space. In addition, it may be generated by combining one or more images generated by one or more cameras capable of capturing a portion of the three-dimensional space and one or more lidars capable of laser scanning of the three-dimensional space.
또한, 포즈 정보의 획득 SLAM(Simultaneous Localization and Mapping) 알고리즘 및 다른 위치추정 알고리즘을 이용하여 수행될 수도 있고, 사용자에 의해 입력된 위치 정보에 의하여 수행될 수도 있다. In addition, acquisition of pose information may be performed using a SLAM (Simultaneous Localization and Mapping) algorithm and other location estimation algorithms, or may be performed by location information input by a user.
바람직하게는, 포즈 정보는 3차원 공간에 대한 레이저 스캔이 가능한 라이다(lidar), 관성 센서, 실내GPS 또는 이들의 조합을 이용하여 생성될 수 있다. 또한, 포즈 정보에 포함된 회전 정보는 3차원 정보에 대한 롤링(roling) 각도, 피치(pitch) 각도, 요(yaw) 각도를 포함할 수 있다. Preferably, the pose information may be generated using a lidar, an inertial sensor, an indoor GPS, or a combination thereof capable of laser scanning of a three-dimensional space. In addition, the rotation information included in the pose information may include a rolling angle, pitch angle, and yaw angle with respect to the 3D information.
한편, 본 발명의 일 실시예에 따르면 라이다, 관성센서 및 2개의 360도 촬영 가능 카메라(상단과 하단)가 결합된 장치가 탑재된 로봇이 소정의 3차원 공간을 이동하면서, 카메라들을 통해 3차원 공간에 대한 2차원 이미지들을 획득(획득된 이후에 3차원 정보로 가공됨)하고, 라이다를 통해 그 2차원 이미지들에 대한 포즈 정보를 획득할 수도 있다. 다만, 본 발명은 이에 한정되지 않고, 다양한 방식을 통해 3차원 공간에 대한 이미지들과 포즈 정보를 획득할 수 있다. Meanwhile, according to an embodiment of the present invention, a robot equipped with a device including a lidar, an inertial sensor and two 360 degree cameras (upper and lower) moves through a predetermined three-dimensional space, The two-dimensional images of the dimensional space may be acquired (processed into three-dimensional information after being acquired), and the pose information of the two-dimensional images may be obtained through the lidar. However, the present invention is not limited thereto, and images and pose information about a 3D space may be obtained through various methods.
상기 생성부(120)는 포즈 정보에 기초하여 상기 촬영 지점들의 공간적 인접성 및 상기 촬영 지점들에 대응되는 촬영 시점들의 시간적 인접성 중 적어도 하나를 계산하여 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성한다. The generation unit 120 generates a plurality of local coordinate systems with respect to the three-dimensional space by calculating at least one of the spatial proximity of the photographing points and the temporal proximity of the photographing points corresponding to the photographing points based on pose information. .
예컨대, 상기 생성부(120)는 상기 촬영 지점들에 대해 시간적, 공간적으로 인접한 촬영 지점들을 우선순위로 하여 2개 이상의 지역 좌표계를 생성할 수 있다. 여기서, 상기 지역 좌표계는 상기 3차원 공간 내에 존재하는 각 영역에 대한 기준 좌표계를 의미한다. 이와 같은 지역 좌표계에서는 촬영 지점들의 좌표가 해당 지역 좌표계의 원점을 기준으로 표시될 수 있으며, 관찰자가 특정한 지역 좌표계에 위치하게 되는 경우에는 관찰자에게는 해당 지역 좌표계에 속하는 촬영 지점들의 3D 정보만이 표시될 수 있다. For example, the generation unit 120 may generate two or more local coordinate systems by giving priority to photographing points that are temporally and spatially adjacent to the photographing points. Here, the local coordinate system means a reference coordinate system for each area existing in the three-dimensional space. In such a local coordinate system, the coordinates of the shooting points may be displayed based on the origin of the corresponding local coordinate system. When the observer is located in a specific local coordinate system, only the 3D information of the shooting points belonging to the local coordinate system may be displayed to the observer. Can be.
바람직하게는, 지역 좌표계의 원점은 3차원 정보를 획득하기 위해 이동한 로봇에 탑재된 관성센서 및 라이다의 원점이 이동한 경로상의 한 점으로 지정될 수도 있으나, 임의의 지점으로 랜덤하게 결정될 수도 있다. Preferably, the origin of the local coordinate system may be designated as an inertial sensor mounted on the robot moved to obtain 3D information and a point on the path of the origin of the lidar, but may be randomly determined as an arbitrary point. have.
또한, 생성부(120)는 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 동작을 더 수행할 수 있다. In addition, the generation unit 120 may further perform an operation of selecting photographing points satisfying a preset condition among the photographing points.
예컨대, 생성부(120)는 미리 설정된 조건으로서 소정 개수 이상의 3차원 정보를 취득한 촬영 지점들을 선택하는 조건(i.e. 10개 이상의 3차원 정보를 취득한 촬영 지점) 또는 취득한 3차원 정보의 개수가 소정 순위 이상인 촬영 지점들을 선택하는 조건(i.e. 촬영 지점들 각각에서 취득한 3차원 정보의 개수를 기준으로 상위 20위 안에 포함되는 촬영 지점)을 설정한 후, 그 설정된 조건을 만족하는 촬영 지점들을 선택하고, 그 선택된 촬영 지점들의 공간적 인접성 및 그 선택된 촬영 지점들에 대응되는 촬영 시점들의 시간적 인접성 중 적어도 하나를 계산하여 3차원 공간에 대한 복수의 지역 좌표계를 생성할 수 있다. For example, the generation unit 120 may select a shooting point for acquiring a predetermined number or more of 3D information as a preset condition (ie, a shooting point for acquiring 10 or more pieces of 3D information) or the number of the acquired 3D information is greater than or equal to a predetermined rank. After setting the conditions for selecting the shooting points (ie, the shooting points included in the top 20 on the basis of the number of 3D information acquired at each of the shooting points), the shooting points satisfying the set conditions are selected, and the selected A plurality of local coordinate systems for the 3D space may be generated by calculating at least one of the spatial adjacency of the photographing points and the temporal adjacency of the photographing points corresponding to the selected photographing points.
상기 표시부(130)는 가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾고, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시한다.When the observer of the virtual reality is located in the three-dimensional space, the display unit 130 finds a corresponding photographing point corresponding to the spot where the observer is located by using the plurality of local coordinate systems, and acquires the three-dimensional image obtained from the corresponding photographing point. Create and display 3D maps using information.
이때, 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우가 발생할 수 있다. 이러한 경우, 상기 표시부(130)는 일 실시예로서 바운딩 볼륨(bounding volume)을 이용해서 상기 관찰자의 위치에 대응하는 3차원 지도를 생성 및 표시할 수 있고, 다른 실시예로서 비용함수를 이용해서 상기 관찰자의 위치에 대응하는 3차원 지도를 생성 및 표시할 수 있다.In this case, the observer may be located at a point other than the photographing point in the three-dimensional space. In this case, the display unit 130 may generate and display a 3D map corresponding to the position of the observer using a bounding volume in one embodiment, and in another embodiment, the cost function using the cost function. A 3D map corresponding to the position of the observer may be generated and displayed.
일 실시예의 경우, 상기 표시부(130)는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 특정 모양을 가지는 바운딩 볼륨(bounding volume)의 장축이 상기 관찰자의 중심을 통과하고 상기 관찰자의 시선과 평행하도록 설정하고, 미리 지정한 개수의 촬영 지점이 상기 바운딩 볼륨 안에 포함될 때까지 상기 바운딩 볼륨의 크기를 확대 또는 축소하여 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점을 찾아, 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.In one embodiment, when the observer is located at a point other than the photographing point in the 3D space, the long axis of the bounding volume having a specific shape passes through the center of the observer. Set to be parallel to the observer's line of sight, and expand or reduce the size of the bounding volume until a predetermined number of shooting points are included in the bounding volume to find a corresponding shooting point included in the bounding volume. The 3D map may be generated and displayed using the 3D information obtained from.
이때, 상기 표시부(130)는 상기 바운딩 볼륨 안에 포함된 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.In this case, when there are a plurality of shooting points included in the bounding volume, the display unit 130 of the three-dimensional information acquired at each of the plurality of shooting points based on the shooting time of the three-dimensional information acquired at each of the plurality of shooting points. The 3D information having a minimum time difference from the 3D information of the existing location may be selected, and the 3D map may be generated and displayed using the selected 3D information.
예를 들어, 상기 표시부(130)는 한 장소(촬영 지점)에 복수의 3차원 정보가 존재하는 경우, 하나의 3차원 정보를 선택해서 보여주는 유저 인터페이스를 제공할 수 있다. 가상위치의 관측자의 위치로부터 임계값 이하의 거리에, 가령 관측자로부터 2m 이내에 떨어진 3차원 지점에 촬영된 3차원 정보가 여러 개 존재할 수 있다. 이때, 복수 3차원 정보간 촬영 시간이 다를 수 있다. 3차원 정보 1이 낮에 촬영된 영상, 3차원 정보 2가 밤에 촬영된 영상일 경우 빛의 영향에 의해 같은 공간이라도 두 3차원 정보의 밝기 영상정보에 차이가 많이 날 수 있다. 또한, 촬영 시간이 다르기 때문에 지나가는 사람, 가구배치 등 주변의 사물이 달라질 수 있고, 이로 인해 영상정보에 차이가 많을 수 있다. 이런 차이 때문에, 가상공간의 관측자가 해당 공간을 지나갈 때 영상정보가 급격하고 빈번하게 변할 수 있다. 이로 인해 가상현실 사용자는 불편함을 느낄 수 있다.For example, the display unit 130 may provide a user interface that selects and displays one piece of three-dimensional information when a plurality of pieces of three-dimensional information exist in one place (shooting point). There may be several pieces of 3D information photographed at a distance below the threshold from the position of the observer of the virtual position, for example, at a 3D point within 2 m from the observer. At this time, the shooting time between the plurality of three-dimensional information may be different. When the 3D information 1 is an image photographed during the day and the 3D information 2 is an image photographed at night, the brightness image information of the two 3D information may be different even in the same space due to the influence of light. In addition, because the shooting time is different, the surrounding objects, such as people passing by, furniture arrangement may be different, and thus there may be a lot of difference in image information. Due to this difference, image information may change rapidly and frequently when an observer in a virtual space passes through the space. As a result, the virtual reality user may feel uncomfortable.
이를 방지하기 위해, 본 실시예에서는 복수개의 3차원 정보가 존재할 때, 기존 사용자의 위치에서 보여주던 3차원 정보와 동일(또는 유사한) 시간에 촬영된 3차원 정보를 우선적으로 선택하여 보여주고, 그런 3차원 정보가 없는 경우에만 다른 시간에 촬영된 3차원 정보를 사용하게 하는 우선순위 알고리즘을 제안한다. 또한 사용자에게 해당 위치에서 여러 3차원 정보가 존재한다는 것을 알리고, 유저가 이를 선택할 수 있도록 하는 인터페이스를 제공할 수도 있다.In order to prevent this, in the present embodiment, when there is a plurality of 3D information, the 3D information photographed at the same (or similar) time as the 3D information shown at the location of the existing user is preferentially selected and displayed. We propose a priority algorithm that uses 3D information taken at different times only when there is no 3D information. In addition, the user may be informed that various pieces of 3D information exist at the corresponding location, and may provide an interface for the user to select it.
한편, 상기 표시부(130)는 상기 3차원 지도를 생성 및 표시할 때, 상기 바운딩 볼륨의 크기를 확대함에 따라 상기 바운딩 볼륨의 장축 길이가 미리 설정된 거리보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시할 수 있다. 즉, 표시부(130)는 관찰자의 위치에 따라 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시하거나, 지역 좌표계에 기초하여 관찰자가 위치한 지점의 촬영 지점에 대응되는 3차원 지도를 생성 및 표시할 수 있다. On the other hand, when the display unit 130 generates and displays the 3D map, when the length of the long axis of the bounding volume is larger than a preset distance as the size of the bounding volume is enlarged, the display unit 130 may display the 3D map based on the global coordinate system. By generating and displaying a 3D map corresponding to the entire dimensional space, two 3D maps can be automatically switched and displayed according to the position of the observer. That is, the display unit 130 generates and displays a 3D map corresponding to the entire 3D space based on the global coordinate system according to the position of the observer, or 3 corresponding to the photographing point of the point where the observer is located based on the local coordinate system. Create and display dimensional maps.
또한, 상기 표시부(130)는 상기 관찰자가 회전하면 상기 관찰자의 시선에 대한 시선 벡터를 이용하여 상기 바운딩 볼륨을 축 회전시켜, 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다. 여기서, 상기 시선 벡터는 HMD(Head Mounted Display)와 같은 자유도 3의 시선인 경우 롤(roll), 피치(pitch) 및 요(yaw) 각각의 모드에 대응되는 벡터를 포함하고, 오버헤드 뷰(overhead view)와 같은 자유도 1의 시선인 경우 상기 바운딩 볼륨의 장축에 대응되는 벡터를 포함할 수 있다.In addition, when the observer rotates, the display unit 130 rotates the bounding volume by using a gaze vector of the observer's gaze, and uses the 3D information acquired at a corresponding photographing point included in the bounding volume. Create and display 3D maps. Here, the gaze vector includes a vector corresponding to each mode of roll, pitch, and yaw when the gaze vector has a degree of freedom of 3, such as a head mounted display (HMD), and includes an overhead view ( In the case of a line of sight 1 having a degree of freedom, such as an overhead view, a vector corresponding to the long axis of the bounding volume may be included.
상술한 일 실시예에 대해 도 2 내지 도 5를 참조하여 보다 구체적으로 설명하면 다음과 같다.The above-described embodiment will be described in more detail with reference to FIGS. 2 to 5 as follows.
바운딩 볼륨이란, 컴퓨터 그래픽에서 가상공간에서 폐곡면으로 닫힌 보이지 않는 어떤 공간을 말한다. 게임에서 바운딩 볼륨이라고 하면, 특정 바운딩 볼륨 안에 사용자의 아바타가 들어오면 주인공의 대사가 시작 되는 등의 동작을 시작하는 버튼 같은 역할을 하는 가상물체의 모양을 의미한다. 상기 바운딩 볼륨을 이용한 일 실시예의 방법은 다음 순서를 따른다.Bounding volume is any invisible space that is closed to a closed surface in virtual space in computer graphics. In the game, the bounding volume refers to the shape of a virtual object that acts like a button that starts the action of the main character's dialogue when the user's avatar enters a specific bounding volume. The method of an embodiment using the bounding volume is as follows.
우선, 도 2와 같이 특정 모양을 가지는 바운딩 볼륨을 설정한다. 예컨대, 상기 바운딩 볼륨은 직육면체 모양(도 2)의 바운딩 박스(Bounding Box), 3차원 타원 모양의 바운딩 타원체(Bounding Ellipsoid) 등으로 설정할 수 있다. 본 실시예에서는 바운딩 박스로 설정한다. 이때, 바운딩 박스의 가장 긴 축을 장축이라고 하고, 해당 장축이 관찰자 머리의 중심을 통과하고, 관찰자의 시선과 평행하도록 설정한다.First, a bounding volume having a specific shape is set as shown in FIG. 2. For example, the bounding volume may be set as a bounding box having a rectangular parallelepiped shape (FIG. 2), a bounding ellipsoid having a three-dimensional ellipse shape, and the like. In this embodiment, it is set as a bounding box. At this time, the longest axis of the bounding box is called the long axis, and the long axis passes through the center of the observer's head and is set to be parallel to the observer's line of sight.
다음으로, 바운딩 박스의 크기를 확대 또는 축소하여 그 비율을 변경한다. 이때, 도 3에 도시된 바와 같이, 바운딩 박스가 중심에 대해 모든 방향으로 같은 비율 K로 확대 된다고 했을 때, 상기 바운딩 박스 안에 포함되는 정보 취득점(촬영 지점)의 개수를 M이라고 설정한다(M은 1 이상의 자연수). 이러한 경우, 비율 K를 0보다 큰 임의의 값으로 변경하여, 바운딩 박스(볼륨) 안에 포함되는 정보 취득점의 개수가 M과 같을 때까지 변경을 반복한다. 이 과정에서 이진검색, 선형검색 등 여러 Search Algorithm이 사용 될 수 있다.Next, the size of the bounding box is enlarged or reduced to change its ratio. In this case, as shown in FIG. 3, when the bounding box is enlarged at the same ratio K in all directions with respect to the center, the number of information acquisition points (shooting points) included in the bounding box is set to M (M Is one or more natural numbers). In this case, the ratio K is changed to any value larger than 0, and the change is repeated until the number of information acquisition points included in the bounding box (volume) is equal to M. In this process, several search algorithms such as binary search and linear search can be used.
다음으로, 도 4에 도시된 바와 같이, 상기 바운딩 박스 안에 포함된 정보 취득점 d의 3차원 정보로 복원된 공간에 해당하는 3차원 지도를 표시한다. 이때 특정 축으로의 회전만 사용해서 바운딩 박스를 회전시킬 수 있다. 이런 제약조건이 있으면, 가령 유저(관찰자)가 바닥을 보고 이동하는 경우에는 바운딩 박스의 장축이 바닥과 수직이 되어, 적절한 3차원 정보를 불러오지 못할 수 있는데, 그런 경우를 방지할 수 있다.Next, as shown in FIG. 4, a three-dimensional map corresponding to a space reconstructed with three-dimensional information of the information acquisition point d included in the bounding box is displayed. At this time, the bounding box can be rotated using only rotation about a specific axis. With such constraints, for example, when the user (observer) moves on the floor, the long axis of the bounding box may be perpendicular to the floor, so that appropriate three-dimensional information may not be retrieved.
다음으로, 도 5에 도시된 바와 같이, 관찰자가 위치를 이탈 시 현재 표시하고 있는 3차원 정보를 제거한다.Next, as shown in FIG. 5, the observer removes the three-dimensional information currently displayed when leaving the position.
다른 실시예의 경우, 상기 표시부(140)는 상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 촬영 지점들로부터 상기 관찰자가 위치하는 지점에 이르는 복수의 벡터들 각각에 기초하여 복수의 비용함수를 설정하고, 상기 설정된 비용함수의 값이 최소 또는 최대가 되도록 하는 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다. In another embodiment, when the observer is located at a point other than the photographing point in the three-dimensional space, the display unit 140 may display a plurality of vectors from the photographing points to the point where the observer is located. Set a plurality of cost functions based on the plurality of cost functions, find a corresponding photographing point for the minimum or maximum value of the set cost function, and generate and display the 3D map using the 3D information acquired from the corresponding photographing point. Can be.
또 다른 실시예에서는, 상기 표시부(130)가 비용함수를 설정할 때 관찰자가 위치하는 지점뿐만 아니라 관찰자의 시선, 이동 방향, 이동 속도 등도 고려할 수 있다. 이때, 상기 표시부(130)는 상기 설정된 비용함수의 값이 최대가 되도록 하는 해당 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다.In another embodiment, when setting the cost function, the display unit 130 may consider not only the point where the observer is located, but also the observer's gaze, the moving direction, and the moving speed. In this case, the display unit 130, when there are a plurality of corresponding shooting points to maximize the value of the set cost function, each of the plurality of shooting points based on the shooting time of the three-dimensional information obtained from each of the plurality of shooting points Three-dimensional information having a minimum time difference from the three-dimensional information of the existing position among the three-dimensional information acquired at, may be selected, and the three-dimensional map may be generated and displayed using the selected three-dimensional information.
또한, 상기 표시부(130)는 상기 3차원 지도를 생성 및 표시할 때, 상기 촬영 지점들로부터 상기 관찰자에 이르는 벡터들 각각의 길이가 미리 설정된 길이보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시할 수 있다.In addition, the display unit 130 generates and displays the 3D map, when the length of each of the vectors from the photographing points to the viewer is greater than a preset length, based on the global coordinate system. By generating and displaying a three-dimensional map corresponding to the entire space, two three-dimensional maps can be automatically switched and displayed according to the position of the observer.
상술한 다른 실시예에 대해 도 6 내지 도 9를 참조하여 보다 구체적으로 설명하면 다음과 같다. 상기 비용함수를 이용한 다른 실시예의 방법은 다음 순서를 따른다.Another embodiment described above will be described in more detail with reference to FIGS. 6 to 9. The method of another embodiment using the cost function is as follows.
우선, 도 6에서 관찰자의 위치를 P1이라고 하고, 정보취득점(촬영 지점)들의 위치를 각각 a, b, c, d라고 할때, 정보취득점(촬영 지점)들로부터 관찰자의 위치 P1에 이르는 벡터인 관찰자 지점 벡터 V1, V2, V3, V4를 정의한다. First, when the position of the observer is called P1 in FIG. 6 and the positions of the information acquisition points (shooting points) are respectively a, b, c, and d, the position of the observer from the information acquisition points (shooting points) is reached. The observer point vectors V1, V2, V3, and V4, which are vectors, are defined.
다음으로, 관찰자 지점 벡터 Vn의 크기를 비용 함수로서 설정한다. 다음으로, 비용함수의 결과값이 최소가 되도록 하는, 즉 관찰자 지점 벡터 Vn의 크기가 가장 작은 V2에 대한 정보 취득점인 'b'를 찾는다. 이때, 복수의 정보 취득점을 찾고자 하는 경우에는 비용함수의 결과값이 'b' 다음으로 작은 'd'를 찾을 수 있다. 한편, 다른 실시예에서는 비용함수를 설정할 때 관찰자의 시선에 대한 시선 벡터를 더 고려할 수 있다. 예컨대, 다른 실시예에서는 관찰자의 시선에 대한 시선 벡터와 촬영 지점들로부터 관찰자에 이르는 벡터들 각각에 기초하여 복수의 비용함수를 설정하고, 그 설정된 비용함수의 값이 최대가 되도록 하는 해당 촬영 지점을 찾을 수 있다. Next, the magnitude of the observer point vector Vn is set as a cost function. Next, find 'b', which is an information acquisition point for V2 that minimizes the result of the cost function, that is, the size of the observer point vector Vn is the smallest. In this case, when a plurality of information acquisition points are to be found, 'd' where the result value of the cost function is smaller than 'b' may be found. Meanwhile, in another embodiment, when setting the cost function, the gaze vector for the observer's gaze may be further considered. For example, in another embodiment, a plurality of cost functions are set on the basis of the gaze vector for the observer's gaze and each of the vectors from the shooting points to the observer, and the corresponding shooting point is set such that the value of the set cost function is maximized. You can find it.
이때, 관찰자 시선 벡터를 V1으로 표시하고, 촬영 지점들로부터 관찰자에 이르는 벡터들을 V2로 표시하면, 비용함수는 수학식 1과 같이 표시될 수 있다. In this case, when the observer gaze vector is represented by V1 and the vectors from the photographing points to the observer are represented by V2, the cost function may be expressed as in Equation (1).
[수학식 1][Equation 1]
Figure PCTKR2016007359-appb-I000001
Figure PCTKR2016007359-appb-I000001
즉, 수학식 1에 따르면 비용함수(Cost Function)는 V1과 V2가 이루는 내적에 비용함수의 결과값 fn(v1, v2)이 정비례하고, V2의 크기에 비용함수의 결과값이 반비례 하도록 설정될 수 있다. 비례 관계는 선형일 필요는 없으며, 지수함수, log함수 등도 가능하지만 단사함수(기울기의 부호가 일정)인 것이 바람직하다. That is, according to Equation 1, the cost function is set such that the result value of the cost function fn (v1, v2) is directly proportional to the dot product of V1 and V2, and the result value of the cost function is inversely proportional to the magnitude of V2. Can be. The proportional relationship does not need to be linear, and an exponential function, a log function, and the like can be used, but it is preferable that the singular function (a sign of a slope is constant).
다음으로, 도 7에 도시된 바와 같이, 선택된 정보 취득점 'b'를 이용해 3차원 공간을 복원(b에 대응되는 3차원 지도를 생성 및 표시)한다.Next, as shown in FIG. 7, the 3D space is restored (created and displayed 3D map corresponding to b) using the selected information acquisition point 'b'.
다음으로, 도 8에 도시된 바와 같이 관찰자가 이동하여 현재 위치를 이탈하는 경우, 해당 정보 취득점 'b'로 복원된 3차원 공간에 대한 3차원 지도를 보이지 않게 하고, 메모리에서 제거한다.Next, when the observer moves away from the current position as shown in FIG. 8, the 3D map of the 3D space restored to the corresponding information acquisition point 'b' is not shown and removed from the memory.
이때, 관찰자의 이동에 따라 정보 취득점 'd'가 선택되면 해당 정보 취득점 'd'의 3차원 정보를 복원할 수 있다. 예컨대, 관찰자의 이동에 따라 주변의 가상현실 환경이 도 9의 (a)에서 도 9의 (b)로 바뀔 수 있다. 도 9에서 (a)는 가상현실 환경에서 캐릭터(관찰자)의 이동, (b)는 이전 환경과 다른 3D 환경을 생성하여 보여주는 도면이다. In this case, when the information acquisition point 'd' is selected as the observer moves, the 3D information of the information acquisition point 'd' may be restored. For example, as the observer moves, the surrounding virtual reality environment may change from FIG. 9A to FIG. 9B. In FIG. 9, (a) shows a movement of a character (observer) in a virtual reality environment, and (b) shows a 3D environment that is different from the previous environment.
이와 같이, 정보 취득점에서 3차원 정보를 복원한 후 제거하는 과정을 반복하게 되면, 관찰자 주변의 환경이 계속 변하므로, 관찰자는 주변 환경에 대해 앞으로 나가거나 뒤로 가는 진행되는 느낌을 느낄 수 있다.As described above, if the process of restoring and then removing the 3D information at the information acquisition point is repeated, since the environment around the observer is continuously changed, the observer may feel that the environment is moving forward or backward.
한편, 정보 취득점에서 3차원 정보를 복원한 후 제거하는 과정을 모든 공간에 적용하게 되면, 사용자가 가상공간의 아바타를 조작함에 따라, 계속적인 3차원 정보 갱신으로 인해 지역공간이 아닌, 가상공간 전체가 3차원으로 복원되었다는 느낌을 받을 수 있다. On the other hand, if the process of restoring and then removing the 3D information at the information acquisition point is applied to all spaces, as the user manipulates the avatar of the virtual space, the virtual space is not local space due to continuous 3D information update. You may feel that the whole is restored in three dimensions.
즉, 아바타가 이동함에 따라 아바타의 위치에 맞는 3차원 정보로 3차원 지도가 계속 갱신되어 표시되게 되면 아바타는 한 시점의 국지적인 3차원 정보를 보고있지만, 아바타의 이동에 따라 3차원 정보가 지속적으로 갱신되기 때문에 마치 넓은 3D 공간을 돌아다니는 것 같은 느낌을 받는다.That is, when the 3D map is continuously updated and displayed with the 3D information corresponding to the avatar's position as the avatar moves, the avatar sees the local 3D information at a point in time, but the 3D information continues as the avatar moves. It feels like you're navigating a large 3D space because it is updated to.
본 실시예를 보다 구체적으로 설명하기 위한 예시를 설명하면 다음과 같다. An example for explaining this embodiment in more detail is as follows.
전역 공간 O에 정보취득점 A지점과 B지점이 존재하고, 움직이지 않는 어떤 물체 K가 A지점을 원점으로하는 지역좌표계에서 a의 좌표에 존재하고, B지점을 원점으로하는 지역좌표계에서 b의 좌표에 존재하는 경우에, 물체 K의 위치는 A지점 기준 지역좌표계, B지점 기준 지역좌표계 각각에서는 서로 다른 좌표를 가지지만 전역좌표계를 기준으로는 동일한 좌표를 가지게 된다.In the global space O, the information acquisition points A and B exist, and a non-moving object K exists in the coordinate of a in the local coordinate system with the A point as the origin, and in the local coordinate system with the B point as the origin, When present in the coordinates, the position of the object K has different coordinates in the local coordinate system based on the point A and the local coordinate system based on the point B, but has the same coordinates based on the global coordinate system.
본 발명에서는 정보취득점 A지점과 B지점을 지역좌표계로서 각각 관리함과 동시에 2개의 지역 좌표계를 하나의 전역 좌표계를 통해 관리하기 때문에, 아바타가 A지점에서 B지점으로 이동함에따라 A지점을 원점으로하는 지역좌표계의 3차원 지도에서 표시되던 물체 K가 B지점을 원점으로하는 지역좌표계의 3차원 지도에서 갱신되어 표시되더라도 물체의 관측 시점만 변동되고 위치는 변동없이 표시되도록 관리된다. 이에 따라, 아바타가 A지점에서 B지점으로 이동하게 되더라도 물체 K의 위치는 변동되지 않은채로 3D 지도상에 표시되게 되고 유저는 화면상에서 3D 지도가 연속성있게 표시되는 것으로 느낄 수 있게 된다. In the present invention, since the information acquisition point A and B are managed as the local coordinate system, respectively, and the two local coordinate systems are managed through one global coordinate system, as the avatar moves from the A point to the B point, the A point is the origin. Even if the object K displayed on the three-dimensional map of the local coordinate system is updated and displayed on the three-dimensional map of the local coordinate system with the point B as the origin, only the observation point of the object is changed and the position is managed without change. Accordingly, even if the avatar moves from point A to point B, the position of the object K is displayed on the 3D map unchanged, and the user can feel that the 3D map is displayed continuously on the screen.
본 발명은 이와 같이 아바타가 이동하더라도 3D 지도가 연속성 있게 갱신되어 표시되기 때문에, 지도상의 위치 이동에 따라 불연속적인 이미지를 표시하는 2D 스트리트뷰 기술보다 진보한 기술로 볼 수 있다. Since the 3D map is continuously updated and displayed even when the avatar moves as described above, the present invention can be regarded as an advanced technology than the 2D street view technology of displaying discontinuous images according to the movement of the position on the map.
도 10은 가상현실 환경을 생성하기 위한 사진의 예시 및 유저 시점에서 보이는 3D 화면의 예시를 나타낸 도면인데, 도 10에서 (a)는 원본 RGB 사진, (b)는 3D 화면(3차원 정보) 복원을 위한 깊이(Depth) 이미지, (c)는 유저 시점에서 보이는 3D 화면을 나타낸다. 도 10(c)의 경우 (a) 원본 RGB 사진과 (b) 깊이 이미지가 구형의 3차원 공간의 내부에 투사되어 생성되었기 때문에 (a) 원본 RGB 사진이 구의 중심 방향으로 찌그러진 형태로 표현된 것을 알 수 있다. FIG. 10 illustrates an example of a photo for creating a virtual reality environment and an example of a 3D screen viewed from a user's point of view. In FIG. 10, (a) represents an original RGB photograph, and (b) restores a 3D image (three-dimensional information). Depth image for (c) represents a 3D screen seen from the user's point of view. In the case of FIG. 10 (c), since (a) the original RGB photograph and (b) the depth image were generated by being projected inside the spherical three-dimensional space, (a) the original RGB photograph was displayed in a distorted direction toward the center of the sphere. Able to know.
이때, (c) 유저 시점에서 보이는 3D 화면의 형상은 가상현실 속의 캐릭터를 둘러싸는 3차원 형태가 될 수도 있고, 시야의 일부에만 보이는 평면의 형상일 수도 있고, 시야를 전체를 감싸는 곡면의 형상일 수도 있다.In this case, (c) the shape of the 3D screen viewed from the user's point of view may be a three-dimensional shape surrounding the character in the virtual reality, may be a plane shape visible only to a part of the field of view, or may be a shape of a curved surface surrounding the entire field of view. It may be.
한편, 상기 표시부(130)는 상기 해당 촬영 지점에서 취득한 3차원 정보에 장애물이 포함된 경우, 상기 관찰자의 위치와 상관 없이 상기 해당 촬영 지점과 가장 인접한 다른 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시할 수 있다. 이때, 상기 다른 촬영 지점에서 취득한 3차원 정보에는 상기 장애물이 포함되지 않는 것이 바람직하다.When the obstacle includes the 3D information acquired at the photographing point, the display unit 130 uses the 3D information acquired at another photographing point closest to the photographing point regardless of the position of the observer. Create and display 3D maps. In this case, it is preferable that the obstacle is not included in the 3D information acquired at the other photographing point.
이와 같이, 상기 표시부(130)는 가상현실 속 관찰자의 실제 위치와 관계없이 특정 3차원 정보를 불러와서 표시할 수 있다. 이러한 기능을 본 발명에서는 위치 fake 기능이라 명명한다. 본 위치 fake 기능이 필요한 이유는 다음과 같다. 본 발명의 경우 관찰자의 이동에 따라서 주변환경이 자동으로 변경된다. 이 경우 발생할 수 있는 문제가 있는데, 그 경우란 특정 3차원 정보를 가까이서 관찰하고 싶은 경우이다.As such, the display unit 130 may retrieve and display specific 3D information regardless of the actual position of the observer in the virtual reality. Such a function is called a location fake function in the present invention. Here's why you need a fake feature: In the case of the present invention, the surrounding environment is automatically changed according to the movement of the observer. In this case, there is a problem that may occur, which is a case where you want to observe specific three-dimensional information up close.
도 11을 참조하면, 도 11의 (a)와 같이 가상현실 속의 관찰자가 A 위치에서 C라는 사물을 먼 거리에서 관찰했다고 하자. 도 11의 (b)와 같이 B 위치로 가면 C 사물을 더 가까이서 관찰할 수 있을 것이라 생각하고 B 위치로 이동했는데, 관찰자와 C 사물 사이에 다른 물체의 영상이 존재할 수 있다. 가령, 3차원 정보 수집 당시에 촬영자와 C 사물 사이로 사람이 지나갔을 수 있다. 이 경우 비록 C 사물과 거리는 가까워졌지만, 정작 C 사물의 형상을 가까이서 확인할 수 없다. B에서 C 사물을 촬영 했더라면 A위치에서 촬영한 C의 영상보다 화질이 좋았을지는 모르지만, B의 위치에서 C 사물이 보이지 않기 때문에 C 사물을 가까이서 관측할 수 없는 것이다.Referring to FIG. 11, it is assumed that an observer in a virtual reality observes an object C at a long distance as shown in FIG. 11A. As shown in (b) of FIG. 11, when moving to the B position, the object C can be observed closer and moved to the position B. An image of another object may exist between the observer and the C object. For example, a person may have passed between a photographer and a C object at the time of 3D information collection. In this case, although the distance from the object C is close, the shape of the object C can not be confirmed. If we photographed C from B, it might have been better than C's image from A, but we can't see C near, because we don't see C from B.
이러한 문제를 극복하기 위하여, 이동에 따른 3차원 정보 교체를 막는 기능(본 발명에서는 hold 기능이라 명명함)이 필요하다. 본 hold 기능을 구동시키면, 이동에 따른 3차원 정보 교체를 막을 수 있다. 본 hold 기능을 이전의 문제에 사용하는 경우, 도 11의 (b)와 같이, A 위치의 사용자가 hold 기능을 구동시키고 B의 위치로 가도 3차원 정보가 갱신되지 않는다. 이때 보여지는 3차원 형상은 A의 위치에서 재구성 한 3차원 형상으로, B의 위치에서의 촬영 3차원 정보로 복원한 3차원 정보와는 달리 사물 C를 관찰 가능하다. 본 hold 기능은 입력 버튼, 화면의 UI를 통해 구동시키거나, 자동으로 실행시킬 수 있다.In order to overcome this problem, a function (preferably called a hold function in the present invention) is required to prevent 3D information replacement due to movement. If you activate this hold function, you can prevent 3D information replacement by movement. When the present hold function is used for the previous problem, as shown in FIG. 11 (b), even when the user at the position A drives the hold function and goes to the position B, the 3D information is not updated. At this time, the three-dimensional shape shown is a three-dimensional shape reconstructed at the position of A, unlike the three-dimensional information reconstructed with the imaging three-dimensional information at the position of B, the object C can be observed. This hold function can be driven by input button, UI on the screen, or automatically executed.
여기서, hold 기능을 자동으로 실행하는 기술 중, 동영상 컨텐츠의 경우 동영상의 재생이 끝날 때까지 관측자가 이동해도 3차원 정보 갱신을 막는 인터페이스를 제공할 수 있다. 이러한 hold 기능이 없는 경우, 동영상 컨텐츠가 끝나지 않았는데도 관측자가 이동해 버릴 수 있다. 사용자가 동영상을 끝까지 보도록 컨텐츠를 기획하는 경우, 동영상이 재생을 시작하면 hold 기능을 실행하고 동영상이 끝날 때 hold 기능을 종료하는 방법으로 사용자가 동영상 컨텐츠를 끝까지 감상하도록 강제할 수 있다.Here, in the technology of automatically executing the hold function, the video content may provide an interface that prevents the 3D information update even if the viewer moves until the playback of the video is completed. If there is no such hold function, an observer may move even though the video content is not finished. When the user plans the content to watch the video to the end, the user can force the user to watch the video content by executing the hold function when the video starts playing and ending the hold function when the video ends.
다른 실시예에서는, 표시부(130)는 관찰자가 촬영 지점들 중 하나로부터 소정 거리 이내에 위치하게 되면 동영상 형태의 상기 3차원 지도를 재생하고, 관찰자가 상기 동영상 형태의 3차원 지도 재생 중에 이동하여 촬영 지점들 중 하나로부터 소정 거리 밖에 위치하게 되면 상기 동영상 형태의 3차원 지도의 재생을 중지하는 동작을 더 수행할 수도 있다. 이때, 동영상 형태의 3차원 지도는 3차원 지도상에서의 3차원 정보가 시간에 따라 변하고, 그 3차원 정보의 색상 정보(RGB+Alpha) 가 시간에 따라 변하는 3차원 정보의 형태를 의미한다. In another embodiment, the display unit 130 reproduces the 3D map in the form of a video when the observer is located within a predetermined distance from one of the photographing points, and the observer moves during the reproduction of the 3D map in the form of a video to capture the spot. If it is located outside a predetermined distance from one of these may further perform the operation of stopping the playback of the three-dimensional map of the video form. In this case, the 3D map in the form of a video means a form of 3D information in which 3D information on a 3D map changes with time, and color information (RGB + Alpha) of the 3D information changes with time.
다른 실시예에서는, 표시부(130)는 관찰자가 촬영 지점들 중 하나로부터 소정 거리 이내에 위치하게 되면 동영상 형태의 상기 3차원 지도를 재생하고, 관찰자가 상기 동영상 형태의 3차원 지도 재생 중에 이동하여 촬영 지점들 중 하나로부터 소정 거리 밖에 위치하게 되면 상기 동영상 형태의 3차원 지도의 재생을 중지하는 동작을 더 수행할 수도 있다. 이때, 동영상 형태의 3차원 지도는 3차원 지도상에서의 3차원 정보가 시간에 따라 변하고, 그 3차원 정보의 색상 정보(RGB+Alpha) 가 시간에 따라 변하는 3차원 정보의 형태를 의미한다. In another embodiment, the display unit 130 reproduces the 3D map in the form of a video when the observer is located within a predetermined distance from one of the photographing points, and the observer moves during the reproduction of the 3D map in the form of a video to capture the spot. If it is located outside a predetermined distance from one of these may further perform the operation of stopping the playback of the three-dimensional map of the video form. In this case, the 3D map in the form of a video means a form of 3D information in which 3D information on a 3D map changes with time, and color information (RGB + Alpha) of the 3D information changes with time.
다른 실시예에서는, 표시부(130)는 동영상을 재생할 때 특정 임계거리값(R_repeat)을 설정하고, 관찰자의 위치로부터 임계거리값 이내에 있는 촬영 지점들에서 촬영된 이미지들만을 구간 반복하여 재생할 수 있다. In another exemplary embodiment, the display unit 130 may set a specific threshold distance value R_repeat when playing a video, and may repeatedly play only images photographed at photographing points within a threshold distance value from the observer's position.
이때, 동영상의 구간 반복은 관찰자의 위치를 중심으로하고 임계거리값을 반지름으로 하는 원인 임계거리 원 안에 포함되는 촬영 지점들 중에서 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간상 역순으로 검색하여 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 시작점으로 하고, 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간 순서대로 검색하여 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 종료점으로 하여 수행될 수 있다. 즉, 복수의 촬영 지점에서 취득된 이미지는 촬영 동선에 따라 취득되는데, 본 실시예에서는 임계 거리 원 이내의 촬영 동선 상에서 시간적으로 가장 먼저 이미지가 취득된 촬영 지점을 구간반복 시작점으로 하고 시간적으로 가장 나중에 이미지가 취득된 촬영 지점을 구간반복 종료점으로 하여 해당 임계거리 원 이내에서 가장 먼저 취득된 이미지(구간반복 시작점에서 취득된 이미지)로부터 가장 나중에 취득된 이미지(구간반복 종료점에서 취득된 이미지)까지 순서대로 반복하여 재생함으로써 동영상 구간 반복을 구현하게 된다. At this time, the interval repetition of the video is searched in reverse chronological order based on the recording time of the closest point to the observer's position among the recording points included in the circle of the critical distance centered on the position of the observer and the critical distance value is the radius. Section retrieval point that is farthest from the observer's position as the start point of interval repeating, and search in time order based on the recording time of the point that is closest to the observer's position. Can be performed. That is, the images acquired at the plurality of photographing points are acquired according to the photographing motion lines. In this embodiment, the photographing points where the images are acquired first in time on the photographing motion lines within a critical distance circle are regarded as the interval repeating start points. Using the shooting point where the image was acquired as the end point of the interval repeat, in order from the earliest acquired image (image acquired at the interval repeat start point) to the last acquired image (image acquired at the interval repeat end point) within the corresponding critical distance circle. By playing repeatedly, video section repetition is realized.
예컨대, 표시부(130)는 관찰자가 140번째 촬영 지점 근처에 위치할 때, 그 관찰자의 위치를 중심으로하고 소정의 임계거리값(예컨대 5m)을 반지름으로 하는 임계거리 원 안에 포함되는 촬영 지점들 중에서 가장 먼저 촬영된 119번째 촬영 지점을 구간반복 시작점으로 설정하고, 가장 나중에 촬영된 151번째 촬영 지점을 구간반복 종료점으로 설정한 후, 119번째에서 151번째 촬영지점 각각에서 촬영된 이미지를 순차적으로 반복하여 재생함으로써 동영상 구간 반복을 수행할 수 있다.이와 같은, 동영상 구간 반복을 통해서 사용자에게 보다 생동감 있는 3차원 정보를 제공할 수 있게 된다. For example, when the observer is located near the 140th photographing point, the display unit 130 may be located among the photographing points included in a critical distance circle centered on the observer's position and having a radius of a predetermined threshold distance value (for example, 5 m). Set the first 119th shooting point recorded as the interval repeat start point, set the last 151th shooting point recorded as the interval repeat end point, and then sequentially repeat the images recorded at each of the 119th to 151th shooting points. By repeating the video section repetition, the video section repeating can be performed. Through such video section repeating, it is possible to provide more realistic 3D information to the user.
한편, 또 다른 실시예에서는 동영상 구간 반복 중에 관찰자가 이동하여 구간반복 시작점과 구간반복 종료점이 변경될 수 있다. 이 경우에, 표시부(130)는 관찰자의 이동에 따라 동영상 점프가 발생하지 않도록, 새로운 관찰자 위치에 따른 새로운 구간반복 시작점과 새로운 구간반복 종료점에 기초하여 동영상 구간 반복을 수행하는 대신 관찰자가 이동하기 직전에 재생되었던 이미지의 촬영시점에 대응되는 촬영지점의 바로 다음 시점의 촬영 지점에서 촬영된 이미지를 이어서 재생할 수 있다. 여기서, 동영상 점프란 연속되는 이미지 프레임을 재생하는 중에 사용자의 입력 등에 의해 갑자기 불연속되는 다른 이미지 프레임으로 이동하는 것을 의미한다. Meanwhile, in another embodiment, the observer moves during the video section repetition to change the section repeat start point and the section repeat end point. In this case, the display unit 130 immediately before the observer moves instead of performing the video segment repetition based on the new segment repeat start point and the new segment repeat end point according to the new observer position so that the video jump does not occur according to the observer's movement. The image photographed at the photographing point immediately after the photographing point corresponding to the photographing point of the image which has been reproduced may be reproduced. Here, the video jump means moving to another image frame which is suddenly discontinuous by a user's input or the like while playing a continuous image frame.
예컨대, 관찰자가 140번째 촬영지점에 위치하여 119번째 촬영 지점이 구간반복 시작점으로 설정되고 151번째 촬영 지점이 구간반복 종료점으로 설정된 상태에서 140번째 촬영 지점의 이미지가 재생되던 중에 관찰자가 148번째 촬영 지점으로 이동하여 구간반복 시작점이 126번째 촬영 지점으로 변경되고 구간반복 종료점이 155번째 촬영 지점으로 변경되면 표시부(130)는 126번째 촬영 지점(변경된 구간반복 시작점)의 이미지를 재생하거나 148번째 촬영 지점(변경된 관찰자 위치)의 이미지를 재생하지 않고, 141번째 촬영 지점의 이미지를 재생함으로써 관찰자의 이동과 무관하게 자연스럽게 동영상을 재생하게 된다. For example, while the observer is located at the 140th shooting point, the 119th shooting point is set as the interval repeat start point, and the 151th shooting point is set as the interval repeat end point, the viewer is playing the 148th shooting point while the image of the 140th shooting point is being played. When the section repeat start point is changed to the 126th photographing point and the section repeat end point is changed to the 155th photographing point, the display unit 130 plays an image of the 126th photographing point (the changed section repeating start point) or the 148th photographing point ( By reproducing the image of the 141st photographing point without reproducing the image of the changed observer position), the moving image is naturally reproduced regardless of the observer's movement.
다만, 관찰자의 이동 속도가 매우 빨라 이동 후의 관찰자 위치를 중심으로 한 임계거리 원과 이동 전의 관찰자 위치를 중심으로 한 임계거리 원이 전혀 겹치지 않을 경우에는 동영상 점프를 허용할 수 있다. However, when the observer's moving speed is very fast, the video jump may be allowed when the critical distance circle centered on the observer's position after the movement and the critical distance circle centered on the observer's position before the movement do not overlap at all.
한편, 상기 표시부(130)는 상기 관찰자가 위치한 지점에 대응하여 미리 저장되어 있는 3차원 지도에 관한 3차원 정보를 로딩하여, 상기 관찰자가 이동할 때마다 해당 3차원 정보를 이용하여 3차원 지도를 표시할 수 있다.Meanwhile, the display unit 130 loads three-dimensional information about a three-dimensional map that is stored in advance corresponding to the point where the observer is located, and displays the three-dimensional map by using the three-dimensional information whenever the observer moves. can do.
구체적으로, 상기 표시부(130)는 가상현실 속 관찰자가 어떤 3차원 정보를 불러와서 프로그램에서 표시해 주어야 하는지를 프로그램 실행 이전에 미리 계산하여 3차원 정보 형태로 저장해 놓는 기능을 제공할 수 있다. 본 기능을 활용 할 경우 많은 3차원 정보를 이동 시마다 선택해야 하는 연산 부담이 줄어들어, 실시간성을 증가시키는 데 도움이 된다. 이는 다음의 방법으로 구현된다. 가상현실 속 관찰자가 임의의 위치에 있을 때, 해당 위치에서 어떤 3차원 정보를 불러와야 할지 프로그램 실행 이전에 미리 계산한다. 또한 수작업이 필요한 경우, 본 3차원 정보를 수동으로 수정하도록 한다. 그렇게 계산된 임의의 지점들을 영역으로 설정한다. 프로그램이 실행되면 가상현실 속의 관찰자가 해당 영역에 들어온 경우, 필요한 3차원 정보를 찾는 연산을 시행하지 아니하고, 기존에 연산되어 저장한 결과를 이용해 표시할 3차원 정보를 선정한다. 예컨대, 도 12는 공간을 분할해, 관찰자의 이동 경로별 위치(pos)에 따라 어떤 위치에서 어떤 정보 취득점을 선택해야 하는지 미리 연산하고, 3차원 공간을 분할(segmentation)하여 해당 촬영 3차원 정보를 저장해 둔 것을 표현한 것이다.In detail, the display unit 130 may provide a function of pre-calculating and storing in the form of 3D information before execution of a program which 3D information that the observer in the virtual reality should bring up and display in the program. By utilizing this function, the computational burden to select a lot of 3D information every time is reduced, which helps to increase real-time. This is implemented in the following way. When the observer in the virtual reality is at an arbitrary position, the three-dimensional information to be retrieved from the position is calculated before the program execution. In addition, if manual work is required, the three-dimensional information to be modified manually. Arbitrary points thus calculated are set as regions. When the program is executed, when the observer in the virtual reality enters the relevant area, the 3D information to be displayed is selected by using the result of the previously calculated and stored operation without performing the operation of finding the necessary 3D information. For example, FIG. 12 divides the space, calculates in advance which information acquisition point should be selected at which position according to the position (pos) of the observer's movement paths, and segments the three-dimensional space to capture the three-dimensional information. It is an expression of the storage.
상기 계산부(140)는 상기 생성부(120)에 의해 생성된 복수의 지역 좌표계에 대한 그룹핑 지표(grouping index)를 계산한다. 여기서, 상기 그룹핑 지표는 상기 지역 좌표계와 연관된 2개 이상의 포즈 정보들 사이의 추정 오류(error)와, 상기 선택된 촬영 지점들에서 취득한 3차원 정보를 하나로 정합했을 때 빛의 영향으로 인한 왜곡, 및 각 포즈 정보에서 취득한 3차원 정보(거리 정보)의 오류를 정량화한 하나의 값으로 정의될 수 있다.The calculation unit 140 calculates a grouping index for a plurality of local coordinate systems generated by the generation unit 120. Here, the grouping indicator may include an estimation error between two or more pose information associated with the local coordinate system, a distortion due to the influence of light when matching three-dimensional information acquired at the selected photographing points into one, and each It may be defined as one value that quantifies the error of the 3D information (distance information) acquired from the pose information.
이때, 본 발명의 일 실시예에 따르면 그룹핑 지표는 하기의 수학식 2와 같이 복수의 추정오류들의 가중합으로 정의될 수 있다. In this case, according to an embodiment of the present invention, the grouping indicator may be defined as a weighted sum of a plurality of estimation errors as shown in Equation 2 below.
[수학식 2][Equation 2]
이때, W는 가중치로서 W1에서 Wn까지의 가중치의 합은 1이며, e는 3차원 정보의 오류로서 e1, e2, e3 각각이 다른 불확실성을 나타내는 오류 변수이다. 오류 변수 추정을 위해서는 In this case, W is a weight and a sum of weights from W1 to Wn is 1, and e is an error variable of three-dimensional information, and each of e1, e2, and e3 is an error variable representing different uncertainties. To estimate the error variable
한편, 단일 정보취득점(촬영 지점)의 오류변수로는 위치추정의 분산, 표준편차, 마할라노비스 거리(Mahalanobis distance) 등이 이용될 수 있고, 복수의 정보취득점간의 유사도를 나타내는 척도로써의 오류변수로는 이미지의 공분산, 3차원 특징점 정보 상호간을 비교한 에너지 함수 등이 이용될 수 있다.On the other hand, as an error variable of a single information acquisition point (shooting point), variance of position estimation, standard deviation, Mahalanobis distance, etc. may be used, and as a measure of similarity between a plurality of information acquisition points. As error variables, covariance of an image and an energy function comparing each other with 3D feature point information may be used.
상기 관리부(150)는 상기 계산된 그룹핑 지표를 특정 임계값과 비교하여 상기 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리할 수 있다.The management unit 150 generates the plurality of local coordinate systems by dividing the plurality of local coordinate systems into a group area coordinate system and an independent area coordinate system by comparing the calculated grouping index with a specific threshold value, and generates the generated group area coordinate system and the independent area coordinate system by one. Can be managed in the global coordinate system.
예컨대, 지역 좌표계와 연관된 2개 이상의 포즈 정보들 사이의 그룹핑 지표가 임계값 미만일 경우에는 2개 이상의 포즈 정보들을 그룹 지역 좌표계로서 통합하여 생성하고, 그룹핑 지표가 임계값 이상일 경우에는 2개 이상의 포즈 정보들 각각을 독립 지역 좌표계로 구분하여 생성할 수 있다.For example, when the grouping index between two or more pose information associated with the local coordinate system is less than the threshold value, the two or more pose information is generated as a group area coordinate system. When the grouping index is greater than or equal to the threshold value, the two or more pose information is generated. Each of these can be generated by dividing it into an independent local coordinate system.
이와같이 그룹핑 지표를 설정하고 그룹핑 지표가 임계값 미만인 포즈 정보들에 대응되는 3차원 정보는 서로 유사한 3차원 정보라고 보고, 해당 포즈 정보들을 독립된 지역 좌표계가 아니라 그룹 지역 좌표계로서 통합하여 생성하게 되면, 불필요한 3차원 지도 갱신을 방지할 수 있어 3차원 지도 생성에 이용되는 3차원 정보의 용량을 줄일 수 있게 된다. In this way, if the grouping indicator is set and the 3D information corresponding to the pose information whose grouping index is less than the threshold is regarded as similar 3D information, and the corresponding pose information is generated as a group area coordinate system instead of an independent area coordinate system, it is unnecessary. Since it is possible to prevent the update of the 3D map, it is possible to reduce the volume of the 3D information used to generate the 3D map.
예컨대, 복수의 포즈 정보에 대응되는 3차원 정보가 상호간에 매우 유사한 경우에는 아바타가 이동하여 새로운 3차원 정보를 이용하여 3차원 지도가 갱신되더라도 유저가 보는 화면상으로는 거의 변동이 없게 된다. 이와 같은 경우에는, 서로 유사한 3차원 정보를 모두 이용하여 3차원 지도를 갱신할 필요가 없으므로, 서로 유사한 복수의 3차원 정보에 해당하는 포즈 정보를 그룹핑 좌표로 관리하면서 해당하는 복수의 3차원 정보 중 하나만을 이용하여 3차원 지도를 갱신함으로써, 불필요한 갱신을 방지할 수 있게 된다. For example, when three-dimensional information corresponding to a plurality of pose information is very similar to each other, even if the avatar moves and the three-dimensional map is updated using the new three-dimensional information, the user sees little change on the screen. In such a case, since it is not necessary to update the 3D map by using all the similar 3D information, among the corresponding 3D information, the pose information corresponding to the plurality of similar 3D information is managed by grouping coordinates. By updating the three-dimensional map using only one, unnecessary updating can be prevented.
한편, 그룹 지역 좌표계로 관리되는 2개 이상의 포즈 정보들에 대응되는 2개의 이상의 촬영 지점들에 대해서는, 관찰자가 그 촬영 지점들 중에서 어느 한 촬영 지점에 진입하면 그 그룹 지역 좌표계에 해당하는 촬영 지점들에 대한 3차원 정보를 모두 로딩한 후 3차원 지도를 한번에 생성하여 표시할 수 있다. On the other hand, with respect to the two or more shooting points corresponding to the two or more pose information managed by the group area coordinate system, when the observer enters any one of the shooting points, the shooting points corresponding to the group area coordinate system After loading all the 3D information about the 3D map can be generated and displayed at once.
또한, 다른 실시예에서는 2개 이상의 촬영 지점들에 대한 공간적 인접성 및 시간적 인접성을 계산한 후, 이를 특정 임계치와 비교하여 해당 촬영 지점들에 대응되는 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리할 수도 있다. 이때, 촬영지점들을 지역 좌표계로 관리하는 경우에는 촬영 지점들의 좌표를 개별 지역 좌표계의 원점(0,0)을 기준으로 설정하여 관리하게 되는데, 각각의 지역 좌표계를 전역 좌표계에서 관리하는 경우에는 각각의 지역 좌표계의 원점의 좌표를 전역 좌표계의 원점을 기준으로 새롭게 설정하고, 그 새롭게 설정된 각각의 지역 좌표계의 원점의 좌표를 기준으로 촬영 지점들의 좌표가 설정되어 관리된다. Further, in another embodiment, after calculating spatial and temporal proximity to two or more shooting points, and comparing them with a specific threshold, a plurality of local coordinate systems corresponding to the corresponding shooting points are converted into a group area coordinate system and an independent area coordinate system. It is also possible to distinguish and generate and manage the generated group area coordinate system and the independent area coordinate system in one global coordinate system. In this case, when managing the shooting points in the local coordinate system, the coordinates of the shooting points are managed based on the origin point (0,0) of the individual local coordinate system, and in case of managing each local coordinate system in the global coordinate system, The coordinates of the origin of the local coordinate system are newly set based on the origin of the global coordinate system, and the coordinates of the photographing points are set and managed based on the coordinates of the origin of each of the newly set local coordinate systems.
상기 제어부(160)는 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 장치(100), 즉 상기 획득부(110), 상기 생성부(120), 상기 표시부(130), 상기 계산부(140), 상기 관리부(150) 등의 동작을 전반적으로 제어할 수 있다.The controller 160 is a three-dimensional map generation and display device 100 according to an embodiment of the present invention, that is, the acquisition unit 110, the generation unit 120, the display unit 130, the calculation unit ( 140), the operation of the manager 150 may be controlled overall.
도 13은 본 발명의 일 실시예에 따른 3차원 지도 생성 및 표시 방법을 설명하기 위해 도시한 흐름도이다. 상기 3차원 지도 생성 및 표시 방법은 도 1의 3차원 지도 생성 및 표시 장치(100)에 의해 수행될 수 있다.13 is a flowchart illustrating a 3D map generation and display method according to an embodiment of the present invention. The 3D map generation and display method may be performed by the 3D map generation and display apparatus 100 of FIG. 1.
도 13을 참조하면, 단계(1310)에서 상기 3차원 지도 생성 및 표시 장치는 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 회전 정보를 포함하는 포즈(pose) 정보를 획득한다.Referring to FIG. 13, in operation 1310, the 3D map generating and displaying apparatus includes a pose including position and rotation information about photographing points obtained by obtaining 3D information on a 3D space based on a global coordinate system. (pose) Acquire information.
다음으로, 단계(1320)에서 상기 3차원 지도 생성 및 표시 장치는 상기 촬영 지점들의 공간적 인접성 및 상기 선택된 촬영 지점들에 대응되는 촬영 시점들의 시간적 인접성 중 적어도 하나를 계산하여 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성한다.Next, in operation 1320, the 3D map generating and display apparatus calculates at least one of the spatial proximity of the photographing points and the temporal adjacency of the photographing points corresponding to the selected photographing points, thereby obtaining a plurality of the 3D maps. Create a local coordinate system.
한편, 다른 실시예에서는 단계 1320 이전에 상기 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 단계가 수행될 수 있고, 이 경우에는 단계 1320이 상기 선택된 촬영 지점들에 기초하여 수행될 수 있다. Meanwhile, in another embodiment, before the step 1320, the step of selecting shooting points satisfying a predetermined condition among the shooting points may be performed, and in this case, the step 1320 may be performed based on the selected shooting points. have.
다음으로, 단계(1330)에서 상기 3차원 지도 생성 및 표시 장치는 가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾는다.Next, in operation 1330, when the observer of the virtual reality is located in the 3D space, the 3D map generation and display apparatus uses the plurality of local coordinate systems to capture a corresponding photographing point corresponding to the position where the observer is located. Find it.
다음으로, 단계(1340)에서 상기 3차원 지도 생성 및 표시 장치는 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시한다.Next, in operation 1340, the 3D map generation and display device generates and displays a 3D map using the 3D information acquired at the corresponding photographing point.
본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the invention include a computer readable medium containing program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, local data files, local data structures, or the like, alone or in combination. The media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like. Hardware devices specifically configured to store and execute the same program instructions are included. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.While specific embodiments of the present invention have been described so far, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below, but also by the equivalents of the claims.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, the spirit of the present invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications thereof will belong to the scope of the present invention.

Claims (23)

  1. 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 회전 정보를 포함하는 포즈(pose) 정보를 획득하는 획득부;An acquisition unit for obtaining pose information including position and rotation information about photographing points from which three-dimensional information of the three-dimensional space is acquired based on the global coordinate system;
    상기 획득된 포즈 정보에 기초하여, 상기 촬영 지점들의 공간적 인접성, 및 시간적 인접성 중 적어도 하나에 따라 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 생성부; 및A generation unit configured to generate a plurality of local coordinate systems with respect to the three-dimensional space according to at least one of the spatial proximity and the temporal proximity of the photographing points based on the acquired pose information; And
    가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾고, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시하는 표시부When the observer of the virtual reality is located in the three-dimensional space, using the plurality of local coordinate systems to find the corresponding shooting point corresponding to the location where the observer is located, three-dimensional by using the three-dimensional information acquired from the corresponding shooting point Display unit for creating and displaying map
    를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.3D map generation and display device comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 생성된 복수의 지역 좌표계와 연관된 포즈 정보들 사이의 추정 오류와 상기 선택된 촬영 지점들에서 취득한 3차원 정보의 오류 및 왜곡 중 적어도 하나로 정의되는 그룹핑 지표(grouping index)를 계산하는 계산부; 및A calculator configured to calculate a grouping index defined by at least one of an estimation error between pose information associated with the generated plurality of local coordinate systems and an error and distortion of three-dimensional information acquired at the selected photographing points; And
    상기 계산된 그룹핑 지표를 특정 임계값과 비교하여 상기 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리하는 관리부Comparing the calculated grouping indicators with a specific threshold value, the plurality of local coordinate systems are divided into a group area coordinate system and an independent area coordinate system, and the generated group area coordinate system and the independent area coordinate system are managed in one global coordinate system. Management
    를 더 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.3D map generating and display device further comprising.
  3. 제1항에 있어서, The method of claim 1,
    상기 생성된 복수의 지역 좌표계와 연관된 포즈 정보들 사이의 공간적 인접성 및 시간적 인접성을 계산하는 계산부; 및A calculator configured to calculate spatial and temporal proximity between pose information associated with the generated plurality of local coordinate systems; And
    상기 계산된 공간적 인접성 및 시간적 인접성을 특정 임계치와 비교하여 상기 복수의 지역 좌표계를 그룹 지역 좌표계와 독립 지역 좌표계로 구분하여 생성하고, 생성된 상기 그룹 지역 좌표계와 상기 독립 지역 좌표계를 하나의 전역 좌표계에서 관리하는 관리부Comparing the calculated spatial and temporal adjacencies with a specific threshold, the plurality of local coordinate systems are divided into a group area coordinate system and an independent area coordinate system, and the generated group area coordinate system and the independent area coordinate system are generated in one global coordinate system. Managing department
    를 더 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.3D map generating and display device further comprising.
  4. 제1항에 있어서,The method of claim 1,
    상기 생성부는 The generation unit
    상기 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 동작을 더 수행하고, 상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 동작은 상기 선택된 촬영 지점들에 대하여 수행하고, Selecting photographing points satisfying a predetermined condition among the photographing points, and generating a plurality of local coordinate systems for the 3D space with respect to the selected photographing points,
    상기 미리 설정된 조건은 소정 개수 이상의 3차원 정보를 취득한 촬영 지점들을 선택하는 조건이거나, 취득한 3차원 정보의 개수가 소정 순위 이상인 촬영 지점들을 선택하는 조건인 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.And the preset condition is a condition for selecting photographing points obtained by obtaining at least a predetermined number of three-dimensional information, or a condition for selecting photographing points having a predetermined rank or more.
  5. 제1항에 있어서, The method of claim 1,
    상기 포즈 정보는 The pose information is
    SLAM(Simultaneous Localization and Mapping) 알고리즘 또는 사용자에 의해 입력된 위치 정보를 이용하여 획득되는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.3D map generation and display device, characterized in that obtained by using a SLAM (Simultaneous Localization and Mapping) algorithm or location information input by the user.
  6. 제1항에 있어서,The method of claim 1,
    상기 표시부는The display unit
    상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 특정 모양을 가지는 바운딩 볼륨(bounding volume)의 장축이 상기 관찰자의 중심을 통과하고 상기 관찰자의 시선과 평행하도록 설정하고, 미리 지정한 개수의 촬영 지점이 상기 바운딩 볼륨 안에 포함될 때까지 상기 바운딩 볼륨의 크기를 확대 또는 축소하여 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When the observer is located at a point other than the photographing point in the three-dimensional space, the long axis of the bounding volume having a specific shape is set to pass through the center of the observer and parallel to the observer's line of sight, The size of the bounding volume is increased or reduced until a predetermined number of shooting points are included in the bounding volume to find a corresponding shooting point included in the bounding volume, and the 3D information is obtained by using the 3D information acquired from the corresponding shooting point. 3D map generation and display device, characterized in that for generating and displaying the dimensional map.
  7. 제6항에 있어서,The method of claim 6,
    상기 표시부는The display unit
    상기 바운딩 볼륨 안에 포함된 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When there are a plurality of shooting points included in the bounding volume, three-dimensional information of the existing position and the minimum of the three-dimensional information acquired at each of the plurality of shooting points based on the shooting time of the three-dimensional information acquired at each of the plurality of shooting points And selecting 3D information having a time difference of and generating and displaying the 3D map using the selected 3D information.
  8. 제6항에 있어서,The method of claim 6,
    상기 표시부는The display unit
    상기 3차원 지도를 생성 및 표시할 때, 상기 바운딩 볼륨의 크기를 확대함에 따라 상기 바운딩 볼륨의 장축 길이가 미리 설정된 거리보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When generating and displaying the 3D map, when the length of the long axis of the bounding volume is greater than a preset distance as the size of the bounding volume is enlarged, a 3D corresponding to the entire 3D space based on the global coordinate system And generating and displaying a map to automatically switch and display two three-dimensional maps according to the position of the observer.
  9. 제6항에 있어서,The method of claim 6,
    상기 표시부는The display unit
    상기 관찰자가 회전하면 상기 관찰자의 시선에 대한 시선 벡터를 이용하여 상기 바운딩 볼륨을 축 회전시켜, 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하고,When the observer rotates, the bounding volume is axially rotated using a gaze vector of the observer's gaze to generate and display the three-dimensional map by using three-dimensional information acquired at a corresponding photographing point included in the bounding volume. ,
    상기 시선 벡터는The eye vector is
    자유도 3의 시선인 경우 롤(roll), 피치(pitch) 및 요(yaw) 각각의 모드에 대응되는 벡터를 포함하고, 자유도 1의 시선인 경우 상기 바운딩 볼륨의 장축에 대응되는 벡터를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.If the line of sight has 3 degrees of freedom, it includes a vector corresponding to each mode of the roll, pitch, and yaw; if the line of sight has a degree of freedom of 1, it includes a vector corresponding to the long axis of the bounding volume. 3D map generating and display device characterized in that.
  10. 제1항에 있어서,The method of claim 1,
    상기 표시부는The display unit
    상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 촬영 지점들로부터 상기 관찰자가 위치하는 지점에 이르는 복수의 벡터들 각각에 기초하여 복수의 비용함수를 설정하고, 상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When the observer is located at a point other than the photographing point in the three-dimensional space, a plurality of cost functions are set based on each of a plurality of vectors from the photographing points to the point where the observer is located, 3. A 3D map generation and display apparatus, wherein the 3D map is generated and displayed by finding a corresponding photographing point for minimizing a set cost function and using the 3D information acquired from the corresponding photographing point.
  11. 제1항에 있어서,The method of claim 1,
    상기 표시부는The display unit
    상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 관찰자의 시선에 대한 시선 벡터와 상기 촬영 지점들로부터 상기 관찰자에 이르는 벡터들 각각에 기초하여 복수의 비용함수를 설정하고, 상기 설정된 비용함수의 값이 최대가 되도록 하는 해당 촬영 지점을 찾으며, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치. When the observer is located at a point other than the photographing point in the three-dimensional space, a plurality of cost functions are set based on the eye vector of the observer's gaze and each of the vectors from the photographing points to the observer. And find a corresponding photographing point to maximize the value of the set cost function, and generate and display the 3D map using the 3D information acquired from the corresponding photographing point. Device.
  12. 제10항에 있어서,The method of claim 10,
    상기 표시부는The display unit
    상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점이 복수개인 경우, 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보의 촬영 시간에 기초하여 상기 복수개의 촬영 지점 각각에서 취득한 3차원 정보 중 기존 위치의 3차원 정보와 최소의 시간 차이를 가지는 3차원 정보를 선별하고, 상기 선별된 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.In the case where there are a plurality of corresponding photographing points for minimizing the value of the set cost function, the existing position among the three-dimensional information acquired at each of the plurality of photographing points based on the photographing time of the three-dimensional information acquired at each of the plurality of photographing points And selecting 3D information having a minimum time difference from the 3D information, and generating and displaying the 3D map using the selected 3D information.
  13. 제10항에 있어서,The method of claim 10,
    상기 표시부는The display unit
    상기 3차원 지도를 생성 및 표시할 때, 상기 촬영 지점들로부터 상기 관찰자에 이르는 벡터들 각각의 길이가 미리 설정된 길이보다 큰 경우, 상기 전역 좌표계에 기초하여 상기 3차원 공간 전체에 대응하는 3차원 지도를 생성 및 표시함으로써, 상기 관찰자의 위치에 따라 2개의 3차원 지도를 자동으로 전환하여 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When generating and displaying the 3D map, when the length of each of the vectors from the photographing points to the viewer is greater than a preset length, a 3D map corresponding to the entire 3D space based on the global coordinate system 3D map generation and display device, characterized in that by automatically generating and displaying, by switching the two three-dimensional map in accordance with the position of the observer.
  14. 제1항에 있어서,The method of claim 1,
    상기 표시부는The display unit
    상기 해당 촬영 지점에서 취득한 3차원 정보에 장애물이 포함된 경우, 상기 관찰자의 위치와 상관 없이 상기 해당 촬영 지점과 가장 인접한 다른 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하되, 상기 다른 촬영 지점에서 취득한 3차원 정보에는 상기 장애물이 포함되지 않는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.When the obstacle includes the 3D information acquired at the corresponding photographing point, the 3D map is generated and displayed using the 3D information acquired at another photographing point closest to the corresponding photographing point regardless of the position of the observer. And the obstacles are not included in the 3D information acquired at the other photographing point.
  15. 제1항에 있어서,The method of claim 1,
    상기 표시부는The display unit
    상기 관찰자가 위치한 지점에 대응하여 미리 저장되어 있는 3차원 지도에 관한 상기 3차원 정보를 로딩하여, 상기 관찰자가 이동할 때마다 해당 3차원 정보를 이용하여 3차원 지도를 표시하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.3D, characterized in that for loading the three-dimensional information about the three-dimensional map that is stored in advance corresponding to the point where the observer is located, and displaying the three-dimensional map using the three-dimensional information each time the observer moves. Map generation and display device.
  16. 제1항에 있어서,The method of claim 1,
    상기 표시부는 The display unit
    상기 관찰자가 상기 촬영 지점들 중 하나로부터 소정 거리 이내에 위치하게 되면 동영상 형태의 상기 3차원 지도를 재생하고, 상기 관찰자가 상기 동영상 형태의 상기 3차원 지도 재생 중에 이동하여 상기 촬영 지점들 중 하나로부터 소정 거리 밖에 위치하게 되면 상기 동영상 형태의 상기 3차원 지도의 재생을 중지하는 동작을 더 수행하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.If the observer is located within a predetermined distance from one of the shooting points, the viewer plays the 3D map in the form of a moving picture, and the observer moves during the playing of the 3D map in the moving picture form and takes a predetermined distance from one of the shooting points. 3. The apparatus for generating and displaying 3D maps, further comprising: stopping the reproduction of the 3D map in the form of a video when located outside a distance.
  17. 제 16항에 있어서, The method of claim 16,
    상기 표시부는 The display unit
    상기 동영상 형태의 상기 3차원 지도를 재생할 때, When playing the 3D map in the form of a video,
    특정 임계거리값을 설정하고, 상기 관찰자의 위치로부터 상기 임계거리값 이내에 있는 상기 촬영 지점들에서 취득한 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도를 시간 순서대로 반복하여 재생하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.A specific threshold distance value is set, and the 3D map generated using the 3D information acquired at the photographing points within the threshold distance value from the observer's position is repeatedly played in a time sequence. 3D map generation and display device.
  18. 제 16항에 있어서, The method of claim 16,
    상기 표시부는 The display unit
    상기 동영상 형태의 상기 3차원 지도를 재생할 때, When playing the 3D map in the form of a video,
    상기 관찰자의 위치를 중심으로하고 임계거리값을 반지름으로 하는 원인 임계거리 원 안에 포함되는 촬영 지점들 중에서 상기 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간상 역순으로 검색하여 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 시작점으로 설정하고, Caused by the distance of the observer centered on the position of the observer and the radius of the critical distance value from the position of the observer from the position of the observer by searching in reverse chronological order based on the recording time of the closest shooting point from the position of the observer Set the farthest shooting point as the start of the interval repeat,
    상기 관찰자의 위치에서 가장 가까운 촬영 지점의 촬영 시간을 기준으로 시간 순서대로 검색하여 상기 관찰자의 위치로부터 가장 멀리 떨어진 촬영 지점을 구간반복 종료점으로 설정한 후, After searching in chronological order based on the shooting time of the shooting point nearest to the observer's position, and set the shooting point farthest from the observer's position as the interval repeat end point,
    상기 구간반복 시작점에서 촬영된 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도부터 상기 구간반복 종료점에서 촬영된 상기 3차원 정보를 이용하여 생성한 상기 3차원 지도까지 순서대로 반복하여 재생하는 것을 특징으로 하는 3차원 지도 생성 및 표시 장치.And sequentially playing from the three-dimensional map generated using the three-dimensional information photographed at the section repeat start point to the three-dimensional map generated using the three-dimensional information photographed at the section repeat end point. 3D map generation and display device.
  19. 전역 좌표계를 기준으로 하여, 3차원 공간에 대한 3차원 정보를 취득한 촬영 지점들에 관한 위치 및 회전 정보를 포함하는 포즈(pose) 정보를 획득하는 단계;Acquiring pose information including position and rotation information about photographing points from which three-dimensional information about the three-dimensional space is acquired based on the global coordinate system;
    상기 획득된 포즈 정보에 기초하여, 상기 촬영 지점들의 공간적 인접성 및 시간적 인접성 중 적어도 하나에 따라상기 3차원 공간에 대한 복수의 지역 좌표계를 생성하는 단계; 및Generating a plurality of local coordinate systems with respect to the three-dimensional space according to at least one of spatial and temporal proximity of the photographing points based on the acquired pose information; And
    가상현실의 관찰자가 상기 3차원 공간 내에 위치하는 경우, 상기 복수의 지역 좌표계를 이용하여 상기 관찰자가 위치한 지점에 대응되는 해당 촬영 지점을 찾고, 상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 3차원 지도를 생성 및 표시하는 단계When the observer of the virtual reality is located in the three-dimensional space, using the plurality of local coordinate systems to find the corresponding shooting point corresponding to the location where the observer is located, three-dimensional by using the three-dimensional information acquired from the corresponding shooting point Steps to create and display a map
    를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 방법.3D map generation and display method comprising a.
  20. 제19항에 있어서, The method of claim 19,
    상기 복수의 지역 좌표계를 생성하는 단계는 상기 촬영 지점들 중에서 미리 설정된 조건을 만족하는 촬영 지점들을 선택하는 단계를 더 포함하고, The generating of the plurality of local coordinate systems further includes selecting photographing points satisfying a preset condition among the photographing points.
    상기 공간적 인접성 및 상기 시간적 인접성 중 적어도 하나는 상기 선택된 촬영 지점들에 대하여 계산되고,At least one of the spatial adjacency and the temporal adjacency is calculated for the selected imaging points,
    상기 미리 설정된 조건은 소정 개수 이상의 3차원 정보를 취득한 촬영 지점들을 선택하는 조건이거나, 취득한 3차원 정보의 개수가 소정 순위 이상인 촬영 지점들을 선택하는 조건인 것을 특징으로 하는 3차원 지도 생성 및 표시 방법.The preset condition is a condition for selecting photographing points obtained by obtaining more than a predetermined number of three-dimensional information, or a condition for selecting photographing points having a predetermined rank or more.
  21. 제19항에 있어서,The method of claim 19,
    상기 3차원 지도를 생성 및 표시하는 단계는Creating and displaying the 3D map
    상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 특정 모양을 가지는 바운딩 볼륨(bounding volume)의 장축이 상기 관찰자의 중심을 통과하고 상기 관찰자의 시선과 평행하도록 설정하는 단계;When the observer is located at a point other than the photographing point in the three-dimensional space, setting a long axis of a bounding volume having a specific shape to pass through the center of the observer and be parallel to the observer's line of sight ;
    미리 지정한 개수의 촬영 지점이 상기 바운딩 볼륨 안에 포함될 때까지 상기 바운딩 볼륨의 크기를 확대 또는 축소하여 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점을 찾는 단계; 및Finding a corresponding shooting point included in the bounding volume by enlarging or reducing the size of the bounding volume until a predetermined number of shooting points is included in the bounding volume; And
    상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계Generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point
    를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 방법.3D map generation and display method comprising a.
  22. 제21항에 있어서,The method of claim 21,
    상기 3차원 지도를 생성 및 표시하는 단계는Creating and displaying the 3D map
    상기 관찰자의 시선에 대한 시선 벡터를 이용하여 상기 바운딩 볼륨을 축 회전시켜, 상기 바운딩 볼륨 안에 포함된 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계Axially rotating the bounding volume using a gaze vector of the observer's gaze, and generating and displaying the 3D map using 3D information acquired at a corresponding photographing point included in the bounding volume.
    를 더 포함하고,More,
    상기 시선 벡터는The eye vector is
    HMD(Head Mounted Display)와 같은 자유도 3의 시선인 경우 롤(roll), 피치(pitch) 및 요(yaw) 각각의 모드에 대응되는 벡터를 포함하고, 오버헤드 뷰(overhead view)와 같은 자유도 1의 시선인 경우 상기 바운딩 볼륨의 장축에 대응되는 벡터를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 방법.In the case of 3 degrees of freedom, such as HMD (Head Mounted Display), it includes a vector corresponding to each mode of roll, pitch, and yaw, and freedom, such as overhead view. In the case of the eye of FIG. 1, the 3D map generation and display method includes a vector corresponding to the long axis of the bounding volume.
  23. 제19항에 있어서,The method of claim 19,
    상기 3차원 지도를 생성 및 표시하는 단계는Creating and displaying the 3D map
    상기 관찰자가 상기 3차원 공간 내에서 상기 촬영 지점 이외의 지점에 위치하는 경우, 상기 촬영 지점들로부터 상기 관찰자가 위치하는 지점에 이르는 복수의 벡터들 각각에 기초하여 복수의 비용함수를 설정하는 단계;When the observer is located at a point other than the photographing point in the three-dimensional space, setting a plurality of cost functions based on each of the plurality of vectors from the photographing points to the point where the observer is located;
    상기 설정된 비용함수의 값이 최소가 되도록 하는 해당 촬영 지점을 찾는 단계; 및Finding a corresponding photographing point to minimize the value of the set cost function; And
    상기 해당 촬영 지점에서 취득한 3차원 정보를 이용하여 상기 3차원 지도를 생성 및 표시하는 단계Generating and displaying the 3D map using the 3D information acquired at the corresponding photographing point
    를 포함하는 것을 특징으로 하는 3차원 지도 생성 및 표시 방법.3D map generation and display method comprising a.
PCT/KR2016/007359 2015-07-08 2016-07-07 Device and method for generating and displaying 3d map WO2017007254A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16821660.4A EP3321889A4 (en) 2015-07-08 2016-07-07 Device and method for generating and displaying 3d map
US15/742,206 US10349033B2 (en) 2015-07-08 2016-07-07 Three-dimensional map generating and displaying apparatus and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20150097442 2015-07-08
KR10-2015-0097442 2015-07-08
KR10-2016-0057705 2016-05-11
KR1020160057705A KR20170007102A (en) 2015-07-08 2016-05-11 Device and method for generating and displaying three-dimentional map

Publications (1)

Publication Number Publication Date
WO2017007254A1 true WO2017007254A1 (en) 2017-01-12

Family

ID=57685219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/007359 WO2017007254A1 (en) 2015-07-08 2016-07-07 Device and method for generating and displaying 3d map

Country Status (1)

Country Link
WO (1) WO2017007254A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750094A (en) * 2018-07-23 2020-02-04 杭州海康威视数字技术股份有限公司 Method, device and system for determining pose change information of movable equipment
CN111862203A (en) * 2019-04-30 2020-10-30 高新兴科技集团股份有限公司 Method for calibrating position and attitude parameters of dome camera based on 3D map and storage medium
CN113781628A (en) * 2020-11-26 2021-12-10 北京沃东天骏信息技术有限公司 Three-dimensional scene building method and device
CN114067071A (en) * 2021-11-26 2022-02-18 湖南汽车工程职业学院 High-precision map making system based on big data
CN115134529A (en) * 2022-06-29 2022-09-30 广联达科技股份有限公司 Method and device for displaying project model in multiple views and readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219390A (en) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd Image reader
JP2009157897A (en) * 2007-12-04 2009-07-16 National Institute Of Information & Communication Technology Photograph mapping method, system, program, and storage medium
JP2012053896A (en) * 2009-05-18 2012-03-15 Kodaira Associates Kk Image information output method
JP2013142956A (en) * 2012-01-10 2013-07-22 Pasuko:Kk Photographing object retrieval system
KR20140054710A (en) * 2012-10-29 2014-05-09 경북대학교 산학협력단 Apparatus and method for generating 3d map

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219390A (en) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd Image reader
JP2009157897A (en) * 2007-12-04 2009-07-16 National Institute Of Information & Communication Technology Photograph mapping method, system, program, and storage medium
JP2012053896A (en) * 2009-05-18 2012-03-15 Kodaira Associates Kk Image information output method
JP2013142956A (en) * 2012-01-10 2013-07-22 Pasuko:Kk Photographing object retrieval system
KR20140054710A (en) * 2012-10-29 2014-05-09 경북대학교 산학협력단 Apparatus and method for generating 3d map

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3321889A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750094A (en) * 2018-07-23 2020-02-04 杭州海康威视数字技术股份有限公司 Method, device and system for determining pose change information of movable equipment
CN111862203A (en) * 2019-04-30 2020-10-30 高新兴科技集团股份有限公司 Method for calibrating position and attitude parameters of dome camera based on 3D map and storage medium
CN111862203B (en) * 2019-04-30 2024-05-17 高新兴科技集团股份有限公司 Spherical machine position and attitude parameter calibration method based on 3D map and storage medium
CN113781628A (en) * 2020-11-26 2021-12-10 北京沃东天骏信息技术有限公司 Three-dimensional scene building method and device
CN114067071A (en) * 2021-11-26 2022-02-18 湖南汽车工程职业学院 High-precision map making system based on big data
CN114067071B (en) * 2021-11-26 2022-08-30 湖南汽车工程职业学院 High-precision map making system based on big data
CN115134529A (en) * 2022-06-29 2022-09-30 广联达科技股份有限公司 Method and device for displaying project model in multiple views and readable storage medium

Similar Documents

Publication Publication Date Title
WO2017007254A1 (en) Device and method for generating and displaying 3d map
US10349033B2 (en) Three-dimensional map generating and displaying apparatus and method
US20240062488A1 (en) Object centric scanning
CN102663722B (en) Split using the moving object of depth image
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
WO2011093581A2 (en) Vision image information storage system and method thereof, and recording medium having recorded program for implementing method
JP7459870B2 (en) Image processing device, image processing method, and program
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
KR20190126919A (en) Generating device, generating method, and storage medium
US11854211B2 (en) Training multi-object tracking models using simulation
JP2010109783A (en) Electronic camera
KR102374404B1 (en) Device and method for providing content
KR102464271B1 (en) Pose acquisition method, apparatus, electronic device, storage medium and program
WO2019054611A1 (en) Electronic device and operation method therefor
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
TW201928761A (en) Apparatus and method of image capture
JP7479793B2 (en) Image processing device, system for generating virtual viewpoint video, and method and program for controlling the image processing device
KR101559586B1 (en) Apparatus and method for guiding information using augmented reality
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP2002042158A (en) Image composing device, image composing method, and medium recording program
WO2023149125A1 (en) Information processing device and information processing method
WO2023145571A1 (en) Information processing device, information processing method, data structure, and program
JP2511771B2 (en) Image memory type image generator
US20240078767A1 (en) Information processing apparatus and information processing method
US11682175B2 (en) Previsualization devices and systems for the film industry

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16821660

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15742206

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE