WO2024101776A1 - 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템 - Google Patents
3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템 Download PDFInfo
- Publication number
- WO2024101776A1 WO2024101776A1 PCT/KR2023/017368 KR2023017368W WO2024101776A1 WO 2024101776 A1 WO2024101776 A1 WO 2024101776A1 KR 2023017368 W KR2023017368 W KR 2023017368W WO 2024101776 A1 WO2024101776 A1 WO 2024101776A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- panoramic
- street view
- node
- model
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000015654 memory Effects 0.000 claims description 43
- 230000036544 posture Effects 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 27
- 238000009877 rendering Methods 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 5
- 230000010365 information processing Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000007704 transition Effects 0.000 description 8
- 230000005291 magnetic effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Definitions
- the present disclosure relates to a method and system for generating a 3D street view model. Specifically, it is based on a 3D model for a specific area containing 3D geometric information and a panoramic 3D mesh model generated using a panoramic street view image. Therefore, it relates to a method and system for providing a 3D street view in which movement between nodes is natural.
- map information services have been commercialized.
- street view images may be provided.
- a map information service provider can acquire images of a real space and then provide images taken at a specific point on an electronic map as a street view image.
- Street view images contain high-quality texture information about the floor, buildings, and structures of real space, and can provide a user experience like looking around from a specific point in real space.
- street view information When expressing movement between different locations, street view information must be consistently reflected in street view rendering in 3D to give the user the feeling of actually moving through the street.
- existing street view images are simply a representation of adjacent panoramas. There is a problem that it is unnatural because it is rendered through blending.
- densely captured street view images are needed to render natural movement between different locations, but there is a problem in that it takes a lot of time and resources to collect them.
- the present disclosure provides a method and system (device) for generating a 3D street view model to solve the above problems.
- the present disclosure may be implemented in various ways, including as a method, device (system), or computer program stored in a readable storage medium.
- a method for generating a 3D street view model includes receiving a 3D model for a specific area including 3D geometric information expressed as an absolute coordinate position, at a first node within the specific area. Receiving a captured first panoramic street view image, based on the absolute coordinate position information and direction information of the first panoramic street view image, at least some of the 3D geometric information included in the 3D model is transmitted to the first panoramic street view image. It may include generating a first panoramic depth map associated with the first node by projecting it onto the image, and generating a first panoramic three-dimensional mesh model associated with the first node based on the first panoramic depth map. You can.
- a computer-readable non-transitory recording medium recording instructions for executing a method according to an embodiment of the present disclosure on a computer may be provided.
- a three-dimensional street view model generation system comprising a communication module, a memory, and at least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory, At least one program receives a 3D model for a specific area including 3D geometric information expressed as an absolute coordinate position, receives a first panoramic street view image taken at a first node within the specific area, and receives a first panoramic street view image Based on the absolute coordinate location information and direction information of the panoramic street view image, at least some of the 3D geometric information included in the 3D model is projected onto the first panoramic street view image to create a first panoramic depth map associated with the first node. and may include commands for generating a first panoramic 3D mesh model associated with the first node based on the first panoramic depth map.
- a panoramic 3D mesh model can be created based on a 3D model including a panoramic street view image and 3D geometric information. Additionally, by performing semantic segmentation to extract objects around the road and giving 3D information to the extracted objects, an improved panoramic 3D mesh model can be created. Accordingly, a panoramic 3D mesh model can be created using existing street view images without the need to collect street view images closely.
- FIG. 1 is a diagram illustrating an example of a method for generating a 3D street view model according to an embodiment of the present disclosure.
- Figure 2 is a schematic diagram showing a configuration in which an information processing system is connected to communicate with a plurality of user terminals in order to provide a 3D street view service according to an embodiment of the present disclosure.
- Figure 3 is a block diagram showing the internal configuration of a user terminal and an information processing system according to an embodiment of the present disclosure.
- Figure 4 is a block diagram showing the configuration of a 3D street view model generation system according to an embodiment of the present disclosure.
- Figure 5 is a diagram illustrating an example of creating a panoramic 3D mesh model according to an embodiment of the present disclosure.
- FIG. 6 is a diagram illustrating an example of rendering a 3D street view animation switching between nodes according to an embodiment of the present disclosure.
- FIG. 7 is a diagram illustrating an example of a 3D street view rendered according to an embodiment of the present disclosure.
- Figure 8 is a flowchart illustrating an example of a method for generating a 3D street view model according to an embodiment of the present disclosure.
- a modulee' or 'unit' refers to a software or hardware component, and the 'module' or 'unit' performs certain roles.
- 'module' or 'unit' is not limited to software or hardware.
- a 'module' or 'unit' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors.
- a 'module' or 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions and properties. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables.
- Components and 'modules' or 'parts' may be combined into smaller components and 'modules' or 'parts' or further components and 'modules' or 'parts'.
- a 'module' or 'unit' may be implemented with a processor and memory.
- 'Processor' should be interpreted broadly to include general-purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc.
- 'processor' may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc.
- ASIC application-specific integrated circuit
- PLD programmable logic device
- FPGA field programmable gate array
- 'Processor' refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. You may. Additionally, 'memory' should be interpreted broadly to include any electronic component capable of storing electronic information.
- RAM random access memory
- ROM read-only memory
- NVRAM non-volatile random access memory
- PROM programmable read-only memory
- EPROM erasable-programmable read-only memory
- a memory is said to be in electronic communication with a processor if the processor can read information from and/or write information to the memory.
- the memory integrated into the processor is in electronic communication with the processor.
- 'system' may include at least one of a server device and a cloud device, but is not limited thereto.
- a system may consist of one or more server devices.
- a system may consist of one or more cloud devices.
- the system may be operated with a server device and a cloud device configured together.
- 'display' may refer to any display device associated with a computing device, e.g., any display device capable of displaying any information/data controlled by or provided by the computing device. can refer to.
- 'each of a plurality of A' or 'each of a plurality of A' may refer to each of all components included in a plurality of A, or may refer to each of some components included in a plurality of A. .
- 'street view video' may refer to not only video captured on the roadway, but also video captured on the sidewalk. Additionally, the 'street view image' may further include images taken at random points outdoors (or indoors facing the outdoors), as well as driveways and sidewalks.
- the 3D street view model generator 110 can generate a panoramic 3D mesh model for each node. Additionally, the 3D street view viewer 120 can render a street view from a single node or render a 3D street view animation switching between nodes using the generated panoramic 3D mesh model.
- a vehicle eg, a street view photography vehicle, a Mobile Mapping System (MMS) vehicle, etc.
- the plurality of node data may include a plurality of street view images captured at a plurality of nodes within a specific area and absolute coordinate location information and direction information for the plurality of street view images.
- the plurality of nodes may be virtual nodes arranged at predefined intervals (eg, 5m intervals, 10m intervals, etc.) within a road in a specific area.
- a plurality of node data generated by the vehicle 112 may be stored in the node database 114.
- a plurality of node data generated by one vehicle 112 is shown as being stored in the node database 114, but the present invention is not limited thereto, and node data generated by multiple vehicles is stored in the node database 114. It can be.
- a plurality of street view images may be obtained from a plurality of images taken in various directions while driving on a road in a specific area using a vehicle 112 equipped with at least one camera.
- the cameras of vehicle 112 may be four fisheye cameras.
- each street view image may be a 360-degree panoramic image generated based on a plurality of images taken in various directions at each node.
- the street view image for each node may be a 360-degree panoramic image created by stitching multiple images taken in various directions at each node. In this way, the street view image is generated based on an image taken from a relatively close distance of a space within a specific area, and may include high-quality texture information.
- absolute coordinate location information for a plurality of street view images included in a plurality of node data may be location information with relatively low accuracy.
- the location information for a plurality of street view images included in the plurality of node data may be location information obtained by a GPS device installed in the vehicle 112 at the node where each street view image was captured. Location information obtained using the GPS equipment provided in the vehicle 112 may have an error of about 5 to 10 meters.
- the panoramic 3D mesh model generator 116 may generate a panoramic 3D mesh model for each node based on node-related data stored in the node database 114.
- the created panoramic 3D mesh model for each node can be stored in the panoramic 3D mesh model database 118.
- a 3D model for a specific area containing 3D geometric information expressed in absolute coordinate positions may be used. The detailed process of generating a panoramic 3D mesh model for each node based on node-related data will be described later with reference to FIG. 5.
- the 3D street view viewer 120 may render a street view at a single node using a panoramic 3D mesh model stored in the panoramic 3D mesh model database 118.
- the in-node rendering unit 122 may render a 3D street view looking from the target node to the target viewpoint.
- the in-node rendering unit 122 may acquire node data (street view image, etc.) about the target node stored in the node database 114.
- the 3D street view viewer 120 can render a street view from a single node using the street view image of the target node, the target viewpoint, and the panoramic 3D mesh model of the target node.
- the 3D street view viewer 120 may render a 3D street view animation moving from a departure node to a destination node.
- the panoramic 3D mesh model acquisition unit 124 acquires street view images associated with each of the departure and arrival nodes from the node database 114, and generates a panoramic 3D mesh model associated with each of the departure and arrival nodes. It can be obtained from the 3D mesh model database 118.
- the inter-node transition rendering unit 126 may render a 3D street view animation that switches from the departure node to the arrival node based on the street view images of the departure node and the destination node and the panoramic 3D mesh model. The detailed process of rendering the 3D street view animation that switches from the departure node to the destination node will be described later with reference to FIG. 6.
- Figure 2 is a schematic diagram showing a configuration in which the information processing system 230 is connected to communicate with a plurality of user terminals 210_1, 210_2, and 210_3 in order to provide a 3D street view service according to an embodiment of the present disclosure.
- a plurality of user terminals 210_1, 210_2, and 210_3 may be connected to the information processing system 230 that can provide a 3D street view service through the network 220.
- the plurality of user terminals 210_1, 210_2, and 210_3 may include terminals of users receiving a 3D street view service.
- the information processing system 230 is one or more server devices and/or capable of storing, providing, and executing computer-executable programs (e.g., downloadable applications) and data associated with providing 3D street view services, etc. It may include a database, or one or more distributed computing devices and/or distributed databases based on cloud computing services.
- the 3D street view service provided by the information processing system 230 is provided to the user through a 3D street view service application web browser or web browser extension program installed on each of the plurality of user terminals 210_1, 210_2, and 210_3. can be provided.
- the information processing system 230 provides information or performs processing in response to a request for creating a 3D street view received from the user terminals 210_1, 210_2, and 210_3 through a 3D street view service application. can do.
- a plurality of user terminals 210_1, 210_2, and 210_3 may communicate with the information processing system 230 through the network 220.
- the network 220 may be configured to enable communication between a plurality of user terminals 210_1, 210_2, and 210_3 and the information processing system 230.
- the network 220 may be, for example, a wired network such as Ethernet, a wired home network (Power Line Communication), a telephone line communication device, and RS-serial communication, a mobile communication network, a wireless LAN (WLAN), It may consist of wireless networks such as Wi-Fi, Bluetooth, and ZigBee, or a combination thereof.
- the communication method is not limited, and may include communication methods utilizing communication networks that the network 220 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.) as well as user terminals (210_1, 210_2, 210_3). ) may also include short-range wireless communication between the network 220 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.) as well as user terminals (210_1, 210_2, 210_3). ) may also include short-range wireless communication between the network 220 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.) as well as user terminals (210_1, 210_2, 210_3). ) may also include short-range wireless communication between the network 220 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.) as well as user terminals (210_1, 210_2,
- the mobile phone terminal (210_1), tablet terminal (210_2), and PC terminal (210_3) are shown as examples of user terminals, but they are not limited thereto, and the user terminals (210_1, 210_2, 210_3) use wired and/or wireless communication.
- This is possible and may be any computing device on which a 3D street view service application or a web browser, etc. can be installed and executed.
- user terminals include smartphones, mobile phones, navigation devices, computers, laptops, digital broadcasting terminals, PDAs (Personal Digital Assistants), PMPs (Portable Multimedia Players), tablet PCs, game consoles, and wearable devices ( It may include a wearable device), IoT (internet of things) device, VR (virtual reality) device, AR (augmented reality) device, set-top box, etc.
- IoT Internet of things
- VR virtual reality
- AR augmented reality
- set-top box etc.
- three user terminals 210_1, 210_2, 210_3 are shown as communicating with the information processing system 230 through the network 220, but this is not limited to this, and a different number of user terminals are connected to the network ( It may be configured to communicate with the information processing system 230 through 220).
- FIG. 3 is a block diagram showing the internal configuration of the user terminal 210 and the information processing system 230 according to an embodiment of the present disclosure.
- the user terminal 210 may refer to any computing device capable of executing applications, web browsers, etc. and capable of wired/wireless communication, for example, the mobile phone terminal 210_1, tablet terminal 210_2 of FIG. 2, It may include a PC terminal (210_3), etc.
- the user terminal 210 may include a memory 312, a processor 314, a communication module 316, and an input/output interface 318.
- information processing system 230 may include memory 332, processor 334, communication module 336, and input/output interface 338. As shown in FIG.
- the user terminal 210 and the information processing system 230 are configured to communicate information and/or data through the network 220 using respective communication modules 316 and 336. It can be. Additionally, the input/output device 320 may be configured to input information and/or data to the user terminal 210 through the input/output interface 318 or to output information and/or data generated from the user terminal 210.
- Memories 312 and 332 may include any non-transitory computer-readable recording medium. According to one embodiment, the memories 312 and 332 are non-permanent mass storage devices such as read only memory (ROM), disk drive, solid state drive (SSD), flash memory, etc. It can be included. As another example, non-perishable mass storage devices such as ROM, SSD, flash memory, disk drive, etc. may be included in the user terminal 210 or the information processing system 230 as a separate persistent storage device that is distinct from memory. Additionally, an operating system and at least one program code may be stored in the memories 312 and 332.
- ROM read only memory
- SSD solid state drive
- flash memory etc. It can be included.
- non-perishable mass storage devices such as ROM, SSD, flash memory, disk drive, etc. may be included in the user terminal 210 or the information processing system 230 as a separate persistent storage device that is distinct from memory.
- an operating system and at least one program code may be stored in the memories 312 and 332.
- These software components may be loaded from a computer-readable recording medium separate from the memories 312 and 332.
- This separate computer-readable recording medium may include a recording medium directly connectable to the user terminal 210 and the information processing system 230, for example, a floppy drive, disk, tape, DVD/CD- It may include computer-readable recording media such as ROM drives and memory cards.
- software components may be loaded into the memories 312 and 332 through the communication modules 316 and 336 rather than computer-readable recording media.
- at least one program is loaded into memory 312, 332 based on a computer program installed by files provided over the network 220 by developers or a file distribution system that distributes installation files for applications. It can be.
- the processors 314 and 334 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processors 314 and 334 by memories 312 and 332 or communication modules 316 and 336. For example, processors 314 and 334 may be configured to execute received instructions according to program codes stored in recording devices such as memories 312 and 332.
- the communication modules 316 and 336 may provide a configuration or function for the user terminal 210 and the information processing system 230 to communicate with each other through the network 220, and may provide a configuration or function for the user terminal 210 and/or information processing.
- the system 230 may provide a configuration or function for communicating with other user terminals or other systems (for example, a separate cloud system, etc.). For example, a request or data (e.g., a request to create a 3D street view, etc.) generated by the processor 314 of the user terminal 210 according to a program code stored in a recording device such as the memory 312 is sent to the communication module ( It may be transmitted to the information processing system 230 through the network 220 under the control of 316). Conversely, a control signal or command provided under the control of the processor 334 of the information processing system 230 is transmitted through the communication module 316 of the user terminal 210 through the communication module 336 and the network 220. It may be received by the user terminal 210.
- a request or data
- the input/output interface 318 may be a means for interfacing with the input/output device 320.
- input devices may include devices such as cameras, keyboards, microphones, mice, etc., including audio sensors and/or image sensors
- output devices may include devices such as displays, speakers, haptic feedback devices, etc. You can.
- the input/output interface 318 may be a means for interfacing with a device that has components or functions for performing input and output, such as a touch screen, integrated into one.
- the processor 314 of the user terminal 210 uses information and/or data provided by the information processing system 230 or another user terminal when processing instructions of a computer program loaded in the memory 312. A service screen, etc.
- the input/output device 320 is shown not to be included in the user terminal 210, but the present invention is not limited to this and may be configured as a single device with the user terminal 210. Additionally, the input/output interface 338 of the information processing system 230 may be connected to the information processing system 230 or means for interfacing with a device (not shown) for input or output that the information processing system 230 may include. It can be. In FIG.
- the input/output interfaces 318 and 338 are shown as elements configured separately from the processors 314 and 334, but the present invention is not limited thereto, and the input/output interfaces 318 and 338 may be configured to be included in the processors 314 and 334. there is.
- the user terminal 210 and information processing system 230 may include more components than those in FIG. 3 . However, there is no need to clearly show most prior art components.
- the user terminal 210 may be implemented to include at least some of the input/output devices 320 described above. Additionally, the user terminal 210 may further include other components such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database.
- GPS global positioning system
- the user terminal 210 is a smartphone, it may include components generally included in a smartphone, such as an acceleration sensor, a gyro sensor, a microphone module, a camera module, and various physical devices.
- Various components such as buttons, buttons using a touch panel, input/output ports, and vibrators for vibration may be implemented to be further included in the user terminal 210.
- the processor 314 uses input devices such as a touch screen, keyboard, camera including an audio sensor and/or an image sensor, and a microphone connected to the input/output interface 318.
- Input or selected text, image, video, voice and/or motion can be received, and the received text, image, video, voice and/or motion can be stored in the memory 312 or stored in the communication module 316 and network. It can be provided to the information processing system 230 through (220).
- the processor 314 of the user terminal 210 manages, processes, and/or stores information and/or data received from the input/output device 320, other user terminals, the information processing system 230, and/or a plurality of external systems. It can be configured to do so. Information and/or data processed by processor 314 may be provided to information processing system 230 via communication module 316 and network 220.
- the processor 314 of the user terminal 210 may transmit information and/or data to the input/output device 320 through the input/output interface 318 and output the information. For example, the processor 314 may display the received information and/or data on the screen of the user terminal 210.
- the processor 334 of the information processing system 230 may be configured to manage, process, and/or store information and/or data received from a plurality of user terminals 210 and/or a plurality of external systems. Information and/or data processed by the processor 334 may be provided to the user terminal 210 through the communication module 336 and the network 220.
- FIG. 4 is a block diagram showing the configuration of a 3D street view model generation system according to an embodiment of the present disclosure.
- a 3D street view model generation system (eg, information processing system) may include a 3D street view model generator 410 and a 3D street view viewer 420.
- the 3D street view model generator 410 and the 3D street view viewer 420 may be implemented as one system, or may be implemented as separate systems.
- the 3D street view model generator 410 may include a data collection unit 412 and a panoramic 3D mesh model generator 414. Additionally, the 3D street view viewer 420 may include an intra-node rendering unit 422 and an inter-node transition rendering unit 424.
- the data collection unit 412 may collect and store node-related data necessary for generating a 3D street view.
- Node-related data may include absolute coordinate location information and direction information for a panoramic street view image captured for each node and a plurality of street view images.
- the data collection unit 412 may receive node-related data from a plurality of vehicles.
- the data collection unit 412 may collect and store a 3D model for a specific area including 3D geometric information expressed in absolute coordinate positions.
- the location information included in the 3D model for a specific area may be location information with higher accuracy than absolute coordinate location information associated with the street view image.
- a 3D model for a specific area may be created based on aerial photos taken of the specific area from above the specific area.
- a 3D model for a specific area may include multiple 3D building models and road models within the specific area.
- a 3D model may include a 3D building model, a digital elevation model (DEM), a true ortho image of a specific area, a road layout, a road DEM, etc.
- DEM digital elevation model
- the panoramic 3D mesh model generator 414 may generate a panoramic 3D mesh model for each node based on the node-related data collected by the data collection unit 412 and the 3D model for a specific region. there is. Specifically, for each panoramic street view image, the panoramic 3D mesh model generator 414 generates geometric information included in the 3D model into a panoramic street view image based on the absolute coordinate position information and direction information of the street view image. You can create a panoramic depth map by projecting to . That is, the panoramic 3D mesh model generator 414 can generate a panoramic depth map by projecting the geometric information included in the 3D model as seen in each panoramic image. Additionally, the panoramic 3D mesh model generator 414 may generate a panoramic 3D mesh model based on the panoramic depth map.
- the panoramic 3D mesh model generator 414 may improve the panoramic depth map using 3D geometric information included in the 3D model. Since the 3D model contains only 3D information about buildings and roads, the panoramic 3D mesh model generator 414 can improve the panoramic depth map using semantic segmentation information of the panoramic street view image. A specific method for improving the panoramic depth map will be described later in FIG. 5.
- the panoramic 3D mesh model generator 414 may generate a panoramic 3D mesh model based on an improved panoramic depth map. Specifically, the panoramic 3D mesh model generator 414 may generate a first set of mesh based on the 3D point cloud included in the improved panoramic depth map. Additionally, the panoramic 3D mesh model generator 414 may generate a second set of meshes by merging meshes belonging to the same plane among the first set of meshes.
- the in-node rendering unit 422 may render a 3D street view looking at a target viewpoint from a specific node. Specifically, the in-node rendering unit 422 may acquire a panoramic street view image and a panoramic 3D mesh model associated with a specific node. Afterwards, the in-node rendering unit 422 may render a 3D street view at a specific node based on the panoramic 3D mesh model and street view image associated with the specific node. Rendered 3D street view-related data may be transmitted to the user terminal that requested the data.
- the inter-node transition rendering unit 424 may render a 3D street view animation moving from a first node to a second node. Specifically, the inter-node transition rendering unit 424 may obtain a panoramic street view image and a panoramic 3D mesh model associated with each of the first node and the second node. Thereafter, the inter-node transition rendering unit 424 may render a 3D street view animation that switches from the first node to the second node based on the panoramic street view image and the panoramic 3D mesh model.
- the inter-node transition rendering unit 424 extends the movement algorithm between adjacent nodes to create a 3D street view that switches from the first node to the second node. Animation can be rendered. Data related to the rendered 3D street view animation transitioning from the first node to the second node may be transmitted to the user terminal that requested the data.
- the configuration of the 3D street view model generation system shown in FIG. 4 is only an example, and in some embodiments, configurations other than those shown may be additionally included, some configurations may be omitted, and some processes may be performed using other configurations or external methods. It can be performed by the system. For example, 3D street view rendering in the 3D street view viewer 420 may be performed by the user terminal.
- 3D street view rendering in the 3D street view viewer 420 may be performed by the user terminal.
- the configurations of the system are explained by dividing them by function in FIG. 4, this does not necessarily mean that the configurations are physically divided.
- FIG. 5 is a diagram illustrating an example of creating a panoramic 3D mesh model according to an embodiment of the present disclosure.
- a processor eg, at least one processor of an information processing system
- the panoramic street view image may be a 360-degree panoramic image generated using equirectangular projection.
- a plurality of undistorted flat images may be generated by converting the panoramic street view image 510 into six cube images using a perspective projection method.
- the processor may perform semantic segmentation on a plurality of undistorted planar images (530). By performing semantic segmentation, the processor can detect a plurality of objects within a plurality of undistorted planar images.
- the plurality of detected objects may include buildings, roads, vehicles, signs, plants, etc. Additionally, each detected object can be classified and stored by instance.
- the processor specifies a 3D model 540 including 3D geometric information expressed as an absolute coordinate position and the 6 Degree of Freedom (DoF) posture 542 of the panoramic street view image 510.
- a panoramic depth map associated with a node can be created (550).
- the 6 DoF posture 542 may include absolute coordinate position information and direction information.
- the processor projects at least some of the 3D geometric information included in the 3D model onto the panoramic street view image 510 to determine the panoramic depth. You can create a map.
- the 3D model 540 may include a plurality of 3D building models and road models within a specific area. This 3D model 540 may be created based on an aerial photograph taken of a specific area from above, but is not limited to this. Accordingly, the panoramic depth map generated by projecting the 3D geometric information included in the 3D model onto the panoramic street view image 510 may include depth information of buildings and roads.
- the processor may convert the panoramic depth map into a plurality of undistorted depth maps (560). Specifically, the processor can generate a plurality of undistorted depth maps by converting the panoramic depth map into six cube depth maps with a view angle of 90 degrees.
- six cube depth maps can be generated using a perspective projection method.
- the processor may generate a plurality of improved undistorted depth maps based on the plurality of undistorted depth maps and a result of performing semantic segmentation (570). Specifically, the processor performs semantic segmentation using the depth information of buildings and roads included in a plurality of undistorted depth maps and gives depth information to a plurality of objects detected in a plurality of undistorted flat images. Multiple improved undistorted depth maps can be generated. For example, when a tree detected in a plurality of undistorted planar images is in contact with a road, depth information (e.g., depth information on the road in contact with the bottom of the tree) is given to the tree based on depth information on the road in contact with the bottom of the tree. It can be. As another example, when an object detected in a plurality of undistorted planar images does not contact a road, depth information may be given to the object based on depth information of buildings adjacent to the left and right.
- depth information e.g., depth information on the road in contact with the bottom of the tree
- the processor may generate an enhanced panoramic depth map based on a plurality of enhanced undistorted depth maps (580). Specifically, the processor may generate an improved panoramic depth map by stitching a plurality of improved undistorted depth maps to synthesize one panoramic depth map. Accordingly, the improved undistorted depth map can include not only depth information of buildings and roads, but also depth information of vehicles, signs, plants, etc.
- the processor may generate a panoramic three-dimensional mesh model based on the improved panoramic depth map (590). Specifically, the processor may generate a first set of meshes based on a three-dimensional point cloud included in the enhanced panoramic depth map. For example, the first set of meshes may be created by connecting adjacent pixels in a triangular shape in a two-dimensional depth map coordinate system. Thereafter, the processor may generate a second set of meshes by merging meshes belonging to the same/similar plane among the first set of meshes into one. In this case, the processor may merge at least some of the meshes of the first set so that the mesh boundaries in the second set of meshes and color edges in the panoramic street view image are aligned. That is, the mesh boundary can be aligned according to the RGB values of pixels in the panoramic street view image.
- the processor may generate a panoramic 3D mesh model based on the improved panoramic depth map and the panoramic street view image 510.
- the panoramic 3D mesh model may include multiple meshes and texture information.
- the processor can immediately render a 3D street view using the panoramic 3D mesh model.
- a panoramic 3D mesh model can be created based on a 3D model including a panoramic street view image and 3D geometric information. Additionally, by performing semantic segmentation to extract objects around the road and giving 3D information to the extracted objects, an improved panoramic 3D mesh model can be created. Accordingly, a panoramic 3D mesh model can be created using existing street view images without the need to collect street view images closely.
- FIG. 6 is a diagram illustrating an example of rendering a 3D street view animation switching between nodes according to an embodiment of the present disclosure. As shown, the processor may determine departure/arrival postures for rendering transitions between nodes (610).
- the starting posture includes absolute coordinate location information of the starting node (node N) and direction information that the user is looking at within the starting node (e.g., a 4-dimensional vector value representing rotation (3-dimensional rotation axis value and 1 It can be determined based on a quaternion, which is the rotation angle value of the dimension.
- the arrival attitude may be determined based on the absolute coordinate location information of the arrival node (node N+1) and the direction information the user faces within the departure node (node N).
- the direction information in the arrival posture may be determined as a direction looking from the center of the arrival node (node N+1) to the center of the next node (node N+2).
- the processor uses linear interpolation or spherical interpolation between the starting posture and the arriving posture to create a plurality of intermediate steps with an interval equal to the predefined step size. You can decide your posture.
- the processor may obtain a panoramic 3D mesh model associated with each of the departure and arrival nodes (620). Thereafter, the processor may render a 3D street view animation moving from the departure node to the destination node based on the 3D mesh model of the departure node and the panoramic 3D mesh model of the arrival node (630). Alternatively, the processor moves 3 nodes from the departure node to the destination node based on the panoramic street view image of the departure node, the 3D mesh model of the departure node, the panoramic street view image of the destination node, and the panoramic 3D mesh model of the destination node. You can render 3D street view animations. At this time, a 3D street view animation moving between nodes may be generated based on the starting posture, a plurality of intermediate postures, and the arrival posture.
- the processor can render a 3D street view animation by extending the algorithm for moving between adjacent nodes.
- a panoramic 3D mesh model and/or street view image associated with each of the current node and nodes located behind the moving direction may be preloaded.
- FIG. 7 is a diagram illustrating an example of a 3D street view rendered according to an embodiment of the present disclosure.
- the first screen 710 is an example showing a 3D street view from the first node. Users can check a panoramic 3D street view around the current user location by changing the viewpoint up to 360 degrees through click/drag input.
- the user can switch from the 3D street view of the first node to the 3D street view of the second node by selecting a second node that is different from the first node.
- a 3D street view animation moving from the first node to the second node may be displayed on the display.
- the panoramic 3D mesh model is given depth information of objects around the road, users can receive a natural 3D street view animation as if they are actually moving through the street.
- the second screen 720 is an example showing a 3D street view from the second node.
- FIG. 8 is a flowchart illustrating an example of a method 800 for generating a 3D street view model according to an embodiment of the present disclosure.
- method 800 may be performed by at least one processor of an information processing system.
- the method 800 may be initiated by the processor receiving a 3D model for a specific area including 3D geometric information expressed in absolute coordinate positions (S810).
- the 3D model may include a plurality of 3D building models and road models within a specific area.
- the processor may receive the first panoramic street view image captured at the first node within a specific area (S820).
- the first panoramic street view image may be a 360-degree panoramic image generated using equirectangular projection.
- the processor projects at least some of the 3D geometric information included in the 3D model onto the first panoramic street view image to connect the first node and A related first panoramic depth map may be generated (S830).
- the first panoramic depth map may include depth information of buildings and roads.
- the processor may generate a first panoramic 3D mesh model associated with the first node based on the first panoramic depth map (S840). To this end, the processor may convert the first panoramic street view image into a plurality of undistorted planar images. Here, a plurality of undistorted flat images can be generated by converting the first panoramic street view image into six cube images using a perspective projection method. Additionally, the processor may perform semantic segmentation to detect a plurality of objects in a plurality of undistorted planar images.
- the processor may generate an improved first panoramic depth map based on the first panoramic depth map and the detected plurality of object information.
- the first panoramic depth map includes depth information about buildings and roads, and the improved first panoramic depth map may further include depth information about at least one of vehicles, signs, or plants.
- the first panoramic 3D mesh model may be created using the improved first panoramic depth map.
- the processor may convert the first panoramic depth map into a plurality of undistorted depth maps.
- a plurality of undistorted depth maps may be generated by converting the first panoramic depth map into six cube depth maps.
- the processor may generate a plurality of improved undistorted depth maps by assigning depth information to a plurality of object information in a plurality of undistorted flat images using the depth information of buildings and roads included in the plurality of undistorted depth maps. You can. For example, in response to determining that a first object in the plurality of undistorted planar images borders a road, the processor may determine depth information of the first object based on depth information of the road bordering the first object. As another example, in response to determining that a second object in the plurality of undistorted planar images is not in contact with a road, the processor may determine depth information of the second object based on depth information of a building adjacent to the second object. .
- the processor may then generate an improved first panoramic depth map based on the plurality of improved undistorted depth maps.
- the improved first panoramic depth map may be generated by stitching a plurality of improved undistorted depth maps to synthesize one panoramic depth map.
- the processor may generate a first panoramic three-dimensional mesh model associated with the first node based on the improved first panoramic depth map. Specifically, the processor may generate a first set of meshes based on a 3D point cloud included in the improved first panoramic depth map. Additionally, the processor may merge at least some of the first set of meshes to generate a second set of meshes. Here, the number of meshes in the second set may be less than the number of meshes in the first set. In this case, the second set of meshes may be created by merging meshes belonging to the same plane among the first set of meshes into one. Specifically, the processor may merge at least some of the first set of meshes such that mesh boundaries in the second set of meshes and color edges in the first panoramic street view image are aligned.
- the processor may render a 3D street view at the first node (S850).
- the processor may render a 3D street view animation moving from a first node to a second node.
- the processor may obtain a second panoramic street view image and a second panoramic 3D mesh model associated with the second node. Thereafter, the processor moves a 3D grid that moves from the first node to the second node based on the first panoramic street view image, the first panoramic 3D mesh model, the second panoramic street view image, and the second panoramic 3D mesh model.
- Review animations can be rendered.
- the 3D street view animation may be generated based on the starting posture, a plurality of intermediate postures, and the arrival posture.
- the starting posture may be determined based on absolute coordinate location information of the first node and information on the direction the user is looking within the first node.
- the arrival attitude may be determined based on absolute coordinate location information of the second node and information on the direction the user is facing within the first node.
- a plurality of intermediate postures between the starting posture and the arriving posture may be determined using linear interpolation or spherical linear interpolation.
- the above-described method may be provided as a computer program stored in a computer-readable recording medium for execution on a computer.
- Media may be used to continuously store executable programs on a computer, or may be temporarily stored for execution or download.
- the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and There may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.
- the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.
- the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in.
- a general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine.
- a processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.
- RAM random access memory
- ROM read-only memory
- NVRAM non-volatile random access memory
- PROM on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.
- Computer-readable media includes both computer storage media and communication media, including any medium that facilitates transfer of a computer program from one place to another.
- Storage media may be any available media that can be accessed by a computer.
- such computer readable media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or the desired program code in the form of instructions or data structures. It can be used to transfer or store data and can include any other media that can be accessed by a computer. Any connection is also properly termed a computer-readable medium.
- disk and disk include CD, laser disk, optical disk, digital versatile disc (DVD), floppy disk, and Blu-ray disk, where disks are usually magnetic. It reproduces data optically, while discs reproduce data optically using lasers. Combinations of the above should also be included within the scope of computer-readable media.
- a software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, a hard disk, a removable disk, a CD-ROM, or any other form of storage medium known.
- An exemplary storage medium may be coupled to the processor such that the processor may read information from or write information to the storage medium. Alternatively, the storage medium may be integrated into the processor.
- the processor and storage medium may reside within an ASIC. ASIC may exist within the user terminal. Alternatively, the processor and storage medium may exist as separate components in the user terminal.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 개시는 사용자 단말의 적어도 하나의 프로세서에 의해 수행되는, 3차원 거리뷰 모델 생성 제공 방법을 제공한다. 이 방법은, 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신하는 단계, 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신하는 단계, 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 제1 파노라마 거리뷰 영상에 투영하여 제1 노드와 연관된 제1 파노라마 뎁스 맵(depth map)을 생성하는 단계 및 제1 파노라마 뎁스 맵에 기초하여 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성하는 단계를 포함한다.
Description
본 개시는 3차원 거리뷰 모델 생성 방법 및 시스템에 관한 것으로, 구체적으로, 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델과 파노라마 거리뷰 영상을 이용하여 생성된 파노라마 3차원 메쉬 모델에 기초하여, 노드 간 이동이 자연스러운 3차원 거리뷰를 제공하는 방법 및 시스템에 관한 것이다.
정보화 기술이 발달함에 따라, 지도 정보 서비스가 상용화되었다. 지도 정보 서비스의 한 영역으로서, 거리뷰 영상이 제공될 수 있다. 예를 들어, 지도 정보 서비스의 제공자는 실제 공간을 촬영한 이미지를 획득한 후, 전자 지도 상의 특정 지점에 대한 거리뷰 영상으로서 해당 지점에서 촬영한 이미지들을 제공할 수 있다.
거리뷰 영상은 실제 공간의 바닥면, 건물, 구조물 등에 대한 고품질의 텍스처 정보를 포함하고 있어, 실제 공간의 특정 지점에서 주위를 둘러보는 것과 같은 사용자 경험을 제공할 수 있다. 서로 다른 위치 간의 이동을 표현하는 경우, 사용자가 실제 거리를 이동하는 것과 같은 느낌을 주기 위해서는 3차원 상에서 일관성 있게 거리뷰 정보가 거리뷰 렌더링에 반영되어야 하지만, 기존의 거리뷰 영상은 단순히 인접한 파노라마 간의 블렌딩을 통해 렌더링되어 부자연스럽다는 문제점이 있다. 또한, 서로 다른 위치 간의 자연스러운 이동을 렌더링하기 위해 촘촘히 촬영된 거리뷰 영상이 필요하나, 이를 수집하기 위한 시간과 자원이 많이 소요된다는 문제점이 있다.
본 개시는 상기와 같은 문제점을 해결하기 위한 3차원 거리뷰 모델 생성 방법 및 시스템(장치)을 제공한다.
본 개시는 방법, 장치(시스템) 또는 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 포함한 다양한 방식으로 구현될 수 있다.
본 개시의 일 실시예에 따르면, 3차원 거리뷰 모델 생성 방법은, 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신하는 단계, 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신하는 단계, 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 제1 파노라마 거리뷰 영상에 투영하여 제1 노드와 연관된 제1 파노라마 뎁스 맵(depth map)을 생성하는 단계 및 제1 파노라마 뎁스 맵에 기초하여 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 방법을 컴퓨터에서 실행하기 위한 명령어들을 기록한 컴퓨터 판독 가능한 비일시적 기록매체가 제공될 수 있다.
본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 시스템으로서, 통신 모듈, 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신하고, 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신하고, 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 제1 파노라마 거리뷰 영상에 투영하여 제1 노드와 연관된 제1 파노라마 뎁스 맵을 생성하고, 제1 파노라마 뎁스 맵에 기초하여 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성하기 위한 명령어들을 포함할 수 있다.
본 개시의 다양한 실시예에 따르면, 파노라마 거리뷰 영상 및 3차원 기하정보를 포함하는 3차원 모델에 기초하여, 파노라마 3차원 메쉬 모델을 생성할 수 있다. 또한, 시맨틱 세그멘테이션을 수행하여 도로 주변 객체들을 추출하고, 추출된 객체들에 3차원 정보를 부여함으로써 보다 개선된 파노라마 3차원 메쉬 모델을 생성할 수 있다. 이에 따라, 거리뷰 영상을 촘촘히 수집할 필요없이 기존의 거리뷰 영상을 활용하여 파노라마 3차원 메쉬 모델을 생성할 수 있다.
본 개시의 다양한 실시예에 따르면, 자연스러운 노드간 이동이 가능한 사실적인 3차원 거리뷰 서비스를 제공할 수 있다. 이를 통해, 사용자는 실제 거리를 이동하는 것과 같은 느낌을 경험할 수 있다.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자("통상의 기술자"라 함)에게 명확하게 이해될 수 있을 것이다.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 방법의 예시를 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 3차원 거리뷰 서비스를 제공하기 위해, 정보 처리 시스템이 복수의 사용자 단말과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 3은 본 개시의 일 실시예에 따른 사용자 단말 및 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 시스템의 구성을 나타내는 블록도이다.
도 5는 본 개시의 일 실시예에 따라 파노라마 3차원 메쉬 모델이 생성되는 예시를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따른 노드 간 전환하는 3차원 거리뷰 애니메이션을 렌더링하는 예시를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따라 렌더링된 3차원 거리뷰의 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 방법의 예시를 나타내는 흐름도이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.
본 개시에서, '디스플레이'는 컴퓨팅 장치와 연관된 임의의 디스플레이 장치를 지칭할 수 있는데, 예를 들어, 컴퓨팅 장치에 의해 제어되거나 컴퓨팅 장치로부터 제공된 임의의 정보/데이터를 표시할 수 있는 임의의 디스플레이 장치를 지칭할 수 있다.
본 개시에서, '복수의 A의 각각' 또는 '복수의 A 각각'은 복수의 A에 포함된 모든 구성 요소의 각각을 지칭하거나, 복수의 A에 포함된 일부 구성 요소의 각각을 지칭할 수 있다.
본 개시에서, '거리뷰 영상'은 차도에서 촬영된 영상뿐만 아니라, 인도에서 촬영된 영상도 지칭할 수 있다. 또한, '거리뷰 영상'은 차도 및 인도 뿐만 아니라, 야외(또는 야외를 바라보는 실내)의 임의의 지점에서 촬영된 영상을 더 포함할 수 있다.
도 1은 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 방법의 예시를 나타내는 도면이다. 도시된 바와 같이, 3차원 거리뷰 모델 생성기(110)는 각 노드 별로 파노라마 3차원 메쉬 모델을 생성할 수 있다. 또한, 3차원 거리뷰 뷰어(120)는 생성된 파노라마 3차원 메쉬 모델을 이용하여 단일 노드에서의 거리뷰를 렌더링하거나 노드 간 전환되는 3차원 거리뷰 애니메이션을 렌더링할 수 있다.
일 실시예에서, 차량(예를 들어, 거리뷰 촬영용 차량, MMS(Mobile Mapping System) 차량 등)(112)은 복수의 노드 데이터를 생성할 수 있다. 복수의 노드 데이터는 특정 지역 내의 복수의 노드에서 촬영된 복수의 거리뷰 영상 및 복수의 거리뷰 영상에 대한 절대좌표 위치 정보 및 방향 정보를 포함할 수 있다. 여기서, 복수의 노드는 특정 지역의 도로 내에서 미리 정의된 간격(예를 들어, 5m 간격, 10m 간격 등)으로 배치된 가상의 노드들일 수 있다. 차량(112)이 생성한 복수의 노드 데이터는 노드 데이터베이스(114)에 저장될 수 있다. 도 1에는 하나의 차량(112)이 생성한 복수의 노드 데이터가 노드 데이터베이스(114)에 저장되는 것으로 도시되었으나, 이에 한정되지 않으며, 여러 대의 차량이 생성한 노드 데이터가 노드 데이터베이스(114)에 저장될 수 있다.
일 실시예에서, 복수의 거리뷰 영상은 적어도 하나의 카메라가 구비된 차량(112)을 이용하여, 특정 지역의 도로를 주행하면서 다양한 방향으로 촬영한 복수의 이미지로부터 획득될 수 있다. 예를 들어, 차량(112)의 카메라는 4개의 어안(fisheye) 카메라일 수 있다. 일 실시예에 따르면, 각 거리뷰 영상은 각 노드에서 다양한 방향으로 촬영된 복수의 이미지에 기초하여 생성된 360도 파노라마 영상일 수 있다. 예를 들어, 각 노드에 대한 거리뷰 영상은 각 노드에서 다양한 방향으로 촬영된 복수의 이미지를 스티칭(stitching)함으로써 생성된 360도 파노라마 영상일 수 있다. 이와 같이, 거리뷰 영상은 특정 지역 내의 공간을 비교적 가까운 거리에서 촬영한 이미지에 기초하여 생성된 것으로서, 고품질의 텍스처 정보를 포함할 수 있다.
한편, 복수의 노드 데이터에 포함된 복수의 거리뷰 영상에 대한 절대좌표 위치 정보는 비교적 정확도가 낮은 위치 정보일 수 있다. 예를 들어, 복수의 노드 데이터에 포함된 복수의 거리뷰 영상에 대한 위치 정보는 각 거리뷰 영상이 촬영된 노드에서, 차량(112)에 구비된 GPS 장비에 의해 획득된 위치 정보일 수 있다. 차량(112)에 구비된 GPS 장비를 이용하여 획득된 위치 정보는 5~10 미터 정도의 오차가 있을 수 있다.
일 실시예에서, 파노라마 3차원 메쉬 모델 생성부(116)는 노드 데이터베이스(114)에 저장된 노드 관련 데이터에 기초하여 각 노드에 대한 파노라마 3차원 메쉬 모델을 생성할 수 있다. 생성된 각 노드별 파노라마 3차원 메쉬 모델은 파노라마 3차원 메쉬 모델 데이터베이스(118)에 저장될 수 있다. 도시되지 않았으나, 노드별 파노라마 3차원 메쉬 모델을 생성하기 위해, 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델이 사용될 수 있다. 노드 관련 데이터에 기초하여 노드별 파노라마 3차원 메쉬 모델을 생성하는 자세한 과정은 도 5를 참조하여 후술된다.
일 실시예에서, 3차원 거리뷰 뷰어(120)는 파노라마 3차원 메쉬 모델 데이터베이스(118)에 저장된 파노라마 3차원 메쉬 모델을 이용하여 단일 노드에서의 거리뷰를 렌더링할 수 있다. 이 경우, 노드 내 렌더링부(122)는 타겟 노드에서 타겟 시점을 바라보는 3차원 거리뷰를 렌더링할 수 있다. 이를 위해, 노드 내 렌더링부(122)는 노드 데이터베이스(114)에 저장된 타겟 노드에 대한 노드 데이터(거리뷰 영상 등)를 획득할 수 있다. 구체적으로, 3차원 거리뷰 뷰어(120)는 타겟 노드의 거리뷰 영상, 타겟 시점, 그리고 타겟 노드의 파노라마 3차원 메쉬 모델을 이용하여 단일 노드에서의 거리뷰를 렌더링할 수 있다. 기존의 거리뷰 렌더링 서비스의 경우, 단순한 2차원 영상 정보만 제공할 수 있는 반면, 본 개시의 실시예에 따르면, 파노라마 3차원 메쉬 모델을 이용하여 3차원 효과를 느낄 수 있는 실감나는 렌더링 서비스가 가능하며, 자동 POI(Point Of Interest) 증강 등과 같이 보다 개선된 서비스를 제공할 수 있다.
일 실시예에서, 3차원 거리뷰 뷰어(120)는 출발 노드에서 도착 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 구체적으로, 파노라마 3차원 메쉬 모델 획득부(124)는 출발 노드와 도착 노드 각각과 연관된 거리뷰 영상을 노드 데이터베이스(114)에서 획득하고, 출발 노드와 도착 노드 각각과 연관된 파노라마 3차원 메쉬 모델을 파노라마 3차원 메쉬 모델 데이터베이스(118)로부터 획득할 수 있다. 그 후, 노드 간 전환 렌더링부(126)는 출발 노드와 도착 노드의 거리뷰 영상과 파노라마 3차원 메쉬 모델에 기초하여 출발 노드에서 도착 노드로 전환하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 출발 노드에서 도착 노드로 전환하는 3차원 거리뷰 애니메이션을 렌더링하는 자세한 과정은 도 6을 참조하여 후술된다.
도 2는 본 개시의 일 실시예에 따른 3차원 거리뷰 서비스를 제공하기 위해, 정보 처리 시스템(230)이 복수의 사용자 단말(210_1, 210_2, 210_3)과 통신 가능하도록 연결된 구성을 나타내는 개요도이다. 도시된 바와 같이, 복수의 사용자 단말(210_1, 210_2, 210_3)은 네트워크(220)를 통해 3차원 거리뷰 서비스를 제공할 수 있는 정보 처리 시스템(230)과 연결될 수 있다. 여기서, 복수의 사용자 단말(210_1, 210_2, 210_3)은 3차원 거리뷰 서비스를 제공받는 사용자의 단말을 포함할 수 있다.
일 실시예에서, 정보 처리 시스템(230)은 3차원 거리뷰 서비스 제공 등과 연관된 컴퓨터 실행 가능한 프로그램(예를 들어, 다운로드 가능한 애플리케이션) 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다.
정보 처리 시스템(230)에 의해 제공되는 3차원 거리뷰 서비스는, 복수의 사용자 단말(210_1, 210_2, 210_3)의 각각에 설치된 3차원 거리뷰 서비스 애플리케이션 웹 브라우저 또는 웹 브라우저 확장 프로그램 등을 통해 사용자에게 제공될 수 있다. 예를 들어, 정보 처리 시스템(230)은 3차원 거리뷰 서비스 애플리케이션 등을 통해 사용자 단말(210_1, 210_2, 210_3)로부터 수신되는 3차원 거리뷰 생성 요청에 대응하는 정보를 제공하거나 대응하는 처리를 수행할 수 있다.
복수의 사용자 단말(210_1, 210_2, 210_3)은 네트워크(220)를 통해 정보 처리 시스템(230)과 통신할 수 있다. 네트워크(220)는 복수의 사용자 단말(210_1, 210_2, 210_3)과 정보 처리 시스템(230) 사이의 통신이 가능하도록 구성될 수 있다. 네트워크(220)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다. 통신 방식은 제한되지 않으며, 네트워크(220)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 사용자 단말(210_1, 210_2, 210_3) 사이의 근거리 무선 통신 역시 포함될 수 있다.
도 2에서 휴대폰 단말(210_1), 태블릿 단말(210_2) 및 PC 단말 (210_3)이 사용자 단말의 예로서 도시되었으나, 이에 한정되지 않으며, 사용자 단말(210_1, 210_2, 210_3)은 유선 및/또는 무선 통신이 가능하고 3차원 거리뷰 서비스 애플리케이션 또는 웹 브라우저 등이 설치되어 실행될 수 있는 임의의 컴퓨팅 장치일 수 있다. 예를 들어, 사용자 단말은, 스마트폰, 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스, 셋톱 박스 등을 포함할 수 있다. 또한, 도 2에는 3개의 사용자 단말(210_1, 210_2, 210_3)이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하는 것으로 도시되어 있으나, 이에 한정되지 않으며, 상이한 수의 사용자 단말이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하도록 구성될 수도 있다.
도 3은 본 개시의 일 실시예에 따른 사용자 단말(210) 및 정보 처리 시스템(230)의 내부 구성을 나타내는 블록도이다. 사용자 단말(210)은 애플리케이션, 웹 브라우저 등이 실행 가능하고 유/무선 통신이 가능한 임의의 컴퓨팅 장치를 지칭할 수 있으며, 예를 들어, 도 2의 휴대폰 단말(210_1), 태블릿 단말(210_2), PC 단말(210_3) 등을 포함할 수 있다. 도시된 바와 같이, 사용자 단말(210)은 메모리(312), 프로세서(314), 통신 모듈(316) 및 입출력 인터페이스(318)를 포함할 수 있다. 이와 유사하게, 정보 처리 시스템(230)은 메모리(332), 프로세서(334), 통신 모듈(336) 및 입출력 인터페이스(338)를 포함할 수 있다. 도 3에 도시된 바와 같이, 사용자 단말(210) 및 정보 처리 시스템(230)은 각각의 통신 모듈(316, 336)을 이용하여 네트워크(220)를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다. 또한, 입출력 장치(320)는 입출력 인터페이스(318)를 통해 사용자 단말(210)에 정보 및/또는 데이터를 입력하거나 사용자 단말(210)로부터 생성된 정보 및/또는 데이터를 출력하도록 구성될 수 있다.
메모리(312, 332)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(312, 332)는 ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 사용자 단말(210) 또는 정보 처리 시스템(230)에 포함될 수 있다. 또한, 메모리(312, 332)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 메모리(312, 332)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독가능한 기록매체는 이러한 사용자 단말(210) 및 정보 처리 시스템(230)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(316, 336)을 통해 메모리(312, 332)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 애플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(220)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(312, 332)에 로딩될 수 있다.
프로세서(314, 334)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(312, 332) 또는 통신 모듈(316, 336)에 의해 프로세서(314, 334)로 제공될 수 있다. 예를 들어, 프로세서(314, 334)는 메모리(312, 332)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(316, 336)은 네트워크(220)를 통해 사용자 단말(210)과 정보 처리 시스템(230)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 사용자 단말(210) 및/또는 정보 처리 시스템(230)이 다른 사용자 단말 또는 다른 시스템(일례로 별도의 클라우드 시스템 등)과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일례로, 사용자 단말(210)의 프로세서(314)가 메모리(312) 등과 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청 또는 데이터(예를 들어, 3차원 거리뷰 생성 요청 등)는 통신 모듈(316)의 제어에 따라 네트워크(220)를 통해 정보 처리 시스템(230)으로 전달될 수 있다. 역으로, 정보 처리 시스템(230)의 프로세서(334)의 제어에 따라 제공되는 제어 신호나 명령이 통신 모듈(336)과 네트워크(220)를 거쳐 사용자 단말(210)의 통신 모듈(316)을 통해 사용자 단말(210)에 수신될 수 있다.
입출력 인터페이스(318)는 입출력 장치(320)와의 인터페이스를 위한 수단일 수 있다. 일 예로서, 입력 장치는 오디오 센서 및/또는 이미지 센서를 포함한 카메라, 키보드, 마이크로폰, 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(318)는 터치스크린 등과 같이 입력과 출력을 수행하기 위한 구성 또는 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 사용자 단말(210)의 프로세서(314)가 메모리(312)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 정보 처리 시스템(230)이나 다른 사용자 단말이 제공하는 정보 및/또는 데이터를 이용하여 구성되는 서비스 화면 등이 입출력 인터페이스(318)를 통해 디스플레이에 표시될 수 있다. 도 3에서는 입출력 장치(320)가 사용자 단말(210)에 포함되지 않도록 도시되어 있으나, 이에 한정되지 않으며, 사용자 단말(210)과 하나의 장치로 구성될 수 있다. 또한, 정보 처리 시스템(230)의 입출력 인터페이스(338)는 정보 처리 시스템(230)과 연결되거나 정보 처리 시스템(230)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 도 3에서는 입출력 인터페이스(318, 338)가 프로세서(314, 334)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(318, 338)가 프로세서(314, 334)에 포함되도록 구성될 수 있다.
사용자 단말(210) 및 정보 처리 시스템(230)은 도 3의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 일 실시예에서, 사용자 단말(210)은 상술된 입출력 장치(320) 중 적어도 일부를 포함하도록 구현될 수 있다. 또한, 사용자 단말(210)은 트랜시버(transceiver), GPS(Global Positioning system) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수 있다. 예를 들어, 사용자 단말(210)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 구성요소를 포함할 수 있으며, 예를 들어, 가속도 센서, 자이로 센서, 마이크 모듈, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 사용자 단말(210)에 더 포함되도록 구현될 수 있다.
3차원 거리뷰 서비스 애플리케이션 등을 위한 프로그램이 동작되는 동안에, 프로세서(314)는 입출력 인터페이스(318)와 연결된 터치 스크린, 키보드, 오디오 센서 및/또는 이미지 센서를 포함한 카메라, 마이크로폰 등의 입력 장치를 통해 입력되거나 선택된 텍스트, 이미지, 영상, 음성 및/또는 동작 등을 수신할 수 있으며, 수신된 텍스트, 이미지, 영상, 음성 및/또는 동작 등을 메모리(312)에 저장하거나 통신 모듈(316) 및 네트워크(220)를 통해 정보 처리 시스템(230)에 제공할 수 있다.
사용자 단말(210)의 프로세서(314)는 입출력 장치(320), 다른 사용자 단말, 정보 처리 시스템(230) 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 프로세서(314)에 의해 처리된 정보 및/또는 데이터는 통신 모듈(316) 및 네트워크(220)를 통해 정보 처리 시스템(230)에 제공될 수 있다. 사용자 단말(210)의 프로세서(314)는 입출력 인터페이스(318)를 통해 입출력 장치(320)로 정보 및/또는 데이터를 전송하여, 출력할 수 있다. 예를 들면, 프로세서(314)는 수신한 정보 및/또는 데이터를 사용자 단말(210)의 화면에 디스플레이할 수 있다.
정보 처리 시스템(230)의 프로세서(334)는 복수의 사용자 단말(210) 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 프로세서(334)에 의해 처리된 정보 및/또는 데이터는 통신 모듈(336) 및 네트워크(220)를 통해 사용자 단말(210)에 제공할 수 있다.
도 4는 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 시스템의 구성을 나타내는 블록도이다. 3차원 거리뷰 모델 생성 시스템(예를 들어, 정보 처리 시스템)은 3차원 거리뷰 모델 생성기(410)와 3차원 거리뷰 뷰어(420)를 포함할 수 있다. 3차원 거리뷰 모델 생성기(410)와 3차원 거리뷰 뷰어(420)는 하나의 시스템으로 구현될 수 있으며, 각각 별도의 시스템으로 구현될 수도 있다.
도시된 바와 같이, 3차원 거리뷰 모델 생성기(410)는 데이터 수집부(412) 및 파노라마 3차원 메쉬 모델 생성부(414)를 포함할 수 있다. 또한, 3차원 거리뷰 뷰어(420)는 노드 내 렌더링부(422) 및 노드 간 전환 렌더링부(424)를 포함할 수 있다.
일 실시예에서, 데이터 수집부(412)는 3차원 거리뷰 생성을 위해 필요한 노드 관련 데이터를 수집하여 저장할 수 있다. 노드 관련 데이터는 각 노드 별로 촬영된 파노라마 거리뷰 영상 및 복수의 거리뷰 영상에 대한 절대좌표 위치 정보 및 방향 정보 등을 포함할 수 있다. 예를 들어, 데이터 수집부(412)는 복수의 차량으로부터 노드 관련 데이터를 수신할 수 있다.
또한, 데이터 수집부(412)는 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수집하여 저장할 수 있다. 여기서, 특정 지역에 대한 3차원 모델에 포함된 위치 정보는 거리뷰 영상과 연관된 절대좌표 위치 정보보다 높은 정확도의 위치 정보일 수 있다. 일 실시예에 따르면, 특정 지역에 대한 3차원 모델은 특정 지역의 상공에서 특정 지역을 촬영한 항공 사진에 기초하여 생성된 것일 수 있다. 특정 지역에 대한 3차원 모델은 특정 지역 내의 복수의 3차원 빌딩 모델과 도로 모델을 포함할 수 있다. 예를 들어, 3차원 모델은 3차원 빌딩 모델, 수치 표고 모델(Digital Elevation Model; DEM), 특정 지역에 대한 정사 영상(true ortho image), 도로 레이아웃, 도로 DEM 등을 포함할 수 있다.
일 실시예에서, 파노라마 3차원 메쉬 모델 생성부(414)는 데이터 수집부(412)가 수집한 노드 관련 데이터 및 특정 지역에 대한 3차원 모델에 기초하여 노드별로 파노라마 3차원 메쉬 모델을 생성할 수 있다. 구체적으로, 각 파노라마 거리뷰 영상에 대해, 파노라마 3차원 메쉬 모델 생성부(414)는 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 기하정보를 파노라마 거리뷰 영상에 투영하여 파노라마 뎁스 맵을 생성할 수 있다. 즉, 파노라마 3차원 메쉬 모델 생성부(414)는 3차원 모델에 포함된 기하정보를 각 파노라마 영상에서 본 것처럼 투영하여 파노라마 뎁스 맵을 생성할 수 있다. 또한, 파노라마 3차원 메쉬 모델 생성부(414)는 파노라마 뎁스 맵에 기초하여 파노라마 3차원 메쉬 모델을 생성할 수 있다.
일 실시예에서, 파노라마 3차원 메쉬 모델 생성부(414)는 3차원 모델에 포함된 3차원 기하정보를 이용하여 파노라마 뎁스 맵을 개선할 수 있다. 3차원 모델은 빌딩과 도로에 대한 3차원 정보만 포함하고 있으므로, 파노라마 3차원 메쉬 모델 생성부(414)는 파노라마 거리뷰 영상의 시멘틱 세그맨테이션 정보를 이용하여 파노라마 뎁스 맵을 개선할 수 있다. 파노라마 뎁스 맵을 개선하는 구체적인 방법에 대해서는 도 5에서 후술한다.
일 실시예에서, 각 파노라마 거리뷰 영상에 대해, 파노라마 3차원 메쉬 모델 생성부(414)는 개선된 파노라마 뎁스 맵에 기초하여 파노라마 3차원 메쉬 모델을 생성할 수 있다. 구체적으로, 파노라마 3차원 메쉬 모델 생성부(414)는 개선된 파노라마 뎁스 맵에 포함된 3차원 포인트 클라우드에 기초하여 제1 세트의 메쉬를 생성할 수 있다. 또한, 파노라마 3차원 메쉬 모델 생성부(414)는 제1 세트의 메쉬 중 동일 평면 상에 속한 메쉬들을 병합하여 제2 세트의 메쉬를 생성할 수 있다.
일 실시예에서, 노드 내 렌더링부(422)는 특정 노드에서 타겟 시점을 바라보는 3차원 거리뷰를 렌더링할 수 있다. 구체적으로, 노드 내 렌더링부(422)는 특정 노드와 연관된 파노라마 거리뷰 영상 및 파노라마 3차원 메쉬 모델을 획득할 수 있다. 그 후, 노드 내 렌더링부(422)는 특정 노드와 연관된 파노라마 3차원 메쉬 모델 및 거리뷰 영상에 기초하여 특정 노드에서의 3차원 거리뷰를 렌더링할 수 있다. 렌더링된 3차원 거리뷰 관련 데이터는 해당 데이터를 요청한 사용자 단말로 전송될 수 있다.
일 실시예에서, 노드 간 전환 렌더링부(424)는 제1 노드에서 제2 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 구체적으로, 노드 간 전환 렌더링부(424)는 제1 노드 및 제2 노드 각각과 연관된 파노라마 거리뷰 영상 및 파노라마 3차원 메쉬 모델을 획득할 수 있다. 그 후, 노드 간 전환 렌더링부(424)는 파노라마 거리뷰 영상과 파노라마 3차원 메쉬 모델에 기초하여 제1 노드에서 제2 노드로 전환하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 추가적으로, 제1 노드와 제2 노드 사이에 다른 노드들이 추가적으로 존재하는 경우, 노드 간 전환 렌더링부(424)는 인접 노드 간 이동 알고리즘을 확장하여 제1 노드에서 제2 노드로 전환하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 렌더링된 제1 노드에서 제2 노드로 전환하는 3차원 거리뷰 애니메이션 관련 데이터는 해당 데이터를 요청한 사용자 단말로 전송될 수 있다.
도 4에서 도시한 3차원 거리뷰 모델 생성 시스템의 구성은 예시일 뿐이며, 일부 실시예에서는 도시한 구성 외 다른 구성을 추가로 포함하거나, 일부 구성이 생략될 수도 있으며, 일부 과정이 다른 구성 또는 외부 시스템에 의해 수행될 수 있다. 예를 들어, 3차원 거리뷰 뷰어(420)에서의 3차원 거리뷰 렌더링은 사용자 단말에 의해 수행될 수도 있다. 또한, 도 4에서 시스템의 구성들을 기능별로 구분하여 설명하였으나, 이것은 구성들이 반드시 물리적으로 구분되는 것을 의미하지 않는다.
도 5는 본 개시의 일 실시예에 따라 파노라마 3차원 메쉬 모델이 생성되는 예시를 나타내는 도면이다. 일 실시예에서, 프로세서(예를 들어, 정보 처리 시스템의 적어도 하나의 프로세서)는 특정 노드에서의 파노라마 거리뷰 영상(510)을 복수의 비왜곡 평면 이미지로 변환할 수 있다(520). 여기서, 파노라마 거리뷰 영상은 등장방형도법(equirectangular projection)으로 생성된 360도 파노라마 영상일 수 있다. 구체적으로, 복수의 비왜곡 평면 이미지는 원근 투영(perspective projection) 방법을 이용하여 파노라마 거리뷰 영상(510)을 6개의 큐브 이미지로 변환하여 생성될 수 있다.
일 실시예에서, 프로세서는 복수의 비왜곡 평면 이미지에 대해 시멘틱 세그맨테이션을 수행할 수 있다(530). 시멘틱 세그맨테이션을 수행함으로써, 프로세서는 복수의 비왜곡 평면 이미지 내의 복수의 객체를 검출할 수 있다. 여기서, 검출되는 복수의 객체는 빌딩, 도로, 차량, 표지판, 식물 등을 포함할 수 있다. 또한, 검출되는 각각의 객체는 인스턴스(instance) 별로 분류되어 저장될 수 있다.
일 실시예에서, 프로세서는 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 3차원 모델(540) 및 파노라마 거리뷰 영상(510)의 6 DoF(Degree of Freedom) 자세(542)에 기초하여 특정 노드와 연관된 파노라마 뎁스 맵을 생성할 수 있다(550). 여기서, 6 DoF 자세(542)는 절대좌표 위치 정보 및 방향 정보를 포함할 수 있다. 구체적으로, 프로세서는 파노라마 거리뷰 영상(510)의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 파노라마 거리뷰 영상(510)에 투영함으로써 파노라마 뎁스 맵을 생성할 수 있다.
일 실시예에서, 3차원 모델(540)은 특정 지역 내의 복수의 3차원 빌딩 모델과 도로 모델을 포함할 수 있다. 이러한 3차원 모델(540)은 특정 지역의 상공에서 특정 지역을 촬영한 항공 사진에 기초하여 생성될 수 있으나, 이에 한정되지 않는다. 이에 따라, 3차원 모델에 포함된 3차원 기하정보를 파노라마 거리뷰 영상(510)에 투영함으로써 생성되는 파노라마 뎁스 맵은 빌딩과 도로의 깊이 정보를 포함할 수 있다.
일 실시예에서, 프로세서는 파노라마 뎁스 맵을 복수의 비왜곡 뎁스 맵으로 변환할 수 있다(560). 구체적으로, 프로세서는 파노라마 뎁스 맵을 90도의 화각을 가지는 6개의 큐브 뎁스 맵으로 변환함으로써, 복수의 비왜곡 뎁스 맵을 생성할 수 있다. 여기서, 6개의 큐브 뎁스 맵은 원근 투영 방법을 이용하여 생성될 수 있다.
일 실시예에서, 프로세서는 복수의 비왜곡 뎁스 맵 및 시멘틱 세그맨테이션 수행 결과에 기초하여 복수의 개선된 비왜곡 뎁스 맵을 생성할 수 있다(570). 구체적으로, 프로세서는 복수의 비왜곡 뎁스 맵에 포함된 빌딩과 도로의 깊이 정보를 이용하여, 시멘틱 세그맨테이션을 수행하여 복수의 비왜곡 평면 이미지 내에서 검출된 복수의 객체에 깊이 정보를 부여함으로써 복수의 개선된 비왜곡 뎁스 맵을 생성할 수 있다. 예를 들어, 복수의 비왜곡 평면 이미지 내에서 검출된 나무가 도로와 접한 경우, 나무의 아래쪽과 접한 도로의 깊이 정보에 기초하여 나무에 깊이 정보(예를 들어, 접한 도로의 깊이 정보)가 부여될 수 있다. 다른 예로, 복수의 비왜곡 평면 이미지 내에서 검출된 객체가 도로와 접하지 않은 경우, 좌우에 인접한 빌딩의 깊이 정보에 기초하여 객체에 깊이 정보가 부여될 수 있다.
일 실시예에서, 프로세서는 복수의 개선된 비왜곡 뎁스 맵에 기초하여 개선된 파노라마 뎁스 맵을 생성할 수 있다(580). 구체적으로, 프로세서는 복수의 개선된 비왜곡 뎁스 맵을 스티칭(stitching)하여 하나의 파노라마 뎁스 맵을 합성함으로써 개선된 파노라마 뎁스 맵을 생성할 수 있다. 이에 따라, 개선된 비왜곡 뎁스 맵은 빌딩과 도로의 깊이 정보뿐만 아니라 차량, 표지판, 식물 등의 깊이 정보도 포함할 수 있다.
일 실시예에서, 프로세서는 개선된 파노라마 뎁스 맵에 기초하여 파노라마 3차원 메쉬 모델을 생성할 수 있다(590). 구체적으로, 프로세서는 개선된 파노라마 뎁스 맵에 포함된 3차원 포인트 클라우드에 기초하여 제1 세트의 메쉬를 생성할 수 있다. 예를 들어, 제1 세트의 메쉬는 2차원 뎁스맵 좌표계 상에서 인접한 픽셀들을 삼각형 모양으로 연결하여 생성될 수 있다. 그 후, 프로세서는 제1 세트의 메쉬 중 동일/유사한 평면 상에 속한 메쉬들을 하나로 병합하여 제2 세트의 메쉬를 생성할 수 있다. 이 경우, 프로세서는 제2 세트의 메쉬에서의 메쉬 경계와 파노라마 거리뷰 영상 내에서의 컬러 에지(color edge)가 정렬되도록 제1 세트의 메쉬 중 적어도 일부를 병합할 수 있다. 즉, 파노라마 거리뷰 영상 내의 픽셀의 RGB 값에 따라 메쉬 경계가 정렬될 수 있다.
일 실시예에서, 프로세서는 개선된 파노라마 뎁스 맵 및 파노라마 거리뷰 영상(510)에 기초하여 파노라마 3차원 메쉬 모델을 생성할 수 있다. 이 경우, 파노라마 3차원 메쉬 모델은 복수의 메쉬와 텍스처 정보를 포함할 수 있다. 이 경우, 프로세서는 파노라마 3차원 메쉬 모델을 이용하여 3차원 거리뷰를 바로 렌더링할 수 있다.
이와 같은 구성을 통해, 파노라마 거리뷰 영상 및 3차원 기하정보를 포함하는 3차원 모델에 기초하여, 파노라마 3차원 메쉬 모델을 생성할 수 있다. 또한, 시맨틱 세그멘테이션을 수행하여 도로 주변 객체들을 추출하고, 추출된 객체들에 3차원 정보를 부여함으로써 보다 개선된 파노라마 3차원 메쉬 모델을 생성할 수 있다. 이에 따라, 거리뷰 영상을 촘촘히 수집할 필요없이 기존의 거리뷰 영상을 활용하여 파노라마 3차원 메쉬 모델을 생성할 수 있다.
도 6은 본 개시의 일 실시예에 따른 노드 간 전환하는 3차원 거리뷰 애니메이션을 렌더링하는 예시를 나타내는 도면이다. 도시된 바와 같이, 프로세서는 노드 간 전환 렌더링을 위한 출발/도착 자세를 결정할 수 있다(610).
일 실시예에서, 출발 자세는 출발 노드(노드 N)의 절대좌표 위치 정보와 사용자가 출발 노드 내에서 바라보는 방향 정보(예를 들어, 회전을 나타내는 4차원 벡터값(3차원의 회전축 값과 1차원의 회전각 값)인 쿼터니언(quaternion))에 기초하여 결정될 수 있다. 또한, 도착 자세는 도착 노드(노드 N+1)의 절대좌표 위치 정보와 사용자가 출발 노드(노드 N) 내에서 바라보는 방향 정보에 기초하여 결정될 수 있다. 대안적으로, 도착 자세에서의 방향 정보는 도착 노드(노드 N+1)의 중심에서 그 다음 노드(노드 N+2)의 중심을 바라보는 방향으로 결정될 수 있다. 추가적으로, 출발 자세와 도착 자세가 결정되면, 프로세서는 출발 자세와 도착 자세 사이에서 선형 보간법(Linear interpolation) 또는 구면 선형 보간법(spherical interpolation)을 이용하여 사전 정의된 스텝 사이즈만큼의 간격을 가지는 복수의 중간 자세를 결정할 수 있다.
출발 자세와 도착 자세가 결정된 후, 프로세서는 출발 노드와 도착 노드 각각과 연관된 파노라마 3차원 메쉬 모델을 획득할 수 있다(620). 그 후, 프로세서는 출발 노드의 3차원 메쉬 모델 및 도착 노드의 파노라마 3차원 메쉬 모델에 기초하여 출발 노드에서 도착 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다(630). 대안적으로, 프로세서는 출발 노드의 파노라마 거리뷰 영상, 출발 노드의 3차원 메쉬 모델, 도착 노드의 파노라마 거리뷰 영상 및 도착 노드의 파노라마 3차원 메쉬 모델에 기초하여 출발 노드에서 도착 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 이 때, 노드간 이동하는 3차원 거리뷰 애니메이션은 출발 자세, 복수의 중간 자세 및 도착 자세에 기초하여 생성될 수 있다.
일 실시예에서, 출발 노드와 도착 노드 사이에 적어도 하나 이상의 노드가 존재하는 경우, 프로세서는 인접한 노드 간 이동하는 알고리즘을 확장함으로써, 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 이 경우, 빠른 노드 간 전환 렌더링을 위해 현재 노드, 진행 방향의 뒤쪽에 위치한 노드 각각과 연관된 파노라마 3차원 메쉬 모델 및/또는 거리뷰 영상이 미리 로딩될 수 있다.
이와 같은 구성을 통해, 자연스러운 노드간 이동이 가능한 사실적인 3차원 거리뷰 서비스를 제공할 수 있다. 이를 통해, 사용자는 실제 거리를 이동하는 것과 같은 느낌을 경험할 수 있다.
도 7은 본 개시의 일 실시예에 따라 렌더링된 3차원 거리뷰의 예시를 나타내는 도면이다. 제1 화면(710)은 제1 노드에서의 3차원 거리뷰를 나타내는 예시이다. 사용자는 클릭/드래그 등의 입력을 통해 시점을 360도까지 변경함으로써, 현재 사용자 위치 주변의 파노라마 3차원 거리뷰를 확인할 수 있다.
일 실시예에서, 사용자는 제1 노드와 다른 제2 노드를 선택함으로써, 제1 노드의 3차원 거리뷰에서 제2 노드의 3차원 거리뷰로 전환할 수 있다. 이 때, 제1 노드에서 제2 노드로 이동하는 3차원 거리뷰 애니메이션이 디스플레이 상에 표시될 수 있다. 이 경우, 파노라마 3차원 메쉬 모델에 도로 주변 객체의 깊이 정보까지 부여되어 있으므로, 사용자는 실제 거리를 이동하는 것처럼 자연스러운 3차원 거리뷰 애니메이션을 제공받을 수 있다. 제2 화면(720)은 제2 노드에서의 3차원 거리뷰를 나타내는 예시이다.
도 8은 본 개시의 일 실시예에 따른 3차원 거리뷰 모델 생성 방법(800)의 예시를 나타내는 흐름도이다. 일 실시예에서, 방법(800)은 정보 처리 시스템의 적어도 하나의 프로세서에 의해 수행될 수 있다. 방법(800)은 프로세서가 절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신함으로써 개시될 수 있다(S810). 여기서, 3차원 모델은 특정 지역 내의 복수의 3차원 빌딩 모델과 도로 모델을 포함할 수 있다.
그 후, 프로세서는 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신할 수 있다(S820). 여기서, 제1 파노라마 거리뷰 영상은 등장방형도법으로 생성된 360도 파노라마 영상일 수 있다.
그 후, 프로세서는 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 제1 파노라마 거리뷰 영상에 투영하여 제1 노드와 연관된 제1 파노라마 뎁스 맵을 생성할 수 있다(S830). 여기서, 제1 파노라마 뎁스 맵은 빌딩과 도로의 깊이 정보를 포함할 수 있다.
일 실시예에서, 프로세서는 제1 파노라마 뎁스 맵에 기초하여 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성할 수 있다(S840). 이를 위해, 프로세서는 제1 파노라마 거리뷰 영상을 복수의 비왜곡 평면 이미지로 변환할 수 있다. 여기서, 복수의 비왜곡 평면 이미지는 원근 투영 방법을 이용하여 제1 파노라마 거리뷰 영상을 6개의 큐브 이미지로 변환하여 생성될 수 있다. 또한, 프로세서는 시멘틱 세그맨테이션을 수행하여 복수의 비왜곡 평면 이미지 내의 복수의 객체를 검출할 수 있다.
그 후, 프로세서는 제1 파노라마 뎁스 맵과 검출된 복수의 객체 정보에 기초하여, 개선된 제1 파노라마 뎁스 맵을 생성할 수 있다. 여기서, 제1 파노라마 뎁스 맵은 빌딩과 도로의 깊이 정보를 포함하고, 개선된 제1 파노라마 뎁스 맵은 차량, 표지판 또는 식물 중 적어도 하나에 대한 깊이 정보를 더 포함할 수 있다. 이 경우, 제1 파노라마 3차원 메쉬 모델은 개선된 제1 파노라마 뎁스 맵을 이용하여 생성될 수 있다. 구체적으로, 프로세서는 제1 파노라마 뎁스 맵을 복수의 비왜곡 뎁스 맵으로 변환할 수 있다. 여기서, 복수의 비왜곡 뎁스 맵은 제1 파노라마 뎁스 맵을 6개의 큐브 뎁스 맵으로 변환하여 생성될 수 있다. 또한, 프로세서는 복수의 비왜곡 뎁스 맵에 포함된 빌딩과 도로의 깊이 정보를 이용하여 복수의 비왜곡 평면 이미지 내의 복수의 객체 정보에 깊이 정보를 부여하여 복수의 개선된 비왜곡 뎁스 맵을 생성할 수 있다. 예를 들어, 복수의 비왜곡 평면 이미지 내의 제1 객체가 도로와 접한 것으로 판정하는 것에 응답하여, 프로세서는 제1 객체와 접한 도로의 깊이 정보에 기초하여 제1 객체의 깊이 정보를 결정할 수 있다. 다른 예로, 복수의 비왜곡 평면 이미지 내의 제2 객체가 도로와 접하지 않은 것으로 판정하는 것에 응답하여, 프로세서는 제2 객체와 인접한 빌딩의 깊이 정보에 기초하여 제2 객체의 깊이 정보를 결정할 수 있다.
그 후, 프로세서는 복수의 개선된 비왜곡 뎁스 맵에 기초하여 개선된 제1 파노라마 뎁스 맵을 생성할 수 있다. 여기서, 개선된 제1 파노라마 뎁스 맵은 복수의 개선된 비왜곡 뎁스 맵을 스티칭하여 하나의 파노라마 뎁스 맵을 합성함으로써 생성될 수 있다.
일 실시예에서, 프로세서는 개선된 제1 파노라마 뎁스 맵에 기초하여 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성할 수 있다. 구체적으로, 프로세서는 개선된 제1 파노라마 뎁스 맵에 포함된 3차원 포인트 클라우드에 기초하여 제1 세트의 메쉬를 생성할 수 있다. 또한, 프로세서는 제1 세트의 메쉬 중 적어도 일부를 병합하여 제2 세트의 메쉬를 생성할 수 있다. 여기서, 제2 세트의 메쉬의 수는 제1 세트의 메쉬의 수보다 적을 수 있다. 이 경우, 제2 세트의 메쉬는 제1 세트의 메쉬 중 동일 평면 상에 속한 메쉬들을 하나로 병합하여 생성될 수 있다. 구체적으로, 프로세서는 제2 세트의 메쉬에서의 메쉬 경계와 제1 파노라마 거리뷰 영상 내에서의 컬러 에지가 정렬되도록 제1 세트의 메쉬 중 적어도 일부를 병합할 수 있다.
일 실시예에서, 제1 파노라마 3차원 메쉬 모델 및 제1 파노라마 거리뷰 영상에 기초하여, 프로세서는 제1 노드에서의 3차원 거리뷰를 렌더링할 수 있다(S850).
일 실시예에서, 프로세서는 제1 노드에서 제2 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 이 경우, 프로세서는 제2 노드와 연관된 제2 파노라마 거리뷰 영상 및 제2 파노라마 3차원 메쉬 모델을 획득할 수 있다. 그 후, 프로세서는 제1 파노라마 거리뷰 영상, 제1 파노라마 3차원 메쉬 모델, 제2 파노라마 거리뷰 영상 및 제2 파노라마 3차원 메쉬 모델에 기초하여 제1 노드에서 제2 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링할 수 있다. 이 때, 3차원 거리뷰 애니메이션은, 출발 자세, 복수의 중간 자세 및 도착 자세에 기초하여 생성될 수 있다. 이 경우, 출발 자세는 제1 노드의 절대좌표 위치 정보와 사용자가 제1 노드 내에서 바라보는 방향 정보에 기초하여 결정될 수 있다. 또한, 도착 자세는 제2 노드의 절대좌표 위치 정보와 사용자가 제1 노드 내에서 바라보는 방향 정보에 기초하여 결정될 수 있다. 그리고, 출발 자세와 도착 자세 사이의 복수의 중간 자세는 선형 보간법 또는 구면 선형 보간법을 이용하여 결정될 수 있다.
도 8의 흐름도 및 상술한 설명은 일 예시일 뿐이며, 본 개시의 범위가 이에 한정되는 것은 아니다. 예를 들어, 적어도 하나의 단계가 추가/변경/삭제되거나, 각 단계의 순서가 변경될 수 있다.
상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록 수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는 지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.
하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.
따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.
펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.
소프트웨어로 구현되는 경우, 상기 기법들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장되거나 또는 컴퓨터 판독 가능한 매체를 통해 전송될 수도 있다. 컴퓨터 판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용 가능한 매체들일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다.
예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송되면, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본원에서 사용된 디스크(disk) 와 디스크(disc)는, CD, 레이저 디스크, 광 디스크, DVD(digital versatile disc), 플로피디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크들(disks)은 보통 자기적으로 데이터를 재생하고, 반면 디스크들(discs) 은 레이저를 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
소프트웨어 모듈은, RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 저장 매체는, 프로세가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있도록, 프로세서에 연결될 수 있다. 대안으로, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 존재할 수도 있다. ASIC은 유저 단말 내에 존재할 수도 있다. 대안으로, 프로세서와 저장 매체는 유저 단말에서 개별 구성요소들로서 존재할 수도 있다.
이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
Claims (20)
- 적어도 하나의 프로세서에 의해 수행되는, 3차원 거리뷰 모델 생성 방법에 있어서,절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신하는 단계;상기 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신하는 단계;상기 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 상기 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 상기 제1 파노라마 거리뷰 영상에 투영하여 상기 제1 노드와 연관된 제1 파노라마 뎁스 맵(depth map)을 생성하는 단계; 및상기 제1 파노라마 뎁스 맵에 기초하여 상기 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성하는 단계를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제1항에 있어서,상기 제1 파노라마 거리뷰 영상은 등장방형도법(equirectangular projection)으로 생성된 360도 파노라마 영상인, 3차원 거리뷰 모델 생성 방법.
- 제1항에 있어서,상기 3차원 모델은 상기 특정 지역 내의 복수의 3차원 빌딩 모델과 도로 모델을 포함하고,상기 제1 파노라마 뎁스 맵은 빌딩과 도로의 깊이 정보를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제1항에 있어서,상기 제1 파노라마 거리뷰 영상을 복수의 비왜곡(undistorted) 평면 이미지로 변환하는 단계;시멘틱 세그맨테이션(semantic segmentation)을 수행하여 상기 복수의 비왜곡 평면 이미지 내의 복수의 객체를 검출하는 단계;상기 제1 파노라마 뎁스 맵과 상기 검출된 복수의 객체 정보에 기초하여, 개선된 제1 파노라마 뎁스 맵을 생성하는 단계를 더 포함하고,상기 제1 파노라마 3차원 메쉬 모델은 상기 개선된 제1 파노라마 뎁스 맵을 이용하여 생성되는, 3차원 거리뷰 모델 생성 방법.
- 제4항에 있어서,상기 복수의 비왜곡 평면 이미지는 원근 투영(perspective projection) 방법을 이용하여 상기 제1 파노라마 거리뷰 영상을 6개의 큐브 이미지로 변환하여 생성되는, 3차원 거리뷰 모델 생성 방법.
- 제4항에 있어서,상기 제1 파노라마 뎁스 맵은 빌딩과 도로의 깊이 정보를 포함하고,상기 개선된 제1 파노라마 뎁스 맵은 차량, 표지판 또는 식물 중 적어도 하나에 대한 깊이 정보를 더 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제4항에 있어서,상기 개선된 제1 파노라마 뎁스 맵을 생성하는 단계는,상기 제1 파노라마 뎁스 맵을 복수의 비왜곡 뎁스 맵으로 변환하는 단계;상기 복수의 비왜곡 뎁스 맵에 포함된 빌딩과 도로의 깊이 정보를 이용하여 상기 복수의 비왜곡 평면 이미지 내의 복수의 객체 정보에 깊이 정보를 부여하여 복수의 개선된 비왜곡 뎁스 맵을 생성하는 단계; 및상기 복수의 개선된 비왜곡 뎁스 맵에 기초하여 상기 개선된 제1 파노라마 뎁스 맵을 생성하는 단계를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제7항에 있어서,상기 복수의 비왜곡 뎁스 맵은 상기 제1 파노라마 뎁스 맵을 6개의 큐브 뎁스 맵으로 변환하여 생성되는, 3차원 거리뷰 모델 생성 방법.
- 제7항에 있어서,상기 복수의 개선된 비왜곡 뎁스 맵을 생성하는 단계는,상기 복수의 비왜곡 평면 이미지 내의 제1 객체가 도로와 접한 것으로 판정하는 것에 응답하여, 상기 제1 객체와 접한 도로의 깊이 정보에 기초하여 상기 제1 객체의 깊이 정보를 결정하는 단계를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제7항에 있어서,상기 복수의 개선된 비왜곡 뎁스 맵을 생성하는 단계는,상기 복수의 비왜곡 평면 이미지 내의 제2 객체가 도로와 접하지 않은 것으로 판정하는 것에 응답하여, 상기 제2 객체와 인접한 빌딩의 깊이 정보에 기초하여 상기 제2 객체의 깊이 정보를 결정하는 단계를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제7항에 있어서,상기 개선된 제1 파노라마 뎁스 맵은 상기 복수의 개선된 비왜곡 뎁스 맵을 스티칭(stitching)하여 하나의 파노라마 뎁스 맵을 합성함으로써 생성되는, 3차원 거리뷰 모델 생성 방법.
- 제4항에 있어서,상기 제1 파노라마 3차원 메쉬 모델을 생성하는 단계는,상기 개선된 제1 파노라마 뎁스 맵에 포함된 3차원 포인트 클라우드에 기초하여 제1 세트의 메쉬를 생성하는 단계; 및상기 제1 세트의 메쉬 중 적어도 일부를 병합하여 제2 세트의 메쉬를 생성하는 단계를 포함하고,상기 제2 세트의 메쉬의 수는 상기 제1 세트의 메쉬의 수보다 적은, 3차원 거리뷰 모델 생성 방법.
- 제12항에 있어서,상기 제2 세트의 메쉬는 상기 제1 세트의 메쉬 중 동일 평면 상에 속한 메쉬들을 하나로 병합하여 생성되는, 3차원 거리뷰 모델 생성 방법.
- 제12항에 있어서,상기 제2 세트의 메쉬에서의 메쉬 경계와 상기 제1 파노라마 거리뷰 영상 내에서의 컬러 에지(color edge)가 정렬되도록 상기 제1 세트의 메쉬 중 적어도 일부를 병합하는, 3차원 거리뷰 모델 생성 방법.
- 제1항에 있어서,상기 제1 파노라마 3차원 메쉬 모델 및 상기 제1 파노라마 거리뷰 영상에 기초하여, 상기 제1 노드에서의 3차원 거리뷰를 렌더링하는 단계를 더 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제1항에 있어서,상기 제1 노드에서 제2 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링하는 단계를 더 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제16항에 있어서,상기 3차원 거리뷰 애니메이션을 렌더링하는 단계는,상기 제2 노드와 연관된 제2 파노라마 거리뷰 영상 및 제2 파노라마 3차원 메쉬 모델을 획득하는 단계; 및상기 제1 파노라마 거리뷰 영상, 상기 제1 파노라마 3차원 메쉬 모델, 상기 제2 파노라마 거리뷰 영상 및 상기 제2 파노라마 3차원 메쉬 모델에 기초하여 상기 제1 노드에서 상기 제2 노드로 이동하는 3차원 거리뷰 애니메이션을 렌더링하는 단계를 포함하는, 3차원 거리뷰 모델 생성 방법.
- 제17항에 있어서,상기 3차원 거리뷰 애니메이션은, 출발 자세, 복수의 중간 자세 및 도착 자세에 기초하여 생성되고,상기 출발 자세는 상기 제1 노드의 절대좌표 위치 정보와 사용자가 상기 제1 노드 내에서 바라보는 방향 정보에 기초하여 결정되고,상기 도착 자세는 상기 제2 노드의 절대좌표 위치 정보와 상기 사용자가 상기 제1 노드 내에서 바라보는 방향 정보에 기초하여 결정되고,상기 출발 자세와 상기 도착 자세 사이의 복수의 중간 자세는 선형 보간법(Linear interpolation) 또는 구면 선형 보간법(spherical interpolation)을 이용하여 결정되는, 3차원 거리뷰 모델 생성 방법.
- 제1항에 따른 방법을 컴퓨터에서 실행하기 위한 명령어들을 기록한 컴퓨터 판독 가능한 비일시적 기록매체.
- 3차원 거리뷰 모델 생성 시스템으로서,통신 모듈;메모리; 및상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로그램은,절대좌표 위치로 표현된 3차원 기하정보를 포함하는 특정 지역에 대한 3차원 모델을 수신하고,상기 특정 지역 내의 제1 노드에서 촬영된 제1 파노라마 거리뷰 영상을 수신하고,상기 제1 파노라마 거리뷰 영상의 절대좌표 위치 정보 및 방향 정보에 기초하여, 상기 3차원 모델에 포함된 3차원 기하정보 중 적어도 일부를 상기 제1 파노라마 거리뷰 영상에 투영하여 상기 제1 노드와 연관된 제1 파노라마 뎁스 맵을 생성하고,상기 제1 파노라마 뎁스 맵에 기초하여 상기 제1 노드와 연관된 제1 파노라마 3차원 메쉬 모델을 생성하기 위한 명령어들을 포함하는, 3차원 거리뷰 모델 생성 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220148946A KR102700729B1 (ko) | 2022-11-09 | 2022-11-09 | 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템 |
KR10-2022-0148946 | 2022-11-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024101776A1 true WO2024101776A1 (ko) | 2024-05-16 |
Family
ID=91032874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/017368 WO2024101776A1 (ko) | 2022-11-09 | 2023-11-02 | 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102700729B1 (ko) |
WO (1) | WO2024101776A1 (ko) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140010844A (ko) * | 2012-07-13 | 2014-01-27 | 한국과학기술연구원 | 영상을 활용하여 깊이 정보를 획득하는 영상처리장치 및 영상처리방법 |
KR20150010752A (ko) * | 2012-07-04 | 2015-01-28 | 인텔 코오퍼레이션 | 파노라마 기반 3d 비디오 코딩 |
KR20190089681A (ko) * | 2018-01-22 | 2019-07-31 | 네이버 주식회사 | 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템 |
KR20190089689A (ko) * | 2018-01-22 | 2019-07-31 | 네이버 주식회사 | 거리뷰 제공 방법, 장치 및 컴퓨터 프로그램 |
KR20200078666A (ko) * | 2017-11-16 | 2020-07-01 | 삼성전자주식회사 | 3차원 영상을 처리하는 방법 및 장치 |
KR20220008466A (ko) * | 2020-07-14 | 2022-01-21 | 한국전자통신연구원 | 3차원 점군 데이터의 메쉬 생성 방법 및 장치 |
JP2022518773A (ja) * | 2019-01-22 | 2022-03-16 | 影石創新科技股▲ふん▼有限公司 | 3d小惑星ダイナミックマップの生成方法及びポータブル型端末 |
JP2022160382A (ja) * | 2021-04-06 | 2022-10-19 | ネイバー コーポレーション | 機械学習のための学習データ生成方法及びシステム |
-
2022
- 2022-11-09 KR KR1020220148946A patent/KR102700729B1/ko active IP Right Grant
-
2023
- 2023-11-02 WO PCT/KR2023/017368 patent/WO2024101776A1/ko unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150010752A (ko) * | 2012-07-04 | 2015-01-28 | 인텔 코오퍼레이션 | 파노라마 기반 3d 비디오 코딩 |
KR20140010844A (ko) * | 2012-07-13 | 2014-01-27 | 한국과학기술연구원 | 영상을 활용하여 깊이 정보를 획득하는 영상처리장치 및 영상처리방법 |
KR20200078666A (ko) * | 2017-11-16 | 2020-07-01 | 삼성전자주식회사 | 3차원 영상을 처리하는 방법 및 장치 |
KR20190089681A (ko) * | 2018-01-22 | 2019-07-31 | 네이버 주식회사 | 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템 |
KR20190089689A (ko) * | 2018-01-22 | 2019-07-31 | 네이버 주식회사 | 거리뷰 제공 방법, 장치 및 컴퓨터 프로그램 |
JP2022518773A (ja) * | 2019-01-22 | 2022-03-16 | 影石創新科技股▲ふん▼有限公司 | 3d小惑星ダイナミックマップの生成方法及びポータブル型端末 |
KR20220008466A (ko) * | 2020-07-14 | 2022-01-21 | 한국전자통신연구원 | 3차원 점군 데이터의 메쉬 생성 방법 및 장치 |
JP2022160382A (ja) * | 2021-04-06 | 2022-10-19 | ネイバー コーポレーション | 機械学習のための学習データ生成方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
KR20240067675A (ko) | 2024-05-17 |
KR102700729B1 (ko) | 2024-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014010909A1 (ko) | 이동 자유도를 개선한 융합형 가상현실 구현 방법 | |
WO2011031026A2 (ko) | 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법 | |
JP7164987B2 (ja) | 映像通話を利用した道案内方法およびシステム | |
WO2020130692A1 (ko) | 애니메이션 시퀀스를 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
CN114461064B (zh) | 虚拟现实交互方法、装置、设备和存储介质 | |
US20240273808A1 (en) | Texture mapping method and apparatus, device and storage medium | |
JP2024502407A (ja) | 拡張現実に基づく表示方法、装置、機器及び記憶媒体 | |
KR102136855B1 (ko) | 거리뷰 제공 방법, 장치 및 컴퓨터 프로그램 | |
WO2024101776A1 (ko) | 3차원 빌딩 모델 및 도로 모델을 이용한 3차원 거리뷰 모델 생성 방법 및 시스템 | |
CN112068703B (zh) | 目标物体的控制方法、装置、电子设备及存储介质 | |
Wu et al. | Outdoor navigation with handheld augmented reality | |
WO2024085600A1 (ko) | 3차원 모델과 거리뷰 데이터를 정합시키는 방법 및 시스템 | |
CN113096254B (zh) | 目标物渲染方法及装置、计算机设备和介质 | |
WO2024106833A1 (ko) | 빌딩 컨트롤 포인트 자동 취득 방법 및 시스템 | |
WO2024096717A1 (ko) | 3차원 모델을 이용한 거리뷰 영상 사이의 특징점 매칭쌍 자동 취득 방법 및 시스템 | |
WO2024085628A1 (ko) | 그라운드 컨트롤 포인트 자동 취득 방법 및 시스템 | |
WO2024085630A1 (ko) | 시각 특징 추출 신경망 모델 학습 방법 및 시스템 | |
WO2024101833A1 (ko) | 3차원 모델 및 거리뷰 영상을 이용한 시각 특징맵 생성 방법 및 시스템 | |
WO2024128539A1 (ko) | 자율주행 시뮬레이션을 위한 3차원 가상 환경 정보 표시 방법 및 시스템 | |
WO2024162566A1 (ko) | 자동 생성된 컨트롤 피처를 이용한 거리뷰 영상의 절대 포즈 추정 방법 및 시스템 | |
WO2024085455A1 (ko) | 객체 포즈 보정 방법 및 시스템 | |
WO2018128424A1 (ko) | 3차원 지리 정보 시스템 웹 서비스를 제공하는 방법 | |
KR102683777B1 (ko) | 3차원 공간 데이터를 생성하는 전자 장치 및 방법 | |
WO2023132393A1 (ko) | 스마트 시티에 대한 디지털 트윈 플랫폼 서비스 제공 방법 및 시스템 | |
WO2024071519A1 (ko) | 다이나믹 확장현실(xr) 콘텐츠 생성 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23889038 Country of ref document: EP Kind code of ref document: A1 |