WO2024128393A1 - Hologram production method using video capturing function of user terminal, and method for reading hologram security code produced by same - Google Patents

Hologram production method using video capturing function of user terminal, and method for reading hologram security code produced by same Download PDF

Info

Publication number
WO2024128393A1
WO2024128393A1 PCT/KR2022/021557 KR2022021557W WO2024128393A1 WO 2024128393 A1 WO2024128393 A1 WO 2024128393A1 KR 2022021557 W KR2022021557 W KR 2022021557W WO 2024128393 A1 WO2024128393 A1 WO 2024128393A1
Authority
WO
WIPO (PCT)
Prior art keywords
hologram
user terminal
security code
images
viewpoint images
Prior art date
Application number
PCT/KR2022/021557
Other languages
French (fr)
Korean (ko)
Inventor
홍성희
김영민
홍지수
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Publication of WO2024128393A1 publication Critical patent/WO2024128393A1/en

Links

Images

Definitions

  • the present invention relates to holographic content production technology, and more specifically, to technology for producing holographic content using a user terminal such as a smart phone.
  • Hologram technology is a technology that utilizes the interference effect of light. Holographic content can be obtained by recording the interference pattern of reference light and light reflected from an object on a special film.
  • the existing hologram production method is to model the images obtained by shooting real objects in a special environment where multiple cameras and lights are placed into a 3D computer graphics model based on 3D scanning technology, and then model the 3D computer graphics model. is captured with virtual cameras virtually implemented in computer graphics, rendered into tens of thousands to hundreds of thousands of viewpoints, and then the rendered tens to hundreds of thousands of viewpoint images are recorded on a special film using a hologram printer. It comes true.
  • the existing hologram production method requires expensive 3D capture equipment such as multiple cameras and lights to model real objects into 3D computer graphics models, and tens to hundreds of thousands of images can be captured from the 3D computer graphics model. Since tens to hundreds of thousands of rendering processes are required to acquire viewpoint images, production costs, production time, and technical difficulty are very high.
  • One purpose of the present invention to solve the above-mentioned problems is to provide a hologram production method that can simply produce hologram content using the video capture function of a user terminal such as a smart phone.
  • Another object of the present invention is to provide a method for reading hologram content produced by the hologram production method according to the above object.
  • a hologram production method for achieving the above-described object includes generating m viewpoint images by photographing a real object by a user terminal; generating n viewpoint images larger than m by rendering the m viewpoint images using an artificial intelligence model provided in a server; and manufacturing, by a hologram printer, a hologram recording medium on which hologram content corresponding to the n viewpoint images is recorded.
  • a method for reading a holographic security code extracts m viewpoint images from a video in which the camera of the first user terminal captures the original security code, and extracts the m viewpoint images based on an artificial intelligence model. generating n viewpoint images larger than m by rendering them, and producing holographic security codes corresponding to the n viewpoint images using a hologram printer; Obtaining a plurality of hologram images by scanning the hologram security code with a camera of a second user terminal; restoring the original security code by combining the plurality of hologram images, by the processor of the second user terminal; and reading the original security code by the processor of the second user terminal.
  • dozens of viewpoint images are acquired using the video recording function of a user terminal (e.g., a smart phone), and tens to hundreds of thousands of viewpoint images are easily obtained from the dozens of viewpoint images using artificial intelligence technology.
  • a user terminal e.g., a smart phone
  • tens to hundreds of thousands of viewpoint images are easily obtained from the dozens of viewpoint images using artificial intelligence technology.
  • hologram content for moving objects or large objects that are difficult to photograph can be easily created. It can be produced.
  • target objects where it is very difficult to obtain tens or hundreds of thousands of viewpoint images from a specific location, such as moving people, landscapes, or large-scale cultural assets, tens of thousands of viewpoint images can be acquired through the video recording function of the user terminal (e.g., a smartphone). You can easily create hologram content with just images of dogs.
  • FIG. 1 is a diagram for explaining a hologram production process according to an embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram of a hologram production system for implementing the hologram production process shown in FIG. 1.
  • Figure 3 is a flowchart for explaining a hologram production method according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a method for reading a hologram security code as hologram content produced by the hologram production method shown in FIG. 3.
  • FIG. 5 is a block diagram of a user terminal according to an embodiment of the present invention.
  • Figure 6 is a diagram for explaining an example of a QR code divided into multiple channels according to an embodiment of the present invention.
  • FIG. 7 is a diagram for explaining a method of scanning a hologram security code according to an embodiment of the present invention.
  • Figure 8 is a diagram showing a scan direction guidance text provided through a user terminal according to an embodiment of the present invention.
  • Figure 9 is a diagram for explaining the restoration process of the original security code according to an embodiment of the present invention.
  • Figure 10 is a flowchart illustrating a method for reading a hologram security code according to an embodiment of the present invention.
  • the present invention uses the video capture function of a user terminal such as a smart phone to capture tens to hundreds of thousands of viewpoint images of a target object.
  • a user terminal such as a smart phone to capture tens to hundreds of thousands of viewpoint images of a target object.
  • FIG. 1 is a diagram for explaining a hologram production process according to an embodiment of the present invention.
  • the user uses the video capture function of the user terminal (e.g., smart phone, etc.) 20 to move the user terminal 20 in a random direction 50 and capture the actual object 5 for several seconds ( (e.g., 3 to 5 seconds).
  • the arbitrary direction 50 may be determined depending on the viewpoint from which the user wants to view the actual object 5 in the form of a hologram.
  • the artificial neural network model 30 generates n (eg, 100,000) viewpoint images 32 using the extracted m viewpoint images 22 as input data.
  • n eg, 100,000
  • the artificial neural network model 30 is used to generate tens to hundreds of thousands of viewpoint images 32 necessary for hologram production, thereby generating tens to hundreds of thousands of viewpoint images necessary for hologram production.
  • the existing complicated 3D scanning process can be omitted.
  • the artificial neural network model 30 learns the color values, direction values, and feature values of the viewpoint images 22 taken at different viewpoints to render viewpoint images 32 having tens of thousands to hundreds of thousands of viewpoints. It may be an artificial neural network trained on .
  • the artificial neural network model 30 may be, for example, an artificial neural network implemented as a NeRF (Representing Scenes as Neural Radiance Fields for View Synthesis) model.
  • the NeRF model is a model that uses multiple images of real objects as input data to create an object image from a new viewpoint (view synthesis).
  • the NeRF model is explained in detail in a paper introduced at CVPR (Computer Vision and Pattern Recognition) 2020 under the title 'Representing Scenes as Neural Radiance Fields for View Synthesis', so detailed explanation will be omitted.
  • a hologram record in which hologram content corresponding to n (e.g., 100,000) viewpoint images 32 generated by the artificial neural network model 30 is recorded. Create media.
  • the hologram production process produces hologram content based on viewpoint images simply captured using the video capture function of a smartphone at a point in time when the user wants to implement a real object as a hologram.
  • the existing complex 3D scanning process for generating tens to hundreds of thousands of viewpoint images required for hologram production can be omitted.
  • FIG. 2 is a schematic configuration diagram of a hologram production system for implementing the hologram production process shown in FIG. 1.
  • the hologram production system includes a user terminal 20, a communication network 150, a server 200, and a hologram printer 40.
  • the user terminal 20 is a device that has a video recording function and a communication function, and communicates with the server 200 through the communication network 150.
  • the user terminal 20 is a computing device that has a video recording function and a communication function, and the computing device includes a processor, memory, a storage device, a camera, and a communication device that supports wired/wireless communication.
  • the processor may include at least one of at least one CPU, at least one GPU, at least one application processor, at least one system on chip (SoC), at least one microcontroller unit, etc.
  • the user terminal 20 may be, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, or a desktop personal computer.
  • computer laptop personal computer, netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), medical device, security device, camera with communication function, or wearable device.
  • wearable device e.g., may include at least one of a head-mounted-device (HMD) such as electronic glasses, a smartwatch, or a scanner.
  • HMD head-mounted-device
  • the camera of the user terminal 20 generates a video of a real object (5 in FIG. 1) captured while moving in a random direction (50 in FIG. 1) and stores it in a storage device.
  • the processor of the user terminal 20 extracts m viewpoint images 22 corresponding to viewpoints at which the user wants to view a real object (5 in FIG. 1) in the form of a hologram from the video stored in the storage device.
  • the processor of the user terminal 20 generates a viewpoint image file including the extracted m (e.g., 30 to 40) viewpoint images (22 in FIG. 1), and sends the viewpoint image file to the communication network 150. It is transmitted to the server 200 through .
  • a viewpoint image file including the extracted m (e.g., 30 to 40) viewpoint images (22 in FIG. 1)
  • the communication network 150 includes mobile communication (3G, 4G, 5G, 6G) and wired/wireless Internet.
  • the communication network 150 is used as a concept including a gateway, router, base station, etc.
  • the server 200 may be a computing device installed at a hologram printing service company.
  • the computing device implemented as the server 200 includes a processor, memory, storage device, and communication device supporting wired/wireless communication.
  • the processor may include at least one of at least one CPU, at least one GPU, at least one application processor, at least one system on chip (SoC), at least one microcontroller unit, etc.
  • the server 200 receives a viewpoint image file from the user terminal 20 through the communication network 150.
  • the server 200 includes a rendering module 210, and the rendering module 210 may be configured to include the artificial intelligence model 30 shown in FIG. 1.
  • the artificial intelligence model 30 renders the m (e.g., 30 to 40) viewpoint images (22 in FIG. 1) included in the viewpoint image file received from the user terminal 20 to n (e.g., 10) 10,000 viewpoint images (32 in FIG. 1) are generated.
  • m e.g., 30 to 40
  • n e.g., 10,000 viewpoint images (32 in FIG. 1) are generated.
  • the hologram printer 40 outputs a hologram recording medium 42 on which hologram content corresponding to the n viewpoint images is recorded.
  • the hologram recording medium 42 may be a specific film on which hologram content is recorded.
  • the hologram recording medium 42 output from the hologram printer 40 is delivered to the user of the user terminal 20.
  • the server 200 was described as a device installed at a hologram printing service company, but the server 200 is not limited to this and may be a cloud server.
  • the cloud server generates n viewpoint images and transmits them to the user terminal 20, and the user terminal 20 can transmit the n viewpoint images received from the cloud server to the server installed at the hologram printing service company.
  • the server installed at the hologram printing service provider does not include a rendering module.
  • the server 200 and the hologram printer 40 are shown as separate components, but the hologram printer 40 may be included in the server 200.
  • Figure 3 is a flowchart for explaining a hologram production method according to an embodiment of the present invention.
  • the rendering module 210 implemented as an artificial intelligence model in the server 200 renders the m viewpoint images to generate n viewpoint images larger than m.
  • FIG. 4 is a flowchart illustrating a method for reading a hologram security code as hologram content produced by the hologram production method shown in FIG. 3.
  • the camera of the first user terminal (20 in FIGS. 1 and 2) extracts m viewpoint images from the video obtained by photographing the original security code, and the m viewpoint images are obtained based on an artificial intelligence model.
  • a process is performed by rendering n viewpoint images to generate n viewpoint images larger than m, and producing hologram security codes corresponding to the n viewpoint images using a hologram printer.
  • the artificial intelligence model may be a Neural Radiance Fields (NeRF) model.
  • NeRF Neural Radiance Fields
  • Figure 5 is a block diagram of a user terminal according to an embodiment of the present invention
  • Figure 6 is a diagram for explaining an example of a QR code divided into multiple channels according to an embodiment of the present invention.
  • the user terminal 100 scans a security code in the form of a hologram (hereinafter referred to as a 'hologram security code') that is designed to be impossible to copy, and uses a 'computing device' to read the scanned hologram security code. It may be a ‘device’ or an ‘electronic device’.
  • the user terminal 100 may be described as a 'second user terminal', and the user terminal 20 shown in FIGS. 1 and 2 may be described as a 'first user terminal'.
  • Such user terminals 100 for example, smartphones, tablet personal computers, mobile phones, video phones, e-book readers, and desktop PCs.
  • personal computer laptop personal computer, netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), medical device, security device, camera, or wearable device.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • medical device security device
  • camera camera
  • wearable device wearable device.
  • HMD head-mounted-device
  • HMD head-mounted-device
  • the user terminal 100 may be a smart home appliance equipped with a communication function.
  • Smart home appliances include electronic devices such as televisions, DVD (digital video disk) players, stereos, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, and TVs. It may include at least one of boxes (e.g., Samsung HomeSync, Apple TV, or Google TV), game consoles, electronic dictionaries, electronic keys, camcorders, or electronic picture frames.
  • boxes e.g., Samsung HomeSync, Apple TV, or Google TV
  • the user terminal 100 may be equipped with various medical devices (e.g., magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), imaging equipment, ultrasound equipment, etc.), navigation devices, GPS receiver (global positioning system receiver), EDR (event data recorder), FDR (flight data recorder), automotive infotainment devices, marine electronic equipment (e.g. marine navigation system and gyrocompass, etc.), avionics ), security devices, or industrial or household robots.
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT computed tomography
  • navigation devices GPS receiver (global positioning system receiver)
  • EDR event data recorder
  • FDR light data recorder
  • automotive infotainment devices e.g. marine navigation system and gyrocompass, etc.
  • avionics e.g. marine navigation system and gyrocompass, etc.
  • the user terminal 100 may be a piece of furniture or a building/structure including a communication function, an electronic board, an electronic signature receiving device, a projector, Alternatively, it may include at least one of various measuring devices (e.g., water, electricity, gas, or radio wave measuring devices, etc.).
  • various measuring devices e.g., water, electricity, gas, or radio wave measuring devices, etc.
  • the user terminal 100 may be one or a combination of more than one of the various devices described above. Additionally, it will be apparent to those skilled in the art that electronic devices according to various embodiments of the present disclosure are not limited to the above-mentioned devices.
  • the hologram security code scanned by the user terminal 100 may be, for example, a QR code, but is not limited thereto.
  • the hologram security code according to an embodiment of the present invention may be obtained by dividing one original security code into multiple channels and encrypting the security codes separated into multiple channels in the form of a hologram.
  • the hologram security code separates one original QR code 10 into four channels (CH1 to CH4) and four channels (CH1 to CH4). It can be produced by encrypting the security codes (10A to 10B) in the form of a hologram.
  • the box area (A, B, C, or D) is the area where the actual QR code value is recorded, and the other area is the area where the fake QR code value is recorded.
  • the user terminal 100 includes a bus 110, a processor 120, a memory 130, and an input/output interface 140. , may include a display 150, a communication interface 160, a camera 170, and a motion recognition sensor 180.
  • the bus 110 may be a circuit that connects the above-described components 120 to 170 to each other.
  • the processor 120 is connected to the other components described above (e.g., the memory 130, the input/output interface 140, the display 150, the communication interface 160, and the voice interface module 170) through the bus 110.
  • a command, data or signal may be received, the received command, data or signal may be decoded, and an operation or data processing may be performed according to the decoded command.
  • the processor 120 may include, for example, at least one CPU, at least one GPU, a microcontroller unit (MCU), and/or a system on a chip (SoC).
  • MCU microcontroller unit
  • SoC system on a chip
  • the processor 120 may control the camera 170 to scan a holographic security code (e.g., 10A, 10B, 10C, and 10D in FIG. 2), and the holographic security code scanned by the camera 170 You can run an application (or app) designed to read images (hereinafter referred to as 'holographic images').
  • a holographic security code e.g., 10A, 10B, 10C, and 10D in FIG. 2
  • You can run an application (or app) designed to read images (hereinafter referred to as 'holographic images').
  • the processor 120 or an application (or app) executed by the processor 120 combines multiple holographic images (e.g., 10A, 10B, 10C, and 10D) scanned by the camera 170 (
  • the original security code for example, 10 in FIG. 6) can be restored by performing image processing (combination).
  • the processor 120 or an application (or app) executed by the processor 120 may read the restored original security code (eg, 10 in FIG. 6).
  • the processor 120 or an application (or app) executed by the processor 120 displays the plurality of hologram images (e.g., FIG. Numbers may be assigned to 6 (10A to 10D), and the numbers assigned to the plurality of hologram images and each hologram image may be mapped and stored in the memory 130.
  • the plurality of hologram images e.g., FIG. Numbers may be assigned to 6 (10A to 10D)
  • the numbers assigned to the plurality of hologram images and each hologram image may be mapped and stored in the memory 130.
  • Memory 130 may store instructions or data received from the processor 120 or other components 130 to 180 or generated by the processor 120 or other components 130 to 180.
  • the memory 130 may provide an execution space for programming modules such as a kernel, middleware 132, an application programming interface (API), or an application.
  • the application programming interface (API) may be a specific scanning API that configures a link with the scanned corresponding holographic security code.
  • Each of the above-described programming modules may be comprised of software, firmware, hardware, or a combination of at least two of these.
  • the input/output interface 140 transmits commands or data input from a user through an input/output device (e.g., sensor, keyboard, or touch screen), for example, to the processor 120, memory 130, or the like through the bus 110. It can be transmitted to the communication interface 160, camera 170, or motion recognition sensor 180. For example, the input/output interface 140 may provide data about a user's touch input through a touch screen to the processor 120. In addition, the input/output interface 140 inputs and outputs commands or data received from the processor 120, memory 130, communication interface 160, or voice interface module 170 through, for example, the bus 110. It can be output through a device (e.g. speaker or display).
  • a device e.g. speaker or display
  • the display 150 can display various information to the user under the control of the processor 120.
  • the information may indicate the scanning direction of the user terminal 100.
  • the user moves the user terminal 100 by referring to the scanning direction displayed on the display 150.
  • the display 150 may periodically change and display the scanning direction of the user terminal 100 under the control of the processor 120 for security purposes.
  • the communication interface 160 may connect communication between the user terminal 100 and the server 300.
  • the communication interface 160 may be connected to the communication network 200 and communicate with the server 300 through wireless or wired communication.
  • Wireless communications include, for example, Wifi (wireless fidelity), BT (Bluetooth), NFC (near field communication), GPS (global positioning system), or cellular communications (e.g., LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro or GSM, etc.) may be included.
  • Wifi wireless fidelity
  • BT Bluetooth
  • NFC near field communication
  • GPS global positioning system
  • cellular communications e.g., LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro or GSM, etc.
  • Wired communication may include, for example, at least one of universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard 232 (RS-232), or plain old telephone service (POTS).
  • the communication network 200 may include at least one of a computer network, the Internet, the Internet of things, or a telephone network.
  • a protocol e.g., transport layer protocol, data link layer protocol, or physical layer protocol
  • an application, API, middleware, kernel, or communication interface ( 160) may be supported in at least one of the following.
  • the communication interface 160 sends information indicating the order of numbers assigned to the plurality of holographic images (e.g., 10A, 10B, 10C, and 10D in FIG. 2) under the control of the processor 120. You can receive it from (300).
  • the processor 120 or an application (or app) executed by the processor 120 combines (combines) the plurality of hologram images according to the order of the numbers included in the information to obtain an original security code (e.g., 10) in FIG. 6 can be restored.
  • an original security code e.g., 10
  • the camera 170 scans the hologram security code (e.g., 10' in FIG. 6) under the control of the processor 120 or an application (or app) executed by the processor 120 to create a plurality of hologram images (e.g. , 10A, 10B, 10C and 10D in Figure 2) can be obtained.
  • the hologram security code e.g., 10' in FIG. 6
  • an application or app
  • the camera 170 scans the hologram security code (e.g., 10' in FIG. 6) in a predetermined scanning direction to create the plurality of hologram images (e.g., 10A, 10B, 10C, and 10D in FIG. 6). ) can be obtained.
  • the hologram security code e.g., 10' in FIG. 6
  • the plurality of hologram images e.g., 10A, 10B, 10C, and 10D in FIG. 6.
  • the motion recognition sensor 180 may measure motion data of the user terminal 100 at camera viewpoints of the camera 170 that acquired the plurality of holographic images.
  • the motion data may include the current location value and posture value of the user terminal 100.
  • the motion data may be a measurement that allows you to know in what direction, what position or/and what view point the hologram security code is being scanned.
  • the processor 120 identifies each hologram image by assigning a number defined according to the measured motion data to each of the plurality of hologram images.
  • FIG. 7 is a diagram illustrating a method of scanning a hologram security code according to an embodiment of the present invention
  • FIG. 8 is a diagram showing a scanning direction guidance text provided through a user terminal according to an embodiment of the present invention.
  • the user scans the holographic security code recorded on the plate 30 while slowly moving the camera 170 of the user terminal 100 in a predetermined scanning direction 50.
  • holographic security code When light (e.g., LED light) emitted from the light source 40 is irradiated to the holographic security code recorded on the film 34, different holographic images (e.g., 10A in FIG. 2) are generated from different viewpoints. , 10B, 10C and 10D) can be recognized.
  • light e.g., LED light
  • hologram security code recorded on the film 34 in a predetermined scanning direction
  • different hologram images e.g., 10A, 10B, 10C, and 10D in FIG. 2 are displayed. ) can be obtained.
  • the scanning direction guided through the display 150 varies, for example, from top to bottom, from bottom to top, from left to right, from right to left, etc. can be decided.
  • guidance text for the scanning direction is provided through the display 150 of the user terminal 100. For example, guidance text such as “Please scan from top to bottom” may be displayed on the display 150. .
  • the number '2' is assigned to the motion data of the user terminal 100 measured at the time of acquiring the holographic image 10B of the second channel (CH 2), and the holographic image of the third channel (CH 3)
  • the number '3' is assigned to the motion data of the user terminal 100 measured at the time of acquiring (10C), and the user terminal measured at the time of acquiring the holographic image 10C of the fourth channel (CH 4) (
  • the number '4' may be assigned to the motion data of 100).
  • mapping relationship between the motion data and the number assigned to the holographic image is shared in advance between the user terminal 100 and the server 300, or the user terminal 100 sends the motion data and the number defined according to the motion data to the server ( 300) and may be shared between the user terminal 100 and the server 300.
  • Partial images (B, C, A, D) extracted from each hologram image are combined according to the order of the numbers, "3 ⁇ 1 ⁇ 2 ⁇ 4", which indicates the combination (combination) order received from the server 300 ( combination) can be achieved.
  • the original security code 10 can be restored by combining (combining) the partial images (B, C, A, D).
  • FIG. 10 is a flowchart for explaining a method for reading a hologram security code according to an embodiment of the present invention, and is a flowchart for explaining steps S420 to S440 of FIG. 4 in detail.
  • the scan direction may be a predetermined scan direction and may be changed periodically at each reading.
  • a process of scanning a hologram security code is performed while the user moves the user terminal according to the scanning direction guided through the display.
  • the camera 170 acquires a plurality of hologram images scanned from different viewpoints.
  • the processor assigns a number to each hologram image, and then maps and stores the plurality of hologram images and the numbers assigned to each hologram image in the memory 130.
  • the process of assigning a number to each holographic image includes the process of measuring motion data of the user terminal at the viewpoint at which the motion recognition sensor 180 of the user terminal acquires each holographic image. It may include a process of assigning a number defined according to motion data to each hologram image.
  • the user terminal 100 or the processor 120 performs a process of restoring the original security code by combining the plurality of hologram images.
  • the process of restoring the original security code includes the communication interface 160 of the user terminal 100 receiving information indicating the order of the numbers from the server 300 and the order included in the information. Accordingly, it may include a process of restoring the original security code by combining the plurality of hologram images.
  • the user terminal 100 or the processor 120 performs a process of reading the restored original security code.
  • the present invention produces a security code (e.g., QR code) using a holographic method that records multiple images, rather than a single image, on one medium, so that when reading this holographic security code, at least two Since the QR code can only be read by combining two images, it can provide the effect of fundamentally blocking the duplication and reading of the security code.
  • a security code e.g., QR code
  • the present invention is a technical field in which hologram content can be easily produced with only dozens of images acquired through the video capture function of a user terminal (e.g., a smart phone) even for a target object for which it is very difficult to obtain tens to hundreds of thousands of viewpoint images. It can be usefully used in .
  • a user terminal e.g., a smart phone

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Computer Security & Cryptography (AREA)

Abstract

A method for reading a hologram security code is disclosed. The method comprises the steps of: acquiring a plurality of holographic images by scanning a hologram security code, by means of a camera of a user terminal; restoring an original security code by combining the plurality of holographic images, by means of a processor of the user terminal; and reading the original security code by means of the processor.

Description

사용자 단말의 동영상 촬영 기능을 이용한 홀로그램 제작 방법 및 상기 방법에 의해 제작된 홀로그램 보안 코드를 판독하기 위한 방법A method for producing a hologram using the video recording function of a user terminal and a method for reading a hologram security code produced by the method
본 발명은 홀로그램 콘텐츠 제작 기술에 관한 것으로, 보다 상세하게는 스마트 폰과 같은 사용자 단말을 이용하여 홀로그램 콘텐츠를 제작하는 기술에 관한 것이다.The present invention relates to holographic content production technology, and more specifically, to technology for producing holographic content using a user terminal such as a smart phone.
홀로그램 기술은 빛의 간섭 효과를 활용한 기술이다. 홀로그램 콘텐츠는 기준이 되는 빛과 물체에서 반사된 빛의 간섭 간섭 패턴을 특수 필름상에 기록하는 방식으로 얻을 수 있다.Hologram technology is a technology that utilizes the interference effect of light. Holographic content can be obtained by recording the interference pattern of reference light and light reflected from an object on a special film.
기존의 홀로그램 제작 방식은 다수의 카메라들과 조명들이 배치된 특수한 환경에서 실제 물체를 촬영하여 획득한 이미지들을 3차원 스캔 기술을 기반으로 3차원 컴퓨터 그래픽 모델로 모델링한 후, 그 3차원 컴퓨터 그래픽 모델을 컴퓨터 그래픽 상에서 가상으로 구현된 가상 카메라들로 촬영하여 수만 내지 수십 만개의 시점들로 렌더링한 후, 그 렌더링된 수만 내지 수십 만개의 시점 이미지들을 홀로그램 프린터를 이용하여 특수 필름 상에 기록하는 방식으로 이루어진다.The existing hologram production method is to model the images obtained by shooting real objects in a special environment where multiple cameras and lights are placed into a 3D computer graphics model based on 3D scanning technology, and then model the 3D computer graphics model. is captured with virtual cameras virtually implemented in computer graphics, rendered into tens of thousands to hundreds of thousands of viewpoints, and then the rendered tens to hundreds of thousands of viewpoint images are recorded on a special film using a hologram printer. It comes true.
이처럼 기존의 홀로그램 제작 방식은 실제 물체를 3차원 컴퓨터 그래픽 모델로 모델링 하기 위해, 다수의 카메라들과 조명들과 같은 고가의 3차원 캡처 장비들이 필요하고, 3차원 컴퓨터 그래픽 모델로부터 수만 내지 수십 만개의 시점 이미지들을 획득하기 위해 수만 내지 수십만 번의 렌더링 과정이 필요하기 때문에, 제작 비용, 제작 시간 및 기술적 난이도가 매우 높은 문제점이 있다.As such, the existing hologram production method requires expensive 3D capture equipment such as multiple cameras and lights to model real objects into 3D computer graphics models, and tens to hundreds of thousands of images can be captured from the 3D computer graphics model. Since tens to hundreds of thousands of rendering processes are required to acquire viewpoint images, production costs, production time, and technical difficulty are very high.
상술한 문제점을 해결하기 위한 본 발명의 일 목적은 스마트 폰과 같은 사용자 단말의 동영상 촬영 기능을 이용하여 홀로그램 콘텐츠를 간단하게 제작할 수 있는 홀로그램 제작 방법을 제공하는 데 있다.One purpose of the present invention to solve the above-mentioned problems is to provide a hologram production method that can simply produce hologram content using the video capture function of a user terminal such as a smart phone.
본 발명의 다른 목적은 상기 일 목적에 따른 홀로그램 제작 방법에 의해 제작된 홀로그램 콘텐츠를 판독하기 위한 방법을 제공하는 데 있다.Another object of the present invention is to provide a method for reading hologram content produced by the hologram production method according to the above object.
상술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 홀로그램 제작 방법은 사용자 단말에 의해, 실제 물체를 촬영하여 m개의 시점 이미지들을 생성하는 단계; 서버에 구비된 인공 지능 모델에 의해, 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하는 단계; 및 홀로그램 프린터에 의해, 상기 n개의 시점 이미지들에 대응하는 홀로그램 콘텐츠를 기록된 홀로그램 기록 매체를 제조하는 단계를 포함한다.A hologram production method according to an aspect of the present invention for achieving the above-described object includes generating m viewpoint images by photographing a real object by a user terminal; generating n viewpoint images larger than m by rendering the m viewpoint images using an artificial intelligence model provided in a server; and manufacturing, by a hologram printer, a hologram recording medium on which hologram content corresponding to the n viewpoint images is recorded.
본 발명의 다른 일면에 따른 홀로그램 보안 코드를 판독하기 위한 방법은 제1 사용자 단말의 카메라가 원본 보안 코드를 촬영한 동영상으로부터 m개의 시점 이미지들을 추출하고, 인공 지능 모델을 기반으로 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하고, 홀로그램 프린터를 이용하여 상기 n개의 시점 이미지들에 대응하는 홀로그램 보안 코드를 제작하는 단계; 제2 사용자 단말의 카메라가 상기 홀로그램 보안 코드를 스캔하여 다수의 홀로그램 이미지들을 획득하는 단계; 상기 제2 사용자 단말의 프로세서에 의해, 상기 다수의 홀로그램 이미지들을 결합하여 원본 보안 코드를 복원하는 단계; 및 상기 제2 사용자 단말의 프로세서가 상기 원본 보안 코드를 판독하는 단계를 포함한다.A method for reading a holographic security code according to another aspect of the present invention extracts m viewpoint images from a video in which the camera of the first user terminal captures the original security code, and extracts the m viewpoint images based on an artificial intelligence model. generating n viewpoint images larger than m by rendering them, and producing holographic security codes corresponding to the n viewpoint images using a hologram printer; Obtaining a plurality of hologram images by scanning the hologram security code with a camera of a second user terminal; restoring the original security code by combining the plurality of hologram images, by the processor of the second user terminal; and reading the original security code by the processor of the second user terminal.
본 발명에 따르면, 사용자 단말(예, 스마트 폰)의 동영상 촬영 기능을 이용하여 수십 개의 시점 이미지들을 획득하고, 인공 지능 기술을 이용하여 수십 개의 시점 이미지들로부터 수만 내지 수십 만개의 시점 이미지들을 간단하게 획득한 후, 이처럼 간단하게 획득한 수만 내지 수십 만개의 시점 이미지들을 기반으로 홀로그램 콘텐츠를 제작함으로써, 홀로그램 콘텐츠 제작에 필요한 제작 비용 및 제작 시간을 크게 줄일 수 있다.According to the present invention, dozens of viewpoint images are acquired using the video recording function of a user terminal (e.g., a smart phone), and tens to hundreds of thousands of viewpoint images are easily obtained from the dozens of viewpoint images using artificial intelligence technology. By producing hologram content based on tens to hundreds of thousands of viewpoint images simply acquired in this way, the production cost and production time required for producing hologram content can be greatly reduced.
본 발명에 따르면, 고가의 카메라들 및 조명 장치들 없이, 사용자 단말(예, 스마트 폰)의 동영상 촬영 기능을 이용하여 물체를 촬영하기 때문에, 움직이는 물체나 촬영이 어려운 대형 물체에 대한 홀로그램 콘텐츠를 쉽게 제작할 수 있다. 즉, 예를 들어 움직이는 인물 혹은 풍경이나, 대형 문화재처럼 특정 위치에서 수만 내지 수십만 개의 시점 이미지들을 획득하기가 매우 어려운 대상 물체에 대해서도 사용자 단말(예, 스마트 폰)의 동영상 촬영 기능을 통해 획득한 수십 개의 이미지들만으로도 홀로그램 콘텐츠를 간단하게 제작할 수 있다.According to the present invention, since objects are photographed using the video capture function of a user terminal (e.g., a smart phone) without expensive cameras and lighting devices, hologram content for moving objects or large objects that are difficult to photograph can be easily created. It can be produced. In other words, even for target objects where it is very difficult to obtain tens or hundreds of thousands of viewpoint images from a specific location, such as moving people, landscapes, or large-scale cultural assets, tens of thousands of viewpoint images can be acquired through the video recording function of the user terminal (e.g., a smartphone). You can easily create hologram content with just images of dogs.
도 1은 본 발명의 실시 예에 따른 홀로그램 제작 과정을 설명하기 위한 도면이다.1 is a diagram for explaining a hologram production process according to an embodiment of the present invention.
도 2는 도 1에 도시된 홀로그램 제작 과정을 구현하기 위한 홀로그램 제작 시스템의 개략적인 구성도이다.FIG. 2 is a schematic configuration diagram of a hologram production system for implementing the hologram production process shown in FIG. 1.
도 3은 본 발명의 실시 예에 따른 홀로그램 제작 방법을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining a hologram production method according to an embodiment of the present invention.
도 4는 도 3에 도시된 홀로그램 제작 방법에 의해 제작된 홀로그램 콘텐츠로서 홀로그램 보안 코드를 판독하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart illustrating a method for reading a hologram security code as hologram content produced by the hologram production method shown in FIG. 3.
도 5는 본 발명의 실시 예에 따른 사용자 단말의 블록도이고, Figure 5 is a block diagram of a user terminal according to an embodiment of the present invention,
도 6은 본 발명의 실시 예에 따른 다채널로 분리된 QR 코드의 예를 설명하기 위한 도면이다.Figure 6 is a diagram for explaining an example of a QR code divided into multiple channels according to an embodiment of the present invention.
도 7은 본 발명의 실시 예에 따른 홀로그램 보안 코드의 스캔 방법을 설명하기 위한 도면이고, 7 is a diagram for explaining a method of scanning a hologram security code according to an embodiment of the present invention;
도 8은 본 발명의 실시 예에 따른 사용자 단말을 통해 제공되는 스캔 방향의 안내 문구를 보여주는 도면이다.Figure 8 is a diagram showing a scan direction guidance text provided through a user terminal according to an embodiment of the present invention.
도 9는 본 발명의 실시 예에 따른 원본 보안 코드의 복원 과정을 설명하기 위한 도면이다.Figure 9 is a diagram for explaining the restoration process of the original security code according to an embodiment of the present invention.
도 10은 본 발명의 실시 예에 따른 홀로그램 보안 코드를 판독하기 위한 방법을 설명하기 위한 흐름도이다.Figure 10 is a flowchart illustrating a method for reading a hologram security code according to an embodiment of the present invention.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this specification are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.
본 발명은, 제작 비용, 제작 시간 및 기술적 난이도가 매우 높은 기존의 홀로그램 콘텐츠 제작의 문제점을 개선하기 위해, 스마트 폰과 같은 사용자 단말의 동영상 촬영 기능을 이용하여 대상 물체의 수만 내지 수십만 장의 시점 이미지들을 생성하는 방법을 제공한다. In order to improve the problems of existing holographic content production, which has very high production costs, production times, and technical difficulties, the present invention uses the video capture function of a user terminal such as a smart phone to capture tens to hundreds of thousands of viewpoint images of a target object. Provides a method for creating
이하, 첨부한 도면들을 참조하여, 사용자 단말의 동영상 촬영 기능을 이용하여 대상 물체에 대한 홀로그램 콘텐츠를 생성하는데 필요한 수만 내지 수십만 개의 시점 이미지들을 생성하는 방법에 대한 바람직한 실시 예를 보다 상세하게 설명한다.Hereinafter, with reference to the attached drawings, a preferred embodiment of a method for generating tens to hundreds of thousands of viewpoint images required to generate holographic content for a target object using the video capture function of a user terminal will be described in more detail.
도 1은 본 발명의 실시 예에 따른 홀로그램 제작 과정을 설명하기 위한 도면이다.1 is a diagram for explaining a hologram production process according to an embodiment of the present invention.
도 1을 참조하면, 먼저 사용자가 사용자 단말(예, 스마트 폰 등)(20)의 동영상 촬영 기능을 이용하여 사용자 단말(20)을 임의의 방향(50)으로 움직이면서 실제 물체(5)를 수초(예, 3~5초) 동안 촬영한다. 이때, 임의의 방향(50)은 사용자가 실제 물체(5)를 홀로그램 형태로 보고 싶어하는 시점들에 따라 결정될 수 있다. Referring to Figure 1, first, the user uses the video capture function of the user terminal (e.g., smart phone, etc.) 20 to move the user terminal 20 in a random direction 50 and capture the actual object 5 for several seconds ( (e.g., 3 to 5 seconds). At this time, the arbitrary direction 50 may be determined depending on the viewpoint from which the user wants to view the actual object 5 in the form of a hologram.
이어, 실제 물체(5)를 촬영하여 획득한 동영상(video)으로부터 상기 시점들에 대응하는 m개(예, 30~40개)의 시점 이미지들(22)을 추출하는 과정이 수행된다. Next, a process of extracting m (e.g., 30 to 40) viewpoint images 22 corresponding to the viewpoints from the video obtained by photographing the actual object 5 is performed.
이어, 인공 신경망 모델(30)이 상기 추출된 m개의 시점 이미지들(22)을 입력 데이터로 이용하여 n개(예, 10만개)의 시점 이미지들(32)을 생성한다. 이와 같이, 본 발명의 실시 예에서는 인공 신경망 모델(30)을 이용하여 홀로그램 제작에 필요한 수만 내지 수십만개의 시점 이미지들(32)을 생성함으로써, 홀로그램 제작에 필요한 수만 내지 수십만개의 시점 이미지들을 생성하기 위한 기존의 복잡한 3D 스캔 과정을 생략할 수 있다.Next, the artificial neural network model 30 generates n (eg, 100,000) viewpoint images 32 using the extracted m viewpoint images 22 as input data. As such, in an embodiment of the present invention, the artificial neural network model 30 is used to generate tens to hundreds of thousands of viewpoint images 32 necessary for hologram production, thereby generating tens to hundreds of thousands of viewpoint images necessary for hologram production. The existing complicated 3D scanning process can be omitted.
인공 신경망 모델(30)은 서로 다른 시점들에서 촬영된 시점 이미지들(22)의 컬러값, 방향값 및 특징값들을 학습하여 수만 내지 수십 만개의 시점들을 갖는 시점 이미지들(32)을 렌더링하도록 사전에 학습된 인공 신경망일 수 있다.The artificial neural network model 30 learns the color values, direction values, and feature values of the viewpoint images 22 taken at different viewpoints to render viewpoint images 32 having tens of thousands to hundreds of thousands of viewpoints. It may be an artificial neural network trained on .
인공 신경망 모델(30)은, 예를 들면, NeRF(Representing Scenes as Neural Radiance Fields for View Synthesis) 모델로 구현된 인공 신경망일 수 있다. NeRF 모델은 실제 물체를 촬영한 여러 장의 이미지를 입력 데이터로 이용하여 새로운 시점에서의 물체 이미지를 만들어내는(View synthesis) 모델이다. The artificial neural network model 30 may be, for example, an artificial neural network implemented as a NeRF (Representing Scenes as Neural Radiance Fields for View Synthesis) model. The NeRF model is a model that uses multiple images of real objects as input data to create an object image from a new viewpoint (view synthesis).
NeRF 모델은 CVPR(Computer Vision and Pattern Recognition) 2020에서 'Representing Scenes as Neural Radiance Fields for View Synthesis'라는 제목으로 소개된 논문에서 자세히 설명하고 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.The NeRF model is explained in detail in a paper introduced at CVPR (Computer Vision and Pattern Recognition) 2020 under the title 'Representing Scenes as Neural Radiance Fields for View Synthesis', so detailed explanation will be omitted.
이어, 홀로그램 프린터(40)의 홀로그램 프린팅 과정을 통해, 상기 인공 신경망 모델(30)에 의해 생성된 n개(예, 10만개)의 시점 이미지들(32)에 대응하는 홀로그램 콘텐츠가 기록된 홀로그램 기록 매체를 생성한다. Next, through the hologram printing process of the hologram printer 40, a hologram record in which hologram content corresponding to n (e.g., 100,000) viewpoint images 32 generated by the artificial neural network model 30 is recorded. Create media.
이와 같이, 본 발명의 실시 예에 따른 홀로그램 제작 과정은 사용자가 실제 물체를 홀로그램으로 구현하고 싶은 시점에서 스마트폰의 동영상 촬영 기능을 이용하여 간단하게 촬영한 시점 이미지들을 기반으로 홀로그램 콘텐츠를 제작하기 때문에, 홀로그램 제작에 필요한 수만 내지 수십만개의 시점 이미지들을 생성하기 위한 기존의 복잡한 3D 스캔 과정을 생략할 수 있다.As such, the hologram production process according to an embodiment of the present invention produces hologram content based on viewpoint images simply captured using the video capture function of a smartphone at a point in time when the user wants to implement a real object as a hologram. , the existing complex 3D scanning process for generating tens to hundreds of thousands of viewpoint images required for hologram production can be omitted.
도 2는 도 1에 도시된 홀로그램 제작 과정을 구현하기 위한 홀로그램 제작 시스템의 개략적인 구성도이다.FIG. 2 is a schematic configuration diagram of a hologram production system for implementing the hologram production process shown in FIG. 1.
도 2를 참조하면, 본 발명의 실시 예에 따른 홀로그램 제작 시스템은 사용자 단말(20), 통신 네트워크(150), 서버(200) 및 홀로그램 프린터(40)를 포함한다. Referring to FIG. 2, the hologram production system according to an embodiment of the present invention includes a user terminal 20, a communication network 150, a server 200, and a hologram printer 40.
사용자 단말(20)은 동영상 촬영 기능과 통신 기능을 갖는 장치로서, 통신 네트워크(150)를 통해 서버(200)와 통신한다.The user terminal 20 is a device that has a video recording function and a communication function, and communicates with the server 200 through the communication network 150.
사용자 단말(20)은 동영상 촬영 기능과 통신 기능을 갖는 컴퓨팅 장치로서, 컴퓨팅 장치는, 프로세서, 메모리, 저장 장치, 카메라 및 유/무선 통신을 지원하는 통신 장치 등을 포함한다. 프로세서는 적어도 하나의 CPU, 적어도 하나의 GPU, 적어도 하나의 애플리케이션 프로세서, 적어도 하나의 시스템 온 칩(SoC), 적어도 하나의 마이크로 컨트롤러 유닛 등 중에서 적어도 하나를 포함할 수 있다. The user terminal 20 is a computing device that has a video recording function and a communication function, and the computing device includes a processor, memory, a storage device, a camera, and a communication device that supports wired/wireless communication. The processor may include at least one of at least one CPU, at least one GPU, at least one application processor, at least one system on chip (SoC), at least one microcontroller unit, etc.
사용자 단말(20)은, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), 의료기기, 보안 기기, 통신 기능을 갖는 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 스마트 와치(smartwatch) 또는 스캐너(scanner) 중 적어도 하나를 포함할 수 있다.The user terminal 20 may be, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, or a desktop personal computer. computer, laptop personal computer, netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), medical device, security device, camera with communication function, or wearable device. (wearable device) (e.g., may include at least one of a head-mounted-device (HMD) such as electronic glasses, a smartwatch, or a scanner.
사용자 단말(20)의 카메라는 임의의 방향(도 1의 50)으로 움직이면서 촬영한 실제 물체(도 1의 5)의 동영상을 생성하여 저장 장치에 저장한다.The camera of the user terminal 20 generates a video of a real object (5 in FIG. 1) captured while moving in a random direction (50 in FIG. 1) and stores it in a storage device.
사용자 단말(20)의 프로세서는 상기 저장 장치에 저장된 동영상으로부터 사용자가 실제 물체(도 1의 5)를 홀로그램 형태로 보고 싶어하는 시점들에 대응하는 m개의 시점 이미지들(22)을 추출한다.The processor of the user terminal 20 extracts m viewpoint images 22 corresponding to viewpoints at which the user wants to view a real object (5 in FIG. 1) in the form of a hologram from the video stored in the storage device.
사용자 단말(20)의 프로세서는 상기 추출한 m개(예, 30~40개)의 시점 이미지들(도 1의 22)을 포함하는 시점 이미지 파일을 생성하고, 상기 시점 이미지 파일을 통신 네트워크(150)를 통해 서버(200)로 송신한다.The processor of the user terminal 20 generates a viewpoint image file including the extracted m (e.g., 30 to 40) viewpoint images (22 in FIG. 1), and sends the viewpoint image file to the communication network 150. It is transmitted to the server 200 through .
통신 네트워크(150)는 이동 통신(3G, 4G, 5G, 6G) 및 유/무선인터넷을 포함한다. 본 명세서에서 통신 네트워크(150)는 게이트웨이, 라우터, 기지국 등을 포함하는 개념으로 사용된다.The communication network 150 includes mobile communication (3G, 4G, 5G, 6G) and wired/wireless Internet. In this specification, the communication network 150 is used as a concept including a gateway, router, base station, etc.
서버(200)는 홀로그램 프린팅 서비스 업체에 설치된 컴퓨팅 장치일 수 있다. 서버(200)로 구현된 컴퓨팅 장치는, 프로세서, 메모리, 저장 장치, 및 유/무선 통신을 지원하는 통신 장치 등을 포함한다. 프로세서는 적어도 하나의 CPU, 적어도 하나의 GPU, 적어도 하나의 애플리케이션 프로세서, 적어도 하나의 시스템 온 칩(SoC), 적어도 하나의 마이크로 컨트롤러 유닛 등 중에서 적어도 하나를 포함할 수 있다.The server 200 may be a computing device installed at a hologram printing service company. The computing device implemented as the server 200 includes a processor, memory, storage device, and communication device supporting wired/wireless communication. The processor may include at least one of at least one CPU, at least one GPU, at least one application processor, at least one system on chip (SoC), at least one microcontroller unit, etc.
서버(200)는 통신 네트워크(150)를 통해 사용자 단말(20)로부터 시점 이미지 파일을 수신한다. 서버(200)는 렌더링 모듈(210)을 포함하며, 렌더링 모듈(210)은 도 1에 도시된 인공 지능 모델(30)을 포함하도록 구성될 수 있다. The server 200 receives a viewpoint image file from the user terminal 20 through the communication network 150. The server 200 includes a rendering module 210, and the rendering module 210 may be configured to include the artificial intelligence model 30 shown in FIG. 1.
인공 지능 모델(30)은 사용자 단말(20)로부터 수신된 상기 시점 이미지 파일에 포함된 상기 m(예, 30~40)개의 시점 이미지들(도 1의 22)을 렌더링하여 n개(예, 10만개)의 시점 이미지들(도 1의 32)을 생성한다.The artificial intelligence model 30 renders the m (e.g., 30 to 40) viewpoint images (22 in FIG. 1) included in the viewpoint image file received from the user terminal 20 to n (e.g., 10) 10,000 viewpoint images (32 in FIG. 1) are generated.
홀로그램 프린터(40)는 상기 n개의 시점 이미지들에 대응하는 홀로그램 콘텐츠가 기록된 홀로그램 기록 매체(42)를 출력한다. 홀로그램 기록 매체(42)는 홀로그램 콘텐츠가 기록된 특정 필름일 수 있다. 홀로그램 프린터(40)로부터 출력된 홀로그램 기록 매체(42)는 사용자 단말(20)의 사용자에게 배송된다.The hologram printer 40 outputs a hologram recording medium 42 on which hologram content corresponding to the n viewpoint images is recorded. The hologram recording medium 42 may be a specific film on which hologram content is recorded. The hologram recording medium 42 output from the hologram printer 40 is delivered to the user of the user terminal 20.
앞에서, 서버(200)를 홀로그램 프린팅 서비스 업체에 설치된 장치로 설명하였으나, 이에 한정하지 않고, 서버(200)는 클라우드 서버일 수 있다. 이 경우, 클라우드 서버는 n개의 시점 이미지들을 생성하여 사용자 단말(20)로 송신하고, 사용자 단말(20)은 클라우드 서버로부터 수신한 n개의 시점 이미지들을 홀로그램 프린팅 서비스 업체에 설치된 서버로 송신할 수 있다. 이 경우, 홀로그램 프린팅 서비스 업체에 설치된 서버는 렌더링 모듈을 포함하지 않는다.Previously, the server 200 was described as a device installed at a hologram printing service company, but the server 200 is not limited to this and may be a cloud server. In this case, the cloud server generates n viewpoint images and transmits them to the user terminal 20, and the user terminal 20 can transmit the n viewpoint images received from the cloud server to the server installed at the hologram printing service company. . In this case, the server installed at the hologram printing service provider does not include a rendering module.
도 2에서는 서버(200)와 홀로그램 프린터(40)를 독립된 구성으로 분리하여 도시하였으나, 홀로그램 프린터(40)는 서버(200)에 포함될 수 있다.In FIG. 2, the server 200 and the hologram printer 40 are shown as separate components, but the hologram printer 40 may be included in the server 200.
도 3은 본 발명의 실시 예에 따른 홀로그램 제작 방법을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining a hologram production method according to an embodiment of the present invention.
도 3을 참조하면, S310에서, 사용자 단말(200)에서, 실제 물체(5)를 촬영하여 m개의 시점 이미지들을 생성하는 과정이 수행된다.Referring to FIG. 3, in S310, a process of generating m viewpoint images by photographing an actual object 5 is performed in the user terminal 200.
이어, S320에서, 서버(200)에서, 인공 지능 모델로 구현된 렌더링 모듈(210)이 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하는 과정이 수행된다.Next, in S320, the rendering module 210 implemented as an artificial intelligence model in the server 200 renders the m viewpoint images to generate n viewpoint images larger than m.
S330에서, 홀로그램 프린터(40)에서, 상기 n개의 시점 이미지들에 대응하는 홀로그램 콘텐츠를 기록된 홀로그램 기록 매체를 제조하는 과정이 수행된다.In S330, a process of manufacturing a hologram recording medium on which hologram content corresponding to the n viewpoint images is recorded is performed in the hologram printer 40.
이하, 도 3의 홀로그램 제작 방법에 의해 제작된 홀로그램 기록 매체에 기록된 홀로그램 콘텐츠를 판독하는 방법에 대해 설명하기로 한다. 다만, 이하의 실시 예에서는, 도 3의 홀로그램 제작 방법에 의해 제작된 홀로그램 기록 매체에 기록된 홀로그램 콘텐츠가 QR코드와 같은 보안 코드인 것으로 가정한다.Hereinafter, a method of reading hologram content recorded on a hologram recording medium produced by the hologram production method of FIG. 3 will be described. However, in the following embodiments, it is assumed that the hologram content recorded on the hologram recording medium produced by the hologram production method of FIG. 3 is a security code such as a QR code.
도 4는 도 3에 도시된 홀로그램 제작 방법에 의해 제작된 홀로그램 콘텐츠로서 홀로그램 보안 코드를 판독하기 위한 방법을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart illustrating a method for reading a hologram security code as hologram content produced by the hologram production method shown in FIG. 3.
도 4를 참조하면, S410에서, 제1 사용자 단말(도 1 및 2의 20)의 카메라가 원본 보안 코드를 촬영하여 획득한 동영상으로부터 m개의 시점 이미지들을 추출하고, 인공 지능 모델을 기반으로 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하고, 홀로그램 프린터를 이용하여 상기 n개의 시점 이미지들에 대응하는 홀로그램 보안 코드를 제작하는 과정이 수행된다.Referring to FIG. 4, in S410, the camera of the first user terminal (20 in FIGS. 1 and 2) extracts m viewpoint images from the video obtained by photographing the original security code, and the m viewpoint images are obtained based on an artificial intelligence model. A process is performed by rendering n viewpoint images to generate n viewpoint images larger than m, and producing hologram security codes corresponding to the n viewpoint images using a hologram printer.
이어, S420에서, 제2 사용자 단말(도 5의 100)의 카메라가 상기 홀로그램 보안 코드를 스캔하여 다수의 홀로그램 이미지들을 획득하는 과정이 수행된다.Next, in S420, a process is performed in which the camera of the second user terminal (100 in FIG. 5) scans the hologram security code to obtain a plurality of hologram images.
이어, S430에서, 상기 제2 사용자 단말(도 5의 100)의 프로세서에 의해, 상기 다수의 홀로그램 이미지들을 결합하여 원본 보안 코드를 복원하는 과정이 수행된다.Next, in S430, a process of restoring the original security code by combining the plurality of hologram images is performed by the processor of the second user terminal (100 in FIG. 5).
이어, 상기 제2 사용자 단말(100)의 프로세서가 상기 원본 보안 코드를 판독하는 과정이 수행된다.Next, a process in which the processor of the second user terminal 100 reads the original security code is performed.
실시 예에서, 상기 홀로그램 보안 코드를 제작하는 과정(S410)은 상기 제1 사용자 단말의 카메라가 임의의 방향으로 움직이면서 상기 원본 보안 코드를 촬영하여 상기 원본 보안 코드의 동영상을 획득하는 과정, 상기 제1 사용자 단말의 프로세서가 상기 동영상으로부터 상기 m개의 시점 이미지들을 추출하는 과정, 상기 제1 사용자 단말의 통신 장치가 상기 m개의 시점 이미지들을 서버로 송신하는 과정 및 상기 서버의 인공 지능 모델이 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하는 과정을 포함할 수 있다.In an embodiment, the process of producing the hologram security code (S410) is a process of obtaining a video of the original security code by photographing the original security code while the camera of the first user terminal moves in a random direction, the first user terminal A process of the processor of the user terminal extracting the m viewpoint images from the video, a process of the communication device of the first user terminal transmitting the m viewpoint images to a server, and the artificial intelligence model of the server generating the m viewpoint images. It may include a process of rendering images to generate n viewpoint images larger than m.
실시 예에서, 상기 인공 지능 모델은 NeRF(Neural Radiance Fields) 모델일 수 있다.In an embodiment, the artificial intelligence model may be a Neural Radiance Fields (NeRF) model.
이하, S420, S430 및 S440에 대해서는 도 5 내지 10을 참조하여 상세히 설명하기로 한다.Hereinafter, S420, S430, and S440 will be described in detail with reference to FIGS. 5 to 10.
도 5는 본 발명의 실시 예에 따른 사용자 단말의 블록도이고, 도 6은 본 발명의 실시 예에 따른 다채널로 분리된 QR 코드의 예를 설명하기 위한 도면이다.Figure 5 is a block diagram of a user terminal according to an embodiment of the present invention, and Figure 6 is a diagram for explaining an example of a QR code divided into multiple channels according to an embodiment of the present invention.
먼저, 도 5를 참조하면, 사용자 단말(100)는 복제가 불가능하도록 제작된 홀로그램 형태의 보안 코드(이하, '홀로그램 보안 코드'라 함)를 스캔하고, 스캔된 홀로그램 보안 코드를 판독하는 '컴퓨팅 장치' 또는 '전자 장치'일 수 있다. 본 명세서의 청구범위에서는 사용자 단말(100)이 '제2 사용자 단말'로 기재되고, 도 1 및 2에 도시된 사용자 단말(20)이 '제1 사용자 단말'로 기재될 수 있다.First, referring to FIG. 5, the user terminal 100 scans a security code in the form of a hologram (hereinafter referred to as a 'hologram security code') that is designed to be impossible to copy, and uses a 'computing device' to read the scanned hologram security code. It may be a ‘device’ or an ‘electronic device’. In the claims of this specification, the user terminal 100 may be described as a 'second user terminal', and the user terminal 20 shown in FIGS. 1 and 2 may be described as a 'first user terminal'.
이러한 사용자 단말(100), 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리 더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), 의료기기, 보안 기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 스마트 와치(smartwatch) 또는 스캐너(scanner) 중 적어도 하나로 불릴 수 있다. Such user terminals 100, for example, smartphones, tablet personal computers, mobile phones, video phones, e-book readers, and desktop PCs. personal computer, laptop personal computer, netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), medical device, security device, camera, or wearable device. )(For example, it may be called at least one of a head-mounted-device (HMD) such as electronic glasses, a smartwatch, or a scanner.
어떤 실시 예들에 따르면, 사용자 단말(100)은 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync쪠, 애플TV쪠, 또는 구글 TV쪠), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to some embodiments, the user terminal 100 may be a smart home appliance equipped with a communication function. Smart home appliances, for example, include electronic devices such as televisions, DVD (digital video disk) players, stereos, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, and TVs. It may include at least one of boxes (e.g., Samsung HomeSync, Apple TV, or Google TV), game consoles, electronic dictionaries, electronic keys, camcorders, or electronic picture frames.
어떤 실시 예들에 따르면, 사용자 단말(100)은 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 산업용 또는 가정용 로봇 중 적어도 하나를 포함할 수 있다. According to some embodiments, the user terminal 100 may be equipped with various medical devices (e.g., magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), imaging equipment, ultrasound equipment, etc.), navigation devices, GPS receiver (global positioning system receiver), EDR (event data recorder), FDR (flight data recorder), automotive infotainment devices, marine electronic equipment (e.g. marine navigation system and gyrocompass, etc.), avionics ), security devices, or industrial or household robots.
어떤 실시 예들에 따르면, 사용자 단말(100)은 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다.According to some embodiments, the user terminal 100 may be a piece of furniture or a building/structure including a communication function, an electronic board, an electronic signature receiving device, a projector, Alternatively, it may include at least one of various measuring devices (e.g., water, electricity, gas, or radio wave measuring devices, etc.).
다양한 실시 예에 따른 사용자 단말(100)은 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.The user terminal 100 according to various embodiments may be one or a combination of more than one of the various devices described above. Additionally, it will be apparent to those skilled in the art that electronic devices according to various embodiments of the present disclosure are not limited to the above-mentioned devices.
본 발명의 실시 예에 따른 사용자 단말(100)에 의해 스캔되는 홀로그램 보안 코드는, 예를 들면, QR 코드일 수 있으나, 이를 한정하는 것은 아니다. 본 발명의 실시 예에 따른 홀로그램 보안 코드는 하나의 원본 보안 코드를 다채널로 분리하여, 다채널로 분리된 보안 코드들을 홀로그램 형태로 암호화한 것일 수 있다. The hologram security code scanned by the user terminal 100 according to an embodiment of the present invention may be, for example, a QR code, but is not limited thereto. The hologram security code according to an embodiment of the present invention may be obtained by dividing one original security code into multiple channels and encrypting the security codes separated into multiple channels in the form of a hologram.
이처럼 다채널로 분리된 보안 코드들을 홀로그램 형태로 암호화함으로써, 제3자에 의한 복제를 원천적으로 차단할 수 있다. 예를 들면, 도 6에 도시된 바와 같이, 홀로그램 보안 코드는, 하나의 원본 QR 코드(10)를 4개의 채널들(CH1~CH4)로 분리하고, 4개의 채널들(CH1~CH4)로 분리된 보안 코드들(10A~10B)을 홀로그램 형태로 암호화하여 제작될 수 있다. 이때, 각 홀로그램 형태의 보안 코드에서 박스 영역(A, B, C 또는 D)은 실제 QR 코드값이 기록된 영역이고, 그 이외의 영역은 가짜 QR 코드값이 기록된 영역이다.By encrypting security codes separated into multiple channels in the form of a hologram, copying by third parties can be fundamentally blocked. For example, as shown in FIG. 6, the hologram security code separates one original QR code 10 into four channels (CH1 to CH4) and four channels (CH1 to CH4). It can be produced by encrypting the security codes (10A to 10B) in the form of a hologram. At this time, in each hologram-type security code, the box area (A, B, C, or D) is the area where the actual QR code value is recorded, and the other area is the area where the fake QR code value is recorded.
다시 도 5를 참조하면, 홀로그램 보안 코드를 스캔하고, 스캔된 홀로그램 보안 코드를 판독하기 위해, 사용자 단말(100)은 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160), 카메라(170) 및 모션 인식 센서(180)를 포함할 수 있다.Referring again to FIG. 5, in order to scan the hologram security code and read the scanned hologram security code, the user terminal 100 includes a bus 110, a processor 120, a memory 130, and an input/output interface 140. , may include a display 150, a communication interface 160, a camera 170, and a motion recognition sensor 180.
버스(110)는 전술한 구성요소들(120~170)을 서로 연결하는 회로일 수 있다.The bus 110 may be a circuit that connects the above-described components 120 to 170 to each other.
프로세서(120)는 버스(110)를 통해 전술한 다른 구성요소들(예: 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 음성 인터페이스 모듈(170))로부터 명령, 데이터 또는 신호를 수신하여, 수신된 명령, 데이터 또는 신호를 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다. 프로세서(120)는, 예를 들면, 적어도 하나의 CPU, 적어도 하나의 GPU, 마이크로 컨트롤러 유닛(MCU) 및/또는 시스템 온 칩(SoC) 등을 포함할 수 있다.The processor 120 is connected to the other components described above (e.g., the memory 130, the input/output interface 140, the display 150, the communication interface 160, and the voice interface module 170) through the bus 110. A command, data or signal may be received, the received command, data or signal may be decoded, and an operation or data processing may be performed according to the decoded command. The processor 120 may include, for example, at least one CPU, at least one GPU, a microcontroller unit (MCU), and/or a system on a chip (SoC).
실시 예에서, 프로세서(120)는 홀로그램 보안 코드(예, 도 2의 10A, 10B, 10C 및 10D)를 스캔하도록 카메라(170)를 제어할 수 있고, 카메라(170)에 의해 스캔된 홀로그램 보안 코드의 이미지들(이하, '홀로그램 이미지들'이라 함)를 판독하도록 설계된 어플리케이션(또는 앱)을 실행할 수 있다.In an embodiment, the processor 120 may control the camera 170 to scan a holographic security code (e.g., 10A, 10B, 10C, and 10D in FIG. 2), and the holographic security code scanned by the camera 170 You can run an application (or app) designed to read images (hereinafter referred to as 'holographic images').
실시 예에서, 프로세서(120) 또는 프로세서(120)에 의해 실행된 어플리케이션(또는 앱)은 카메라(170)에 의해 스캔된 다수의 홀로그램 이미지들(예, 10A, 10B, 10C 및 10D)을 결합(조합)하는 이미지 처리를 수행하여 원본 보안 코드(예를 들면, 도 6의 10)를 복원할 수 있다. In an embodiment, the processor 120 or an application (or app) executed by the processor 120 combines multiple holographic images (e.g., 10A, 10B, 10C, and 10D) scanned by the camera 170 ( The original security code (for example, 10 in FIG. 6) can be restored by performing image processing (combination).
실시 예에서, 프로세서(120) 또는 프로세서(120)에 의해 실행된 어플리케이션(또는 앱)은 복원된 원본 보안 코드(예를 들면, 도 6의 10)를 판독할 수 있다.In an embodiment, the processor 120 or an application (or app) executed by the processor 120 may read the restored original security code (eg, 10 in FIG. 6).
실시 예에서, 프로세서(120) 또는 프로세서(120)에 의해 실행된 어플리케이션(또는 앱)은 카메라(170)가 홀로그램 보안 코드(10')를 스캔하여 획득한 상기 다수의 홀로그램 이미지들(예, 도 6의 10A ~ 10D)에 번호를 부여하고, 상기 다수의 홀로그램 이미지들과 각 홀로그램 이미지에 부여된 번호를 매핑하여 메모리(130)에 저장할 수 있다.In an embodiment, the processor 120 or an application (or app) executed by the processor 120 displays the plurality of hologram images (e.g., FIG. Numbers may be assigned to 6 (10A to 10D), and the numbers assigned to the plurality of hologram images and each hologram image may be mapped and stored in the memory 130.
메모리(130)는 프로세서(120) 또는 다른 구성요소들(130~180)로부터 수신되거나 프로세서(120) 또는 다른 구성요소들(130~180)에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리(130)는 커널, 미들웨어(132), 애플리케이션 프로그래밍 인터페이스(API: application programming interface) 또는 애플리케이션 등의 프로그래밍 모듈들을 실행 공간을 제공할 수 있다. 여기서, 애플리케이션 프로그래밍 인터페이스(API)는 스캔된 해당 홀로그램 보안 코드와 링크를 구성하는 특정 스캐닝 API일 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. Memory 130 may store instructions or data received from the processor 120 or other components 130 to 180 or generated by the processor 120 or other components 130 to 180. The memory 130 may provide an execution space for programming modules such as a kernel, middleware 132, an application programming interface (API), or an application. Here, the application programming interface (API) may be a specific scanning API that configures a link with the scanned corresponding holographic security code. Each of the above-described programming modules may be comprised of software, firmware, hardware, or a combination of at least two of these.
입출력 인터페이스(140)는, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스(110)를 통해 프로세서(120), 메모리(130), 통신 인터페이스(160), 카메라(170) 또는 모션 인식 센서(180)에 전달할 수 있다. 예를 들면, 입출력 인터페이스(140)는 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서(120)로 제공할 수 있다. 또한, 입출력 인터페이스(140)는, 예를 들면, 버스(110)를 통해 프로세서(120), 메모리(130), 통신 인터페이스(160), 또는 음성 인터페이스 모듈(170)로부터 수신된 명령 또는 데이터를 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. The input/output interface 140 transmits commands or data input from a user through an input/output device (e.g., sensor, keyboard, or touch screen), for example, to the processor 120, memory 130, or the like through the bus 110. It can be transmitted to the communication interface 160, camera 170, or motion recognition sensor 180. For example, the input/output interface 140 may provide data about a user's touch input through a touch screen to the processor 120. In addition, the input/output interface 140 inputs and outputs commands or data received from the processor 120, memory 130, communication interface 160, or voice interface module 170 through, for example, the bus 110. It can be output through a device (e.g. speaker or display).
디스플레이(150)는 프로세서(120)의 제어에 따라 사용자에게 각종 정보를 표시할 수 있다. 여기서 정보는 사용자 단말(100)의 스캔 방향을 표시할 수 있다. 사용자는 디스플레이(150)에서 표시한 스캔 방향을 참고하여 사용자 단말(100)을 이동시킨다. 실시 예에서, 디스플레이(150)는 보안을 위해 프로세서(120)의 제어에 따라 사용자 단말(100)의 스캔 방향을 주기적으로 변경하여 표시할 수 있다.The display 150 can display various information to the user under the control of the processor 120. Here, the information may indicate the scanning direction of the user terminal 100. The user moves the user terminal 100 by referring to the scanning direction displayed on the display 150. In an embodiment, the display 150 may periodically change and display the scanning direction of the user terminal 100 under the control of the processor 120 for security purposes.
통신 인터페이스(160)는 사용자 단말(100)과 서버(300) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스(160)는 무선 통신 또는 유선 통신을 통해서 통신 네트워크(200)에 연결되어 서버(300)와 통신할 수 있다. The communication interface 160 may connect communication between the user terminal 100 and the server 300. For example, the communication interface 160 may be connected to the communication network 200 and communicate with the server 300 through wireless or wired communication.
무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. Wireless communications include, for example, Wifi (wireless fidelity), BT (Bluetooth), NFC (near field communication), GPS (global positioning system), or cellular communications (e.g., LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro or GSM, etc.) may be included.
유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다. 여기서, 통신 네트워크(200)는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 사용자 단말(100)과 서버(300) 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 애플리케이션, API, 미들웨어, 커널 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.Wired communication may include, for example, at least one of universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard 232 (RS-232), or plain old telephone service (POTS). Here, the communication network 200 may include at least one of a computer network, the Internet, the Internet of things, or a telephone network. According to one embodiment, a protocol (e.g., transport layer protocol, data link layer protocol, or physical layer protocol) for communication between the user terminal 100 and the server 300 is an application, API, middleware, kernel, or communication interface ( 160) may be supported in at least one of the following.
실시 예에서, 통신 인터페이스(160)는 상기 프로세서(120)의 제어에 따라 상기 다수의 홀로그램 이미지들(예, 도 2에서 10A, 10B, 10C 및 10D)에 부여된 번호들의 순서를 나타내는 정보를 서버(300)로부터 수신할 수 있다.In an embodiment, the communication interface 160 sends information indicating the order of numbers assigned to the plurality of holographic images (e.g., 10A, 10B, 10C, and 10D in FIG. 2) under the control of the processor 120. You can receive it from (300).
실시 예에서, 프로세서(120) 또는 프로세서(120)에 의해 실행된 어플리케이션(또는 앱)은 상기 정보에 포함된 번호들의 순서에 따라 상기 다수의 홀로그램 이미지들을 결합(조합)하여 원본 보안 코드(예, 도 6의 10)를 복원할 수 있다.In an embodiment, the processor 120 or an application (or app) executed by the processor 120 combines (combines) the plurality of hologram images according to the order of the numbers included in the information to obtain an original security code (e.g., 10) in FIG. 6 can be restored.
카메라(170)는 프로세서(120) 또는 프로세서(120)에 의해 실행된 어플리케이션(또는 앱)의 제어에 따라 상기 홀로그램 보안 코드(예, 도 6의 10')를 스캔하여 다수의 홀로그램 이미지들(예, 도 2의 10A, 10B, 10C 및 10D)을 획득할 수 있다.The camera 170 scans the hologram security code (e.g., 10' in FIG. 6) under the control of the processor 120 or an application (or app) executed by the processor 120 to create a plurality of hologram images (e.g. , 10A, 10B, 10C and 10D in Figure 2) can be obtained.
실시 예에서, 카메라(170)는 상기 홀로그램 보안 코드(예, 도 6의 10')를 사전에 결정된 스캔 방향으로 스캔하여 상기 다수의 홀로그램 이미지들(예, 도 6의 10A, 10B, 10C 및 10D)을 획득할 수 있다. In an embodiment, the camera 170 scans the hologram security code (e.g., 10' in FIG. 6) in a predetermined scanning direction to create the plurality of hologram images (e.g., 10A, 10B, 10C, and 10D in FIG. 6). ) can be obtained.
모션 인식 센서(180)는 상기 다수의 홀로그램 이미지들을 획득한 상기 카메라(170)의 카메라 시점들에서 상기 사용자 단말(100)의 모션 데이터를 측정할 수 있다. 여기서, 모션 데이터는 상기 사용자 단말(100)의 현재 위치값 및 자세값 등을 포함할 수 있다. 즉, 모션 데이터는 어떤 방향, 어떤 위치 또는/및 어떤 시점(view point)에서 홀로그램 보안 코드를 스캔하는지를 알 수 있게 하는 측정치일 수 있다.The motion recognition sensor 180 may measure motion data of the user terminal 100 at camera viewpoints of the camera 170 that acquired the plurality of holographic images. Here, the motion data may include the current location value and posture value of the user terminal 100. In other words, the motion data may be a measurement that allows you to know in what direction, what position or/and what view point the hologram security code is being scanned.
실시 예에서, 프로세서(120)는 상기 측정된 모션 데이터에 따라 정의된 번호를 상기 다수의 홀로그램 이미지들에 각각 부여하여, 각 홀로그램 이미지를 식별한다.In an embodiment, the processor 120 identifies each hologram image by assigning a number defined according to the measured motion data to each of the plurality of hologram images.
모션 데이터를 측정하기 위해, 모션 인식 센서(180)는 가속도 센서, 자계 센서, 자이로 센서와 같이 사용자의 움직임에 따라서 상기 사용자 단말(100)의 현재 위치값 및 자세값과 같은 변화하는 수치를 측정할 수 있는 모든 종류의 센서들을 포함할 수 있다.In order to measure motion data, the motion recognition sensor 180, such as an acceleration sensor, magnetic field sensor, or gyro sensor, measures changing values such as the current position value and posture value of the user terminal 100 according to the user's movement. It can include all types of sensors.
도 7은 본 발명의 실시 예에 따른 홀로그램 보안 코드의 스캔 방법을 설명하기 위한 도면이고, 도 8은 본 발명의 실시 예에 따른 사용자 단말을 통해 제공되는 스캔 방향의 안내 문구를 보여주는 도면이다.FIG. 7 is a diagram illustrating a method of scanning a hologram security code according to an embodiment of the present invention, and FIG. 8 is a diagram showing a scanning direction guidance text provided through a user terminal according to an embodiment of the present invention.
도 7을 참조하면, 사용자는 사용자 단말(100)의 카메라(170)를 사전에 결정된 스캔 방향(50)으로 천천히 움직이면서 플레이트(30)에 기록된 홀로그램 보안 코드를 스캔한다.Referring to FIG. 7, the user scans the holographic security code recorded on the plate 30 while slowly moving the camera 170 of the user terminal 100 in a predetermined scanning direction 50.
홀로그램 보안 코드가 기록된 플레이트(30)은 특정 매질(예, 유리)로 이루어진 판 부재(32)와 판 부재(34)상에 코팅된 필름(34)을 포함하며, 상기 필름(34)에는 홀로그램 보안 코드가 기록된다. The plate 30 on which the hologram security code is recorded includes a plate member 32 made of a specific medium (e.g., glass) and a film 34 coated on the plate member 34, and the film 34 includes a hologram. A security code is recorded.
광원(40)으로부터 방출된 광(예, LED 광)을 상기 필름(34)에 기록된 홀로그램 보안 코드에 조사하면, 서로 다른 시점(view point)에서 서로 다른 홀로그램 이미지들(예, 도 2의 10A, 10B, 10C 및 10D)을 시인할 수 있다.When light (e.g., LED light) emitted from the light source 40 is irradiated to the holographic security code recorded on the film 34, different holographic images (e.g., 10A in FIG. 2) are generated from different viewpoints. , 10B, 10C and 10D) can be recognized.
따라서, 사용자 단말(100)의 카메라(170)는 정해진 스캔 방향으로 상기 필름(34)에 기록된 홀로그램 보안 코드를 스캔하면, 서로 다른 홀로그램 이미지들(예, 도 2의 10A, 10B, 10C 및 10D)을 획득할 수 있다.Accordingly, when the camera 170 of the user terminal 100 scans the hologram security code recorded on the film 34 in a predetermined scanning direction, different hologram images (e.g., 10A, 10B, 10C, and 10D in FIG. 2) are displayed. ) can be obtained.
카메라(170)는 사용자 단말(100)의 스캔 방향에 따라 실제 QR 코드값을 갖는 홀로그램 이미지들(10A, 10B, 10C 및 10D)을 획득할 수 있다. 이러한 스캔 방향은 사용자 단말(100)에 설치된 앱의 실행이 되면, 사용자 단말(100)의 디스플레이(150)를 통해 표시될 수 있다. 그러면, 사용자는 사용자 단말(100)의 디스플레이(150)를 통해 표시되는 스캔 방향을 확인한 후 사용자 단말(100)을 움직여서 홀로그램 보안 코드에 대한 스캐닝을 시작한다. The camera 170 may acquire hologram images 10A, 10B, 10C, and 10D having actual QR code values according to the scanning direction of the user terminal 100. This scan direction may be displayed on the display 150 of the user terminal 100 when the app installed on the user terminal 100 is executed. Then, the user checks the scanning direction displayed on the display 150 of the user terminal 100 and then moves the user terminal 100 to start scanning the hologram security code.
스캔 방향에 의해 실제 QR 코드값을 갖는 홀로그램 이미지들을 획득할 수 있기 때문에, 스캔 방향은 보안측면에서 중요한 정보들 중에 하나이고, 서버(도 1의 300)과 공유한다.Since holographic images with actual QR code values can be obtained by the scanning direction, the scanning direction is one of the important pieces of information in terms of security, and is shared with the server (300 in FIG. 1).
디스플레이(150)를 통해 안내하는 스캔 방향은, 예를 들면, 위쪽에서 아래쪽으로 이동하는 방향, 아래쪽에서 위쪽으로 이동하는 방향, 좌측에서 우측으로 이동하는 방향, 우측에서 좌측으로 이동하는 방향 등과 같이 다양하게 결정될 수 있다. 도 8에서는 사용자 단말(100)의 디스플레이(150)를 통해 안내하는 스캔 방향의 안내 문구로서, 예를 들면, "위쪽에서 아래쪽으로 스캔해주세요"와 같은 안내 문구가 디스플레이(150)에 표시될 수 있다.The scanning direction guided through the display 150 varies, for example, from top to bottom, from bottom to top, from left to right, from right to left, etc. can be decided. In FIG. 8 , guidance text for the scanning direction is provided through the display 150 of the user terminal 100. For example, guidance text such as “Please scan from top to bottom” may be displayed on the display 150. .
스캔 과정에서 획득한 각 홀로그램 이미지에는 사용자 단말(100)의 모션 데이터(위치값 및/또는 자세값)에 따라 식별되는 번호가 부여된다. 예를 들면, 도 7에 도시된 바와 같이, 제1 채널(CH 1)의 홀로그램 이미지(10A)를 획득한 시점(view point)에서 측정된 사용자 단말(100)의 모션 데이터에 번호 '①'이 부여되고, 제2 채널(CH 2)의 홀로그램 이미지(10B)를 획득한 시점에서 측정된 사용자 단말(100)의 모션 데이터에 번호 '②'가 부여되고, 제3 채널(CH 3)의 홀로그램 이미지(10C)를 획득한 시점에서 측정된 사용자 단말(100)의 모션 데이터에 번호 '③'가 부여되고, 제4 채널(CH 4)의 홀로그램 이미지(10C)를 획득한 시점에서 측정된 사용자 단말(100)의 모션 데이터에 번호 '④'가 부여될 수 있다.Each hologram image acquired during the scanning process is assigned a number identified according to the motion data (position value and/or posture value) of the user terminal 100. For example, as shown in FIG. 7, the number '①' is included in the motion data of the user terminal 100 measured at the viewpoint at which the holographic image 10A of the first channel (CH 1) is acquired. The number '②' is assigned to the motion data of the user terminal 100 measured at the time of acquiring the holographic image 10B of the second channel (CH 2), and the holographic image of the third channel (CH 3) The number '③' is assigned to the motion data of the user terminal 100 measured at the time of acquiring (10C), and the user terminal measured at the time of acquiring the holographic image 10C of the fourth channel (CH 4) ( The number '④' may be assigned to the motion data of 100).
사용자 단말(100)의 모션 데이터는 사용자 단말(100)의 스캔 과정에서 사용자 단말(100)이 어떤 시점(어떤 위치, 어떤 방향 및 어떤 자세)에서 홀로그램 보안 코드를 스캔했을 때 유효한 코드값(실제 QR 코드값(A, B, C 및 D))을 갖는 홀로그램 이미지를 획득할 수 있는지를 알려주는 중요 정보이다.The motion data of the user terminal 100 is a valid code value (actual QR) when the user terminal 100 scans the hologram security code at a certain point in time (which position, which direction, and which posture) during the scanning process of the user terminal 100. This is important information that indicates whether a holographic image with code values (A, B, C, and D) can be obtained.
모션 데이터와 홀로그램 이미지에 부여되는 번호 사이의 매핑 관계는 사용자 단말(100)과 서버(300)가 사전에 공유하거나, 사용자 단말(100)이 모션 데이터와 상기 모션 데이터에 따라 정의된 번호를 서버(300)로 전송하여, 사용자 단말(100)과 서버(300)가 공유할 수도 있다.The mapping relationship between the motion data and the number assigned to the holographic image is shared in advance between the user terminal 100 and the server 300, or the user terminal 100 sends the motion data and the number defined according to the motion data to the server ( 300) and may be shared between the user terminal 100 and the server 300.
도 9는 본 발명의 실시 예에 따른 원본 보안 코드의 복원 과정을 설명하기 위한 도면이다.Figure 9 is a diagram for explaining the restoration process of the original security code according to an embodiment of the present invention.
도 9를 참조하면, 복원 과정을 설명하기에 앞서, 제2 채널(CH 2)의 홀로그램 이미지(10B)에 번호 ①이 부여되고, 제3 채널(CH 3)의 홀로그램 이미지(10C)에 번호 ②가 부여되고, 제1 채널(CH 1)의 홀로그램 이미지(10A)에 번호 ③이 부여되고, 제4 채널(CH 4)의 홀로그램 이미지(10D)에 번호 ④가 부연된 경우를 가정한다. 그리고, 서버(도 1의 300)로부터 홀로그램 이미지들(10A~10D)의 결합(조합) 순서, 즉, 상기 번호들의 순서가 "③→①→②→④"인 정보를 수신한 것으로 가정한다. Referring to FIG. 9, before explaining the restoration process, the number ① is assigned to the holographic image 10B of the second channel (CH 2), and the number ② is assigned to the holographic image 10C of the third channel (CH 3). is assigned, number ③ is assigned to the hologram image 10A of the first channel (CH 1), and number ④ is amplified to the hologram image 10D of the fourth channel (CH 4). In addition, it is assumed that information is received from the server (300 in FIG. 1) about the combination (combination) order of the hologram images 10A to 10D, that is, the order of the numbers is “③→①→②→④.”
먼저, 카메라가 스캐닝하여 획득한 각 홀로그램 이미지에서 실제 코드값(예, QR 코드값)이 기록된 이미지 영역을 추출한다. 예를 들면, 제2 채널(CH 2)의 홀로그램 이미지(10B)에서 실제 코드값이 기록된 이미지 영역(B)을 클리핑(clipping: 잘라 내기)하여 부분 이미지(B)을 추출하고, 제3 채널(CH 3)의 홀로그램 이미지(10C)에서 실제 코드값이 기록된 이미지 영역을 클리핑하여 부분 이미지(C)을 추출하고, 제1 채널(CH 1)의 홀로그램 이미지(10A)에서 실제 코드값이 기록된 이미지 영역(A)을 클리핑하여 부분 이미지(A)을 추출한다. 그리고, 제4 채널(CH 4)의 홀로그램 이미지(10D)에서 실제 코드값이 기록된 이미지 영역(D)을 클리핑하여 부분 이미지(D)를 추출한다. First, the image area where the actual code value (e.g., QR code value) is recorded is extracted from each hologram image obtained by scanning by a camera. For example, a partial image (B) is extracted by clipping the image area (B) where the actual code value is recorded in the hologram image (10B) of the second channel (CH 2), and the partial image (B) is extracted from the hologram image (10B) of the second channel (CH 2) A partial image (C) is extracted by clipping the image area where the actual code value is recorded in the holographic image (10C) of (CH 3), and the actual code value is recorded in the holographic image (10A) of the first channel (CH 1). Extract a partial image (A) by clipping the image area (A). Then, a partial image (D) is extracted by clipping the image area (D) where the actual code value is recorded in the hologram image (10D) of the fourth channel (CH 4).
클리핑 영역의 위치는 홀로그램 이미지들(10A~10D)의 결합(조합) 순서를 나타내는 정보에 포함되어 서버(300)로부터 제공되거나 사전에 약속된 규칙에 따라 결정될 수 있다. 예를 들면, 특정 모션 데이터에 의해 정의되는 시점(view point)에서 스캔한 홀로그램 이미지(예, 10B)에서는 그 홀로그램 이미지(예, 10B) 내에서 우측 상부 영역의 이미지(예, B)를 클리핑 영역으로 사전에 정의하고, 다른 특정 모션 데이터에 의해 정의되는 시점에서 스캔한 홀로그램 이미지(예, 10C)에서는 그 홀로그램 이미지(예, 10C) 내에서 좌측 하부 영역의 이미지(예, C)를 클리핑 영역으로 사전 정의할 수 있다.The location of the clipping area may be included in information indicating the combination (combination) order of the holographic images 10A to 10D and provided from the server 300, or may be determined according to prearranged rules. For example, in a holographic image (e.g., 10B) scanned at a view point defined by specific motion data, the image in the upper right area (e.g., B) within the holographic image (e.g., 10B) is used as a clipping area. In a holographic image (e.g., 10C) scanned at a time defined by other specific motion data, the image of the lower left area (e.g., C) within the holographic image (e.g., 10C) is used as a clipping area. Can be defined in advance.
각 홀로그램 이미지에서 추출한 부분 이미지들(B, C, A, D)는 서버(300)로부터 수신된 결합(조합) 순서를 나타내는 상기 번호들의 순서, "③→①→②→④"에 따라 결합(조합)될 수 있다.Partial images (B, C, A, D) extracted from each hologram image are combined according to the order of the numbers, "③→①→②→④", which indicates the combination (combination) order received from the server 300 ( combination) can be achieved.
예를 들면, 부분 이미지(B)는 우측 상부에 배치하고, 부분 이미지(C)는 좌측 하부에 배치하고, 부분 이미지(A)는 좌측 상부에 배치하고, 부분 이미지(D)는 우측 하부에 배치한 후, 상기 부분 이미지들(B, C, A, D)을 결합(조합)함으로써, 원본 보안 코드(10)를 복원할 수 있다.For example, the partial image (B) is placed in the upper right, the partial image (C) is placed in the lower left, the partial image (A) is placed in the upper left, and the partial image (D) is placed in the lower right. Afterwards, the original security code 10 can be restored by combining (combining) the partial images (B, C, A, D).
이후, 원본 보안 코드(10)가 복원되면, 복원된 원본 보안 코드(10)의 완전한 코드값을 읽어내기 위한 판독 과정이 수행된다.Afterwards, when the original security code 10 is restored, a reading process is performed to read the complete code value of the restored original security code 10.
도 10은 본 발명의 실시 예에 따른 홀로그램 보안 코드를 판독하기 위한 방법을 설명하기 위한 흐름도로서, 도 4의 S420 내지 S440을 상세히 설명하기 위한 흐름도이다.FIG. 10 is a flowchart for explaining a method for reading a hologram security code according to an embodiment of the present invention, and is a flowchart for explaining steps S420 to S440 of FIG. 4 in detail.
도 10을 참조하면, 먼저, S610에서, 사용자 조작에 따라 사용자 단말(100)에 설치된 앱을 실행하는 과정이 수행된다. Referring to FIG. 10, first, in S610, a process of executing an app installed on the user terminal 100 according to a user operation is performed.
이어, S620에서, 앱이 디스플레이(150)를 통해 스캔 방향을 안내하는 과정이 수행된다. 여기서, 스캔 방향은 사전에 결정된 스캔 방향일 수 있으며, 매 판독시마다 주기적으로 변경될 수 있다.Next, in S620, a process in which the app guides the scanning direction through the display 150 is performed. Here, the scan direction may be a predetermined scan direction and may be changed periodically at each reading.
이어, S630에서, 상기 사용자가 상기 디스플레이를 통해 안내하는 상기 스캔 방향에 따라 상기 사용자 단말을 움직이면서 홀로그램 보안 코드를 스캐닝하는 과정이 수행된다.Next, in S630, a process of scanning a hologram security code is performed while the user moves the user terminal according to the scanning direction guided through the display.
이어, 카메라(170)가 서로 다른 시점들(view points)에서 스캔된 다수의 홀로그램 이미지들을 획득하는 과정이 수행된다. 여기서, 상기 다수의 홀로그램 이미지들을 획득한 이후 상기 프로세서가 각 홀로그램 이미지에 번호를 부여한 후, 메모리(130)에 상기 다수의 홀로그램 이미지들과 각 홀로그램 이미지에 부여된 번호를 매핑하여 저장할 수 있다.Next, a process is performed in which the camera 170 acquires a plurality of hologram images scanned from different viewpoints. Here, after acquiring the plurality of hologram images, the processor assigns a number to each hologram image, and then maps and stores the plurality of hologram images and the numbers assigned to each hologram image in the memory 130.
실시 예에서, 상기 각 홀로그램 이미지에 번호를 부여하는 과정은 상기 사용자 단말의 모션 인식 센서(180)가 각 홀로그램 이미지를 획득한 시점(view point)에서 상기 사용자 단말의 모션 데이터를 측정하는 과정과 상기 모션 데이터에 따라 정의된 번호를 각 홀로그램 이미지에 부여하는 과정을 포함할 수 있다.In an embodiment, the process of assigning a number to each holographic image includes the process of measuring motion data of the user terminal at the viewpoint at which the motion recognition sensor 180 of the user terminal acquires each holographic image. It may include a process of assigning a number defined according to motion data to each hologram image.
이어, 사용자 단말(100) 또는 프로세서(120)가 상기 다수의 홀로그램 이미지들을 결합하여 원본 보안 코드를 복원하는 과정이 수행된다.Next, the user terminal 100 or the processor 120 performs a process of restoring the original security code by combining the plurality of hologram images.
실시 예에서, 상기 원본 보안 코드를 복원하는 과정은 상기 사용자 단말(100)의 통신 인터페이스(160)가 상기 서버(300)로부터 상기 번호들의 순서를 나타내는 정보를 수신하는 과정과 상기 정보에 포함된 순서에 따라 상기 다수의 홀로그램 이미지들을 결합하여 상기 원본 보안 코드를 복원하는 과정을 포함할 수 있다.In an embodiment, the process of restoring the original security code includes the communication interface 160 of the user terminal 100 receiving information indicating the order of the numbers from the server 300 and the order included in the information. Accordingly, it may include a process of restoring the original security code by combining the plurality of hologram images.
이어, 사용자 단말(100) 또는 프로세서(120)가 상기 복원된 원본 보안 코드를 판독하는 과정이 수행된다.Next, the user terminal 100 or the processor 120 performs a process of reading the restored original security code.
이상 설명한 바와 같이, 본 발명은 보안 코드(예, QR 코드)를 하나의 이미지가 아니라 다수의 이미지를 하나의 매질에 기록하는 홀로그램 방식으로 제작함으로써, 이러한 홀로그램 형태의 보안 코드를 판독함에 있어서 적어도 2개의 이미지를 조합해야만 QR 코드의 판독이 가능하기 때문에, 보안 코드의 복제 및 판독을 원천적으로 차단할 수 있는 효과를 제공할 수 있다.As described above, the present invention produces a security code (e.g., QR code) using a holographic method that records multiple images, rather than a single image, on one medium, so that when reading this holographic security code, at least two Since the QR code can only be read by combining two images, it can provide the effect of fundamentally blocking the duplication and reading of the security code.
본 발명은 수만 내지 수십만 개의 시점 이미지들을 획득하기가 매우 어려운 대상 물체에 대해서도 사용자 단말(예, 스마트 폰)의 동영상 촬영 기능을 통해 획득한 수십 개의 이미지들만으로도 홀로그램 콘텐츠를 간단하게 제작할 수 있는 기술분야에서 유용하게 활용될 수 있다.The present invention is a technical field in which hologram content can be easily produced with only dozens of images acquired through the video capture function of a user terminal (e.g., a smart phone) even for a target object for which it is very difficult to obtain tens to hundreds of thousands of viewpoint images. It can be usefully used in .

Claims (12)

  1. 사용자 단말의 카메라에 의해, 실제 물체를 촬영하여 m개의 시점 이미지들을 생성하는 단계;generating m viewpoint images by photographing a real object using a camera of a user terminal;
    서버에 구비된 인공 지능 모델에 의해, 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하는 단계;generating n viewpoint images larger than m by rendering the m viewpoint images using an artificial intelligence model provided in a server;
    홀로그램 프린터에 의해, 상기 n개의 시점 이미지들에 대응하는 홀로그램 콘텐츠를 기록한 홀로그램 기록 매체를 제조하는 단계;manufacturing a hologram recording medium on which hologram content corresponding to the n viewpoint images is recorded using a hologram printer;
    를 포함하는 홀로그램 제작 방법.A hologram production method including.
  2. 제1항에서,In paragraph 1:
    상기 m개의 시점 이미지들을 생성하는 단계는,The step of generating the m viewpoint images is,
    상기 사용자 단말의 카메라가 임의의 방향으로 움직이면서 상기 실제 물체를 촬영하여 상기 실제 물체의 동영상을 획득하는 단계;Obtaining a video of the real object by photographing the real object while the camera of the user terminal moves in a random direction;
    상기 사용자 단말의 프로세서가 상기 동영상으로부터 상기 m개의 시점 이미지들을 추출하는 단계; 및Extracting, by the processor of the user terminal, the m viewpoint images from the video; and
    상기 사용자 단말의 통신 장치가 상기 m개의 시점 이미지들을 통신 네트워크를 통해 상기 서버로 송신하는 단계;transmitting, by the communication device of the user terminal, the m viewpoint images to the server through a communication network;
    를 포함하는 홀로그램 제작 방법.A hologram production method including.
  3. 제1항에서,In paragraph 1:
    상기 n개의 시점 이미지들을 생성하는 단계는The step of generating the n viewpoint images is
    상기 NeRF(Neural Radiance Fields) 기반의 상기 n개의 시점 이미지들을 생성하는 단계인 홀로그램 제작 방법.A hologram production method that generates the n viewpoint images based on the NeRF (Neural Radiance Fields).
  4. 제1 사용자 단말의 카메라가 원본 보안 코드를 촬영한 동영상으로부터 m개의 시점 이미지들을 추출하고, 인공 지능 모델을 기반으로 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하고, 홀로그램 프린터를 이용하여 상기 n개의 시점 이미지들에 대응하는 홀로그램 보안 코드를 제작하는 단계;The camera of the first user terminal extracts m viewpoint images from the video in which the original security code is captured, renders the m viewpoint images based on an artificial intelligence model to generate n viewpoint images larger than m, and generates a hologram. producing a hologram security code corresponding to the n viewpoint images using a printer;
    제2 사용자 단말의 카메라가 상기 홀로그램 보안 코드를 스캔하여 다수의 홀로그램 이미지들을 획득하는 단계;Obtaining a plurality of hologram images by scanning the hologram security code with a camera of a second user terminal;
    상기 제2 사용자 단말의 프로세서에 의해, 상기 다수의 홀로그램 이미지들을 결합하여 원본 보안 코드를 복원하는 단계; 및restoring the original security code by combining the plurality of hologram images, by the processor of the second user terminal; and
    상기 제2 사용자 단말의 프로세서가 상기 원본 보안 코드를 판독하는 단계Reading the original security code by the processor of the second user terminal
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  5. 제4항에서,In paragraph 4,
    상기 홀로그램 보안 코드를 제작하는 단계Step of producing the hologram security code
    상기 제1 사용자 단말의 카메라가 임의의 방향으로 움직이면서 상기 원본 보안 코드를 촬영하여 상기 원본 보안 코드의 동영상을 획득하는 단계;Obtaining a video of the original security code by photographing the original security code while the camera of the first user terminal moves in a random direction;
    상기 제1 사용자 단말의 프로세서가 상기 동영상으로부터 상기 m개의 시점 이미지들을 추출하는 단계;Extracting, by the processor of the first user terminal, the m viewpoint images from the video;
    상기 제1 사용자 단말의 통신 장치가 상기 m개의 시점 이미지들을 서버로 송신하는 단계;transmitting, by the communication device of the first user terminal, the m viewpoint images to a server;
    상기 서버의 인공 지능 모델이 상기 m개의 시점 이미지들을 렌더링하여 상기 m보다 큰 n개의 시점 이미지들을 생성하는 단계The artificial intelligence model of the server renders the m viewpoint images to generate n viewpoint images larger than the m.
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  6. 제4항에서,In paragraph 4,
    상기 인공 지능 모델은 NeRF(Neural Radiance Fields) 모델인 것인 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code, wherein the artificial intelligence model is a Neural Radiance Fields (NeRF) model.
  7. 제4항에서, In paragraph 4,
    상기 다수의 홀로그램 이미지들을 획득하는 단계는,The step of acquiring the plurality of holographic images is,
    상기 홀로그램 보안 코드를 사전에 결정된 스캔 방향으로 스캔하여 상기 다수의 홀로그램 이미지들을 획득하는 단계인 것인 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code, comprising the step of scanning the hologram security code in a predetermined scanning direction to obtain the plurality of hologram images.
  8. 제4항에서,In paragraph 4,
    상기 다수의 홀로그램 이미지들을 획득하는 단계는,The step of acquiring the plurality of holographic images is,
    상기 다수의 홀로그램 이미지들을 획득한 이후 상기 프로세서가 각 홀로그램 이미지에 번호를 부여하는 단계; 및After acquiring the plurality of holographic images, the processor assigns a number to each holographic image; and
    상기 프로세서가 상기 사용자 단말의 메모리에 상기 다수의 홀로그램 이미지들과 각 홀로그램 이미지에 부여된 번호를 매핑하여 저장하는 단계The processor mapping and storing the plurality of hologram images and the numbers assigned to each hologram image in the memory of the user terminal.
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  9. 제8항에서,In paragraph 8:
    상기 각 홀로그램 이미지에 번호를 부여하는 단계는,The step of assigning a number to each holographic image is,
    상기 사용자 단말의 모션 인식 센서가, 각 홀로그램 이미지를 획득한 시점에서 상기 사용자 단말의 모션 데이터를 측정하는 단계; 및Measuring, by the motion recognition sensor of the user terminal, motion data of the user terminal at the point in time when each holographic image is acquired; and
    상기 모션 데이터에 따라 정의된 번호를 각 홀로그램 이미지에 부여하는 단계Assigning a number defined according to the motion data to each hologram image.
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  10. 제8항에서,In paragraph 8:
    상기 원본 보안 코드를 복원하는 단계는,The step of restoring the original security code is,
    상기 사용자 단말의 통신 인터페이스가 상기 서버로부터 상기 번호들의 순서를 나타내는 정보를 수신하는 단계; 및A communication interface of the user terminal receiving information indicating the order of the numbers from the server; and
    상기 정보에 포함된 순서에 따라 상기 다수의 홀로그램 이미지들을 결합하여 상기 원본 보안 코드를 복원하는 단계Recovering the original security code by combining the plurality of hologram images according to the order included in the information
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  11. 제4항에서,In paragraph 4,
    상기 다수의 홀로그램 이미지들을 획득하는 단계는,The step of acquiring the plurality of holographic images is,
    상기 사용자 단말에 설치된 앱을 실행하는 단계;Executing an app installed on the user terminal;
    상기 앱이 상기 사용자 단말의 디스플레이를 통해 사전에 결정된 스캔 방향을 표시하는 단계;Displaying a predetermined scanning direction by the app on the display of the user terminal;
    상기 사용자가 상기 디스플레이에 표시된 상기 스캔 방향에 따라 상기 사용자 단말을 이동시키는 단계; 및The user moving the user terminal according to the scanning direction displayed on the display; and
    상기 사용자 단말의 이동에 따라 상기 카메라가 상기 홀로그램 보안 코드를 스캔하여 상기 다수의 홀로그램 이미지들을 획득하는 단계Obtaining the plurality of hologram images by having the camera scan the hologram security code as the user terminal moves.
    를 포함하는 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code including.
  12. 제11항에서,In paragraph 11:
    상기 디스플레이를 통해 표시되는 스캔 방향은 주기적으로 변경되는 것인 홀로그램 보안 코드를 판독하기 위한 방법.A method for reading a hologram security code, wherein the scanning direction displayed through the display changes periodically.
PCT/KR2022/021557 2022-12-15 2022-12-28 Hologram production method using video capturing function of user terminal, and method for reading hologram security code produced by same WO2024128393A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220176385A KR20240093270A (en) 2022-12-15 2022-12-15 A method for generating hologram contents using a video recording function of a user terminal and a method for reading a holographic security code generated by the method
KR10-2022-0176385 2022-12-15

Publications (1)

Publication Number Publication Date
WO2024128393A1 true WO2024128393A1 (en) 2024-06-20

Family

ID=91486005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/021557 WO2024128393A1 (en) 2022-12-15 2022-12-28 Hologram production method using video capturing function of user terminal, and method for reading hologram security code produced by same

Country Status (2)

Country Link
KR (1) KR20240093270A (en)
WO (1) WO2024128393A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206425B1 (en) * 2011-07-20 2012-11-29 한국과학기술원 Holographic type security tag, Device and method for recovering of hologram based information
US20150339844A1 (en) * 2013-11-05 2015-11-26 Shenzhen Cloud Cube Information Tech Co., Ltd. Method and apparatus for achieving transformation of a virtual view into a three-dimensional view
KR20160141446A (en) * 2015-06-01 2016-12-09 주식회사 쓰리디팩토리 Contents convert method, apparatus, and program for layered hologram
KR20210108315A (en) * 2020-02-25 2021-09-02 한국전자통신연구원 System and method for digital hologram synthesis and process using deep learning
KR20220080825A (en) * 2020-12-08 2022-06-15 한국전자기술연구원 Real-time hologram generation device using optical neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206425B1 (en) * 2011-07-20 2012-11-29 한국과학기술원 Holographic type security tag, Device and method for recovering of hologram based information
US20150339844A1 (en) * 2013-11-05 2015-11-26 Shenzhen Cloud Cube Information Tech Co., Ltd. Method and apparatus for achieving transformation of a virtual view into a three-dimensional view
KR20160141446A (en) * 2015-06-01 2016-12-09 주식회사 쓰리디팩토리 Contents convert method, apparatus, and program for layered hologram
KR20210108315A (en) * 2020-02-25 2021-09-02 한국전자통신연구원 System and method for digital hologram synthesis and process using deep learning
KR20220080825A (en) * 2020-12-08 2022-06-15 한국전자기술연구원 Real-time hologram generation device using optical neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PARK: "KETI Develops Artificial Intelligence-Based Hologram Printing Technology", ETNEWS - THE ELECTRONIC TIMES, 20 October 2022 (2022-10-20), pages 1, XP093180490, Retrieved from the Internet <URL:https://www.etnews.com/20221020000197> *

Also Published As

Publication number Publication date
KR20240093270A (en) 2024-06-24

Similar Documents

Publication Publication Date Title
WO2018128472A1 (en) Virtual reality experience sharing
WO2020111426A1 (en) Method and system of presenting moving images or videos corresponding to still images
WO2013077643A1 (en) Apparatus and method for providing augmented reality service for mobile terminal
WO2017142278A1 (en) Apparatus and method for providing dynamic panorama function
WO2020162673A1 (en) Electronic device for providing avatar animation and method thereof
WO2015105345A1 (en) Method and apparatus for screen sharing
WO2016060424A1 (en) Method for connecting to external devices and electronic device implementing the same
WO2011053027A2 (en) Image providing system and method
WO2017111332A1 (en) Electronic device and control method for electronic device
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2021132812A1 (en) Display apparatus and control method thereof
WO2015147437A1 (en) Mobile service system, and method and device for generating location-based album in same system
WO2021066565A1 (en) Image processing method and electronic device supporting the same
WO2015126022A1 (en) Method for providing toy assembly video
WO2021157893A1 (en) Electronic device and method for saving image
WO2020171558A1 (en) Method of providing augmented reality contents and electronic device therefor
WO2024128393A1 (en) Hologram production method using video capturing function of user terminal, and method for reading hologram security code produced by same
WO2020241973A1 (en) Display apparatus and control method thereof
WO2019164196A1 (en) Electronic device and method for recognizing characters
WO2021201593A1 (en) Data providing method and electronic device supporting same
WO2024053794A1 (en) Method and user terminal for reading hologram security code
WO2020075925A1 (en) Mobile device and control method for mobile device
WO2019164025A1 (en) Location-based image providing method and device therefor
WO2022108310A1 (en) Electronic device for correcting meta information of image and method for operating same