WO2018174499A2 - Method for implementing augmented reality image by using virtual marker and vector - Google Patents

Method for implementing augmented reality image by using virtual marker and vector Download PDF

Info

Publication number
WO2018174499A2
WO2018174499A2 PCT/KR2018/003188 KR2018003188W WO2018174499A2 WO 2018174499 A2 WO2018174499 A2 WO 2018174499A2 KR 2018003188 W KR2018003188 W KR 2018003188W WO 2018174499 A2 WO2018174499 A2 WO 2018174499A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
augmented reality
layer
computing device
marker
Prior art date
Application number
PCT/KR2018/003188
Other languages
French (fr)
Korean (ko)
Other versions
WO2018174499A3 (en
Inventor
이승학
Original Assignee
주식회사 라이커스게임
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170115841A external-priority patent/KR102000960B1/en
Application filed by 주식회사 라이커스게임 filed Critical 주식회사 라이커스게임
Priority to JP2020501108A priority Critical patent/JP2020514937A/en
Publication of WO2018174499A2 publication Critical patent/WO2018174499A2/en
Publication of WO2018174499A3 publication Critical patent/WO2018174499A3/en
Priority to US16/551,039 priority patent/US20190378339A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Definitions

  • the present invention relates to a method for implementing augmented reality image using a vector.
  • Augmented reality refers to computer graphics technology that blends real world images and virtual images that users see with one image. Augmented reality synthesizes an image relating to a virtual object or information to a specific object of the real world image.
  • physical marker images or location information are used to identify an object to synthesize a virtual image.
  • the camera of the computing device may not accurately photograph the physical marker image due to the shaking of the user's hand, and thus, the augmented reality image may not be precisely implemented.
  • location information there is a problem that the augmented reality image is not implemented due to the limited or malfunction of the GPS location recognition of the computing device according to the influence of the surrounding environment.
  • An object of the present invention is to provide a method and program for implementing augmented reality image that can prevent the augmented reality content is not displayed and disconnected continuously as the physical marker image shakes.
  • a method of implementing an augmented reality image implemented by a computing device including: obtaining a first layer indicating an image of a real world acquired by the computing device; Identifying at least one object included in the first layer; Determining a first marker image based on an image corresponding to the at least one object among pre-stored images; Matching a position of the at least one object with the first marker image; Generating a second layer based on the first marker image; Generating an augmented reality image by combining the first layer and the second layer; And outputting the augmented reality image.
  • the augmented reality content is not displayed continuously and is cut off as the marker image is shaken in the augmented reality image.
  • FIG. 1 is a schematic conceptual view illustrating a virtual reality image implementation method according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating the inside of a terminal that provides augmented reality.
  • FIG. 3 is a flowchart illustrating a first embodiment of a method for providing augmented reality.
  • FIG. 4 is a flowchart illustrating a second embodiment of a method for providing augmented reality.
  • a method of implementing an augmented reality image implemented by a computing device including: obtaining a first layer indicating an image of a real world acquired by the computing device; Identifying at least one object included in the first layer; Determining a first marker image based on an image corresponding to the at least one object among pre-stored images; Matching a position of the at least one object with the first marker image; Generating a second layer based on the first marker image; Generating an augmented reality image by combining the first layer and the second layer; And outputting the augmented reality image.
  • providing a pre-stored image to the user Obtaining a user command including image information from the user; And determining a second marker image based on the image information.
  • the second marker image may be further considered in generating the second layer.
  • the pre-stored image may include an outline vector value.
  • the user command may include contour vector information of an image to be used as the second marker image.
  • the user command may include information of an inner point and an outer point of the image to be used as the second marker image.
  • the first marker image may be transparently generated to be recognized by the computing device and not to be recognized by the user.
  • the second layer may include augmented reality content corresponding to at least one of the first marker image and the second marker image, and the augmented reality content may mean a virtual image that appears in the augmented reality image.
  • the object arrangement state of the first layer may be checked based on a vector, and the providing form of the augmented reality content may be determined based on the object arrangement state.
  • the present invention may include a computer readable medium recording a program for executing the augmented reality image implementation method described.
  • the application may include an application for a terminal device stored in a medium in order to execute the augmented reality image implementation method described in combination with the computing device, which is hardware.
  • An augmented reality image implementation method using vectors according to an embodiment of the present invention is realized by a computing device.
  • the augmented reality image implementation method may be implemented as an application, stored in the computing device and performed by the computing device.
  • the computing device may be provided as a mobile device such as a smart phone, a tablet, and the like, but is not limited thereto.
  • a computing device may be provided with a camera and may process and store data. That is, the computing device may be provided as a wearable device such as glasses or a band equipped with a camera. Any computing device that is not illustrated may be provided.
  • the computing device may communicate with other computing devices or servers via a network.
  • the method of implementing augmented reality images may be realized by linking the computing device with another computing device or server.
  • the computing device 100 captures a space 10 of a real world to obtain a real world image.
  • a plurality of real objects 11, 12, 13, and 14 exist in real world space 10.
  • the plurality of real objects 11, 12, 13, and 14 may include any object in two or three dimensions.
  • the plurality of real objects 11, 12, 13, and 14 may have different or similar shapes.
  • the computing device 100 may distinguish objects based on these morphological differences.
  • the computing device 100 may identify the plurality of objects 21, 22, 23, 24 in the real world image.
  • the computing device 100 may extract the outlines of the identified plurality of objects 21, 22, 23, and 24.
  • the computing device 100 determines an object matching the pre-stored image among the plurality of objects 21, 22, 23, and 24 by using the vector value of the contour of the pre-stored image.
  • the computing device 100 may store image samples corresponding to the plurality of objects 21, 22, 23, and 24 in advance. Data regarding the contour of the image sample corresponding to the plurality of objects 21, 22, 23, and 24 may be stored in advance.
  • the computing device 100 may retrieve an image sample similar to the shape of the previously stored first object 21.
  • the computing device 100 may use a pre-stored image sample as a marker image to be described later.
  • Types of marker images may include a first marker image and a second marker image.
  • the first marker image may indicate a marker image obtained based on the first layer to be described later. That is, the first marker image may indicate the marker image determined based on the actual image, not determined by the user. For example, suppose that the first layer reflecting the real image has a calendar and a frame distinguished from the background, where the first marker image is a transparent marker generated based on the outline and shape of the calendar and the frame in the first layer. Can be.
  • the marker may play a role of generating augmented reality content later.
  • the second marker image may indicate the marker image obtained based on the information input from the user.
  • the user may arbitrarily set augmented reality content (stars, explosions, characters, etc.) to appear on the display screen.
  • the second marker image may be used while the user sets the augmented reality content to appear.
  • the second marker image may be a transparent marker previously stored in the first layer based on the outline and shape of the augmented reality content (star, explosion, character, etc.).
  • data relating to the contours of the plurality of objects 21, 22, 23, 24 may be provided in a three-dimensional type.
  • Data relating to the image or contour of the plurality of objects 21, 22, 23, and 24 may be transmitted to and stored in the computing device 100 from another computing device or server.
  • images of the plurality of objects 21, 22, 23, and 24 captured by the user may be stored in the computing device 100 in advance.
  • the data about the contour of the extracted object may be stored in the form of a vector value, that is, as a vector image.
  • the user may indicate a user who implements augmented reality through the computing device 100.
  • an augmented reality image can be precisely implemented.
  • the distance, direction, position, etc. of the object changes from the computing device 100, by appropriately changing the vector image of the object (i.e. any By responding to various forms), it is possible to accurately identify objects within real-world images.
  • the computing device 100 determines an object 22 that matches the object of the plurality of objects 21, 22, 23, and 24, and synthesizes the virtual image 40 around the determined object 22 to augmented reality image.
  • the user may designate at least one area 31, 32 in the real world image.
  • the computing device 100 may use the objects 22 and 24 in the areas 31 and 32 designated by the user as object candidates, and determine whether the corresponding objects 22 and 24 match the objects. Or, in substantially the same way, the user may designate at least one object 22, 24 in the real world image as an object candidate.
  • the computing device 100 may include at least an image acquisition unit 101, a sensor unit 102, an object recognition unit 103, a first layer generator 104, a user command input unit 105, and a user.
  • Command editing unit 106, marker image generation unit 107, image matching unit 108, second layer generation unit 109, second layer storage unit 110, image synthesizing unit 111, display control unit 112 ) May include one of the display 113.
  • Each component may be controlled by a processor (not shown) included in the computing device 100.
  • the image acquirer 101 may capture a real world image.
  • the image acquirer 101 may acquire a real world image by photographing.
  • the real world image may include a plurality of real objects 11, 12, 13, and 14.
  • the plurality of real objects 11, 12, 13, and 14 may include any object in two or three dimensions.
  • the plurality of real objects 11, 12, 13, and 14 may have different or similar shapes.
  • the image acquisition unit 101 may be a camera or the like.
  • the sensor unit 102 may be equipped with devices that support GPS.
  • the sensor unit 102 may recognize a location of the captured image, a direction in which the computing device 100 photographs, a moving speed of the computing device 100, and the like.
  • the object recognizer 103 may recognize the plurality of real objects 11, 12, 13, and 14 based on the outlines of the plurality of real objects 11, 12, 13, and 14 included in the real world image. have.
  • the object recognizer 103 recognizes the plurality of reality objects 11, 12, 13, and 14 based on the contours of the plurality of reality objects 11, 12, 13, and 14, and recognizes the plurality of reality objects ( A plurality of objects 21, 22, 23, and 24 corresponding to 11, 12, 13, and 14 may be created in the computing device 100.
  • the first layer generator 104 may generate a first layer that indicates a real image corresponding to the real world image.
  • the augmented reality image may be implemented through the synthesis of the real image and the virtual image.
  • the first layer generator 104 may generate a real image based on the real world image photographed by the image acquirer 101.
  • the user command input unit 105 may receive a command to output another object distinguished from the plurality of objects 21, 22, 23, and 24 from a user who uses the computing device 100. For example, the user may recognize the plurality of objects 21, 22, 23, and 24 from the computing device 100. If the user wants to replace the first object 21 with another object, the user may input a command to the computing device 100 to request that the first object 21 be replaced with another previously stored object. Alternatively, the user may input a command to the computing device 100 requesting to replace the first object 21 with an object that the user directly inputs (or draws) to the computing device 100.
  • the user command may include information about an inner point and an outer point of the image to be used as the marker image.
  • the user command editing unit 106 may edit at least one of the plurality of objects 21, 22, 23, and 24 based on the user command obtained from the user command input unit 105.
  • the user command editing unit 106 may store the first object 21 in advance. You can edit to change to another object.
  • the marker image generator 107 may generate a marker image based on the plurality of objects 21, 22, 23, and 24.
  • the marker image may be an image for generating augmented reality content.
  • the computing device 100 provides a virtual reality image of making a stone included in the reality image golden. If it is assumed that the second object 22 is a stone, the marker image generator 107 may generate a marker image capable of generating gold based on the vector value of the second object 22.
  • the marker image may be recognized by the computing device 100.
  • the marker image may be generated transparently so as not to be recognized by the user.
  • the image matching unit 108 may correspond to the position between the marker images of the generated plurality of objects 21, 22, 23, and 24 and the plurality of objects 21, 22, 23, and 24.
  • the image matching unit 108 moves the marker image to correspond to the plurality of objects 21, 22, 23, and 24 when the positions of the plurality of objects 21, 22, 23, and 24 change in real time. You can.
  • the second layer generator 109 may recognize marker images of the generated plurality of objects 21, 22, 23, and 24.
  • the second layer generator 109 may generate a second layer in which augmented reality content corresponding to each position of the marker images of the plurality of objects 21, 22, 23, and 24 generated is combined. Augmented reality content may be identified by the user.
  • the second layer storage unit 110 may store the second layer generated from the second layer generator 109.
  • the second layer generated based on the marker image may provide the user with a continuous screen that is not broken even when the positions of the plurality of objects 21, 22, 23, and 24 change in real time.
  • the image synthesizer 111 may generate an augmented reality image by combining the first layer and the second layer. That is, the augmented reality image may be an image including augmented reality content in a real world image. For example, if there are stones in the real world image acquired through the computing device 100, the image synthesizing unit 111 may generate an image in which only the stones are displayed in gold.
  • the display controller 112 may control the display 113 to output an augmented reality image.
  • the display unit 113 may output the augmented reality visual screen.
  • the computing device 100 may generate a first layer based on the real world image (S310).
  • the computing device 100 may identify at least one object in the first layer (S320).
  • the computing device 100 may extract the color, resolution, and vector value of the contour of the first layer.
  • the computing device 100 may identify at least one object in the first layer based on the color, resolution, vector value of the contour, etc. of the first layer.
  • the detailed object identification process may be as follows.
  • the computing device 100 may segment the image based on the resolution of the first layer.
  • the computing device 100 may classify the divided image for each area. When the number of divided images is greater than the preset number, the computing device 100 may merge the hierarchical regions by adjusting the resolution. For example, the computing device 100 may lower the resolution of the first layer so that the computing device 100 may be divided into a plurality of divided images.
  • the computing device 100 may extract an object that can be independently recognized among the divided images.
  • the computing device 100 may determine the first marker image based on the image corresponding to the identified object among the pre-stored images (S330).
  • the computing device 100 may match the position of the object included in the first marker image and the first layer (S340).
  • the computing device 100 may generate a second layer including augmented reality content based on the first marker image (S350).
  • the computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer. Since the augmented reality content is generated based on the first marker image formed based on the first layer rather than the first layer, the augmented reality image including the augmented reality content that does not break even when the first layer is shaken due to the hand shake phenomenon. Can be generated. If the position or viewing angle of the first layer is changed, the computing device 100 stores the stored vector using the vector value of any object of the first layer, the position vector value of the object in the real world, the normal vector value of the object, and the like. The vector value compensation corresponding to the change in the position or the viewing angle in one marker image can be performed.
  • the computing device 100 may correct the vector value of the first marker image by using the vector value of the first marker image corresponding to the frame, the position vector value of the frame of the real world, and the normal vector value of the frame. .
  • the computing device 100 may visually output the augmented reality image through the display 113 (S360).
  • the computing device 100 may generate a first layer based on the real world image (S310).
  • the computing device 100 may provide the user with at least one object or at least one image stored in advance (S311).
  • the computing device 100 may provide the user with at least one object (or image) stored in advance at the request of the user.
  • the computing device 100 may automatically provide the user with at least one object (image) stored in advance even without a user's request.
  • a user who has identified at least one object (or image) previously stored through the computing device 100 inputs a command to the computing device 100 requesting to replace at least one object obtained from the real world image with another previously stored object. can do.
  • a user may directly enter (or draw) an object into computing device 100.
  • the computing device 100 may obtain a command from the user requesting to replace at least one object obtained from the real world image with another object stored in advance (S312). Alternatively, the computing device 100 may obtain a command for requesting the user to replace at least one object obtained from the real world image with an object input (or drawn) directly to the computing device 100.
  • the computing device 100 may determine a second marker image among pre-stored images based on the command (S313).
  • the computing device 100 may identify at least one object in the first layer (S320).
  • the computing device 100 may extract the color, resolution, and vector value of the contour of the first layer.
  • the computing device 100 may identify at least one object in the first layer based on the color, resolution, vector value of the contour, etc. of the first layer.
  • the detailed object identification process may be as follows.
  • the computing device 100 may segment the image based on the resolution of the first layer.
  • the computing device 100 may classify the divided image for each area. When the number of divided images is greater than the preset number, the computing device 100 may merge the hierarchical regions by adjusting the resolution. For example, the computing device 100 may lower the resolution of the first layer so that the computing device 100 may be divided into a plurality of divided images.
  • the computing device 100 may extract an object that can be independently recognized among the divided images.
  • the computing device 100 may determine the first marker image based on the image corresponding to the identified object among the pre-stored images (S330).
  • the computing device 100 may match the position of the object included in the first marker image and the first layer (S340).
  • the computing device 100 may generate a second layer including augmented reality content based on at least one of the first marker image and the second marker image (S351).
  • the computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer. Since the augmented reality content is generated based on at least one of a first marker image formed based on the first layer and a second marker image formed based on a user command, not the first layer, the first layer may be shaken due to the shaking of the hand. An augmented reality image including an augmented reality content that is not broken even in a case may be generated. If the position or viewing angle of the first layer is changed, the computing device 100 stores the stored vector using the vector value of any object of the first layer, the position vector value of the object in the real world, the normal vector value of the object, and the like. The vector value compensation corresponding to the change in the position or the viewing angle of the first marker image or the second marker image may be performed.
  • the computing device 100 may correct the vector value of the first marker image by using the vector value of the first marker image corresponding to the frame, the position vector value of the frame of the real world, and the normal vector value of the frame. .
  • the computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer.
  • the computing device 100 may visually output the augmented reality image through the display 113 (S360).
  • the augmented reality image implementation method according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.
  • the above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program.
  • Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do.
  • the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have.
  • the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
  • the stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device.
  • examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is a computing device-implemented method for implementing an augmented reality image. The method for implementing an augmented reality image comprises the steps of: acquiring a first layer indicating a real world image acquired by a computing device; identifying at least one object contained in the first layer; determining a first marker image on the basis of an image corresponding to the at least one object among previously stored images; matching positions of the first marker image and the at least one object; generating a second layer on the basis of the first marker image; generating an augmented reality image through composition of the first layer and the second layer; and outputting the augmented reality image.

Description

가상 마커 및 벡터를 이용한 증강 현실 영상 구현 방법Augmented Reality Image Implementation Using Virtual Markers and Vectors
본 발명은 벡터를 이용한 증강 현실 영상 구현 방법에 관한 것이다. The present invention relates to a method for implementing augmented reality image using a vector.
증강 현실은 사용자가 눈으로 보는 현실 세계 이미지와 가상 이미지를 혼합하여 하나의 영상으로 보여주는 컴퓨터 그래픽 기술을 말한다. 증강 현실은 현실 세계 이미지의 특정 객체에 가상의 사물 또는 정보에 관한 이미지를 합성한다.Augmented reality refers to computer graphics technology that blends real world images and virtual images that users see with one image. Augmented reality synthesizes an image relating to a virtual object or information to a specific object of the real world image.
종래에는 가상 이미지를 합성할 객체를 식별하기 위하여 물리적 마커이미지 또는 위치 정보(예를 들어, GPS 위치 정보)를 이용하였다. 물리적 마커이미지를 이용하는 경우, 사용자의 손이 떨리는 등을 이유로 하여, 컴퓨팅 장치의 카메라가 물리적 마커이미지를 정확하게 촬영하지 못하고, 이로써 증강 현실 영상이 정교하게 구현되지 못하는 문제점이 존재한다. 한편, 위치 정보를 이용하는 경우, 주변 환경 등의 영향에 따라, 컴퓨팅 장치의 GPS 위치 인식이 제한되거나 오작동함으로 인해서, 증강 현실 영상이 구현되지 못하는 문제점이 존재한다.Conventionally, physical marker images or location information (eg, GPS location information) are used to identify an object to synthesize a virtual image. In the case of using the physical marker image, the camera of the computing device may not accurately photograph the physical marker image due to the shaking of the user's hand, and thus, the augmented reality image may not be precisely implemented. On the other hand, when using location information, there is a problem that the augmented reality image is not implemented due to the limited or malfunction of the GPS location recognition of the computing device according to the influence of the surrounding environment.
따라서, 물리적 마커이미지 및 위치 정보에 비의존적인 증강 현실 영상 구현 방법이 요구된다.Accordingly, there is a need for a method of implementing an augmented reality image that is independent of physical marker images and location information.
본 발명이 해결하고자 하는 과제는 물리적 마커이미지가 흔들림에 따라 증강현실 컨텐츠가 연속적으로 표시되지 못하고 끊기는 것은 방지할 수 있는 증강 현실 영상 구현 방법 및 프로그램을 제공하는 것이다.An object of the present invention is to provide a method and program for implementing augmented reality image that can prevent the augmented reality content is not displayed and disconnected continuously as the physical marker image shakes.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 실현되는 증강 현실 영상 구현 방법은, 컴퓨팅 장치에 의해 획득되는 현실 세계의 이미지를 지시하는 제1레이어를 획득하는 단계; 상기 제1레이어에 포함된 적어도 하나의 객체를 식별하는 단계; 미리 저장된 이미지 중 상기 적어도 하나의 객체와 대응하는 이미지를 기초로 제1마커이미지를 결정하는 단계; 상기 적어도 하나의 객체와 상기 제1마커이미지의 위치를 매칭시키는 단계; 상기 제1마커이미지를 기초로 제2레이어를 생성하는 단계; 상기 제1레이어와 상기 제2레이어의 합성을 통해 증강 현실 영상을 생성하는 단계; 및 상기 증강 현실 영상을 출력하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a method of implementing an augmented reality image implemented by a computing device, the method including: obtaining a first layer indicating an image of a real world acquired by the computing device; Identifying at least one object included in the first layer; Determining a first marker image based on an image corresponding to the at least one object among pre-stored images; Matching a position of the at least one object with the first marker image; Generating a second layer based on the first marker image; Generating an augmented reality image by combining the first layer and the second layer; And outputting the augmented reality image.
상기 본 발명에 의하면, 증강 현실 영상에서 마커이미지가 흔들림에 따라 증강현실 컨텐츠가 연속적으로 표시되지 못하고 끊기는 것은 방지할 수 있는 효과가 있다. According to the present invention, the augmented reality content is not displayed continuously and is cut off as the marker image is shaken in the augmented reality image.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 가상 현실 영상 구현 방법을 설명하기 위한 개략적인 개념도이다.1 is a schematic conceptual view illustrating a virtual reality image implementation method according to an embodiment of the present invention.
도 2는 증강 현실을 제공하는 단말 내부를 도시한 블록도이다.2 is a block diagram illustrating the inside of a terminal that provides augmented reality.
도 3은 증강 현실 제공 방법을 제1 실시에를 도시한 흐름도이다.3 is a flowchart illustrating a first embodiment of a method for providing augmented reality.
도 4는 증강 현실 제공 방법을 제2 실시에를 도시한 흐름도이다.4 is a flowchart illustrating a second embodiment of a method for providing augmented reality.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 컴퓨팅 장치에 의해 실현되는 증강 현실 영상 구현 방법은, 컴퓨팅 장치에 의해 획득되는 현실 세계의 이미지를 지시하는 제1레이어를 획득하는 단계; 상기 제1레이어에 포함된 적어도 하나의 객체를 식별하는 단계; 미리 저장된 이미지 중 상기 적어도 하나의 객체와 대응하는 이미지를 기초로 제1마커이미지를 결정하는 단계; 상기 적어도 하나의 객체와 상기 제1마커이미지의 위치를 매칭시키는 단계; 상기 제1마커이미지를 기초로 제2레이어를 생성하는 단계; 상기 제1레이어와 상기 제2레이어의 합성을 통해 증강 현실 영상을 생성하는 단계; 및 상기 증강 현실 영상을 출력하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a method of implementing an augmented reality image implemented by a computing device, the method including: obtaining a first layer indicating an image of a real world acquired by the computing device; Identifying at least one object included in the first layer; Determining a first marker image based on an image corresponding to the at least one object among pre-stored images; Matching a position of the at least one object with the first marker image; Generating a second layer based on the first marker image; Generating an augmented reality image by combining the first layer and the second layer; And outputting the augmented reality image.
여기서, 미리 저장된 이미지를 사용자에게 제공하는 단계; 상기 사용자로부터 이미지 정보를 포함하는 사용자 명령을 획득하는 단계; 상기 이미지 정보를 기초로 제2마커이미지를 결정하는 단계;를 더 포함하며, 상기 제2레이어의 생성에 상기 제2마커이미지를 더 고려할 수 있다.Here, providing a pre-stored image to the user; Obtaining a user command including image information from the user; And determining a second marker image based on the image information. The second marker image may be further considered in generating the second layer.
여기서, 상기 미리 저장된 이미지는 윤곽선 벡터 값을 포함할 수 있다.Here, the pre-stored image may include an outline vector value.
여기서, 상기 사용자 명령은, 상기 제2마커이미지로 사용할 이미지의 윤곽선 벡터 정보를 포함할 수 있다.Here, the user command may include contour vector information of an image to be used as the second marker image.
여기서, 상기 사용자 명령은, 상기 제2마커이미지로 사용할 이미지의 내부 지점과 외부 지점의 정보를 포함할 수 있다.Here, the user command may include information of an inner point and an outer point of the image to be used as the second marker image.
여기서, 상기 제1마커이미지 상기 컴퓨팅 장치에 의해 인식되고, 사용자에 의해 인식되지 않도록 투명하게 생성될 수 있다. The first marker image may be transparently generated to be recognized by the computing device and not to be recognized by the user.
여기서, 상기 제2레이어는 상기 제1마커이미지 및 상기 제2마커이미지 중 적어도 하나에 대응되는 증강 현실 컨텐츠를 포함하며, 상기 증강 현실 컨텐츠는 상기 증강 현실 영상에서 나타나는 가상영상을 의미할 수 있다.Here, the second layer may include augmented reality content corresponding to at least one of the first marker image and the second marker image, and the augmented reality content may mean a virtual image that appears in the augmented reality image.
여기서, 상기 제1레이어의 물체 배치 상태를 벡터 기반으로 확인하고, 상기 물체 배치 상태를 기초로 상기 증강 현실 컨텐츠의 제공형태를 결정할 수 있다.Here, the object arrangement state of the first layer may be checked based on a vector, and the providing form of the augmented reality content may be determined based on the object arrangement state.
여기서, 기재된 증강 현실 영상 구현 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체를 포함할 수 있다.Here, the present invention may include a computer readable medium recording a program for executing the augmented reality image implementation method described.
여기서, 하드웨어인 상기 컴퓨팅 장치와 결합되어 기재된 증강 현실 영상 구현 방법을 실행시키기 위하여 매체에 저장된 단말장치용 어플리케이션을 포함할 수 있다.The application may include an application for a terminal device stored in a medium in order to execute the augmented reality image implementation method described in combination with the computing device, which is hardware.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예에 따른 벡터를 이용한 증강 현실 영상 구현 방법은 컴퓨팅 장치에 의해서 실현된다. 증강 현실 영상 구현 방법은 애플리케이션으로 구현되어, 컴퓨팅 장치 내에 저장되고 컴퓨팅 장치에 의해서 수행될 수 있다. An augmented reality image implementation method using vectors according to an embodiment of the present invention is realized by a computing device. The augmented reality image implementation method may be implemented as an application, stored in the computing device and performed by the computing device.
예를 들어, 컴퓨팅 장치는 스마트폰, 태블릿 등과 같은 모바일 디바이스로 제공될 수 있으나, 이에 제한되는 것은 아니고, 카메라가 구비되고, 데이터를 처리 및 저장할 수 있는 컴퓨팅 장치이면 족하다. 즉, 컴퓨팅 장치는 카메라가 구비된 안경 또는 밴드 등의 웨어러블 디바이스로 제공될 수도 있다. 예시되지 않은 임의의 컴퓨팅 장치가 제공될 수 있다.For example, the computing device may be provided as a mobile device such as a smart phone, a tablet, and the like, but is not limited thereto. A computing device may be provided with a camera and may process and store data. That is, the computing device may be provided as a wearable device such as glasses or a band equipped with a camera. Any computing device that is not illustrated may be provided.
명확하게 도시하지 않았으나, 컴퓨팅 장치는 네트워크를 통해서 다른 컴퓨팅 장치 또는 서버와 통신할 수 있다. 일부 실시예에서, 증강 현실 영상 구현 방법은 컴퓨팅 장치와 다른 컴퓨팅 장치 또는 서버의 연계에 의해서 실현될 수도 있다.Although not explicitly shown, the computing device may communicate with other computing devices or servers via a network. In some embodiments, the method of implementing augmented reality images may be realized by linking the computing device with another computing device or server.
도 1을 참조하면, 컴퓨팅 장치(100)가 현실 세계의 공간(10)을 촬영하여 현실 세계 이미지를 획득한다. 예시적으로, 현실 세계 공간(10)에 복수의 현실 객체들(11, 12, 13, 14)이 존재한다고 가정하자. 복수의 현실 객체들(11, 12, 13, 14)은 2차원의 또는 3차원의 임의의 사물을 포함할 수 있다. 복수의 현실 객체들(11, 12, 13, 14)은 서로 다른 또는 유사한 형태를 가질 수 있다. 컴퓨팅 장치(100)는 이러한 형태적 차이에 기초하여 객체를 구별할 수 있다.Referring to FIG. 1, the computing device 100 captures a space 10 of a real world to obtain a real world image. For example, assume that a plurality of real objects 11, 12, 13, and 14 exist in real world space 10. The plurality of real objects 11, 12, 13, and 14 may include any object in two or three dimensions. The plurality of real objects 11, 12, 13, and 14 may have different or similar shapes. The computing device 100 may distinguish objects based on these morphological differences.
컴퓨팅 장치(100)는 현실 세계 이미지 내의 복수의 객체들(21, 22, 23, 24)을 식별할 수 있다. 컴퓨팅 장치(100)는 식별된 복수의 객체들(21, 22, 23, 24)의 윤곽선을 추출할 수 있다. 그리고, 컴퓨팅 장치(100)는 미리 저장된 이미지의 윤곽선의 벡터 값을 이용하여 복수의 객체들(21, 22, 23, 24) 중 미리 저장된 이미지와 매칭되는 객체를 결정한다.The computing device 100 may identify the plurality of objects 21, 22, 23, 24 in the real world image. The computing device 100 may extract the outlines of the identified plurality of objects 21, 22, 23, and 24. The computing device 100 determines an object matching the pre-stored image among the plurality of objects 21, 22, 23, and 24 by using the vector value of the contour of the pre-stored image.
컴퓨팅 장치(100)는 복수의 객체들(21, 22, 23, 24)과 대응되는 이미지 샘플을 미리 저장해 놓을 수 있다. 복수의 객체들(21, 22, 23, 24)과 대응되는 이미지 샘플의 윤곽선에 관한 데이터는 미리 저장되어 있을 수 있다.The computing device 100 may store image samples corresponding to the plurality of objects 21, 22, 23, and 24 in advance. Data regarding the contour of the image sample corresponding to the plurality of objects 21, 22, 23, and 24 may be stored in advance.
예를 들어, 제1 객체(21)가 산 모양인 경우, 컴퓨팅 장치(100)는 미리 저장된 제1 객체(21) 모양과 유사한 이미지 샘플을 불러올 수 있다. 컴퓨팅 장치(100)는 미리 저장된 이미지 샘플을 후술할 마커이미지로 사용할 수 있다.For example, when the first object 21 is in the shape of a mountain, the computing device 100 may retrieve an image sample similar to the shape of the previously stored first object 21. The computing device 100 may use a pre-stored image sample as a marker image to be described later.
마커이미지의 종류로는 제1마커이미지와 제2마커이미지가 있을 수 있다. 제1마커이미지는 후술할 제1레이어를 기초로 획득된 마커이미지를 지시할 수 있다. 즉, 제1마커이미지는 사용자로부터 결정된 것이 아닌 현실 영상을 기초로 결정된 마커이미지를 지시할 수 있다. 예를 들어, 현실 영상을 반영한 제1레이어에 배경화면과 구별되는 달력과 액자가 있다고 가정하자, 여기서 제1마커이미지는 제1레이어에서 달력과 액자의 윤곽선과 모양을 기초로 생성된 투명한 마커일 수 있다. 여기서 마커는 추후 증강 현실 컨텐츠를 생성하는 역할을 할 수 있다.Types of marker images may include a first marker image and a second marker image. The first marker image may indicate a marker image obtained based on the first layer to be described later. That is, the first marker image may indicate the marker image determined based on the actual image, not determined by the user. For example, suppose that the first layer reflecting the real image has a calendar and a frame distinguished from the background, where the first marker image is a transparent marker generated based on the outline and shape of the calendar and the frame in the first layer. Can be. Here, the marker may play a role of generating augmented reality content later.
제2마커이미지는 사용자로부터 입력 받은 정보를 기초로 획득된 마커이미지를 지시할 수 있다. 예를 들어, 사용자는 디스플레이 화면에서 임의로 증강 현실 컨텐츠(별, 폭발모양, 케릭터 등)가 나타나도록 설정할 수 있다. 이 경우, 사용자가 증강 현실 컨텐츠가 나타나도록 설정하는 과정에서 제2마커이미지가 사용될 수 있다. 여기서 제2마커이미지는 제1레이어에서 증강 현실 컨텐츠(별, 폭발모양, 케릭터 등)의 윤곽선과 모양을 기초로 미리 저장된 투명한 마커일 수 있다.The second marker image may indicate the marker image obtained based on the information input from the user. For example, the user may arbitrarily set augmented reality content (stars, explosions, characters, etc.) to appear on the display screen. In this case, the second marker image may be used while the user sets the augmented reality content to appear. Here, the second marker image may be a transparent marker previously stored in the first layer based on the outline and shape of the augmented reality content (star, explosion, character, etc.).
일부 실시예에서, 복수의 객체들(21, 22, 23, 24)의 윤곽선에 관한 데이터는 3차원 타입으로 제공될 수 있다. 복수의 객체들(21, 22, 23, 24)의 이미지 또는 윤곽선에 관한 데이터는 다른 컴퓨팅 장치 또는 서버로부터 컴퓨팅 장치(100)에 전송되어 저장될 수 있다. 한편, 사용자에 의해서 촬영된 복수의 객체들(21, 22, 23, 24)의 이미지가 컴퓨팅 장치(100)에 미리 저장될 수도 있다. 그리고, 추출된 객체의 윤곽선에 관한 데이터는 벡터 값의 형태로, 즉 벡터 이미지로 저장될 수 있다. 여기서 사용자는 컴퓨팅 장치(100)를 통해 증강현실을 구현하는 사용자를 지시할 수 있다.In some embodiments, data relating to the contours of the plurality of objects 21, 22, 23, 24 may be provided in a three-dimensional type. Data relating to the image or contour of the plurality of objects 21, 22, 23, and 24 may be transmitted to and stored in the computing device 100 from another computing device or server. Meanwhile, images of the plurality of objects 21, 22, 23, and 24 captured by the user may be stored in the computing device 100 in advance. The data about the contour of the extracted object may be stored in the form of a vector value, that is, as a vector image. Here, the user may indicate a user who implements augmented reality through the computing device 100.
본 발명의 실시예에 따른 증강 현실 영상 구현 방법에서는, 비트맵 이미지가 아닌 벡터 이미지를 이용하기 때문에, 정교하게 증강 현실 영상을 구현할 수 있다. 현실 세계의 촬영 환경에 따라, 컴퓨팅 장치(100)로부터 객체의 거리, 방향, 위치 등이 변화하더라도, 이에 상응하여 객체의 벡터 이미지를 적절하게 변화시킴으로써(즉, 현실 세계에서 촬영 가능한 객체의 임의의 다양한 형태에 대응함으로써), 현실 세계 이미지 내에서 객체를 정확하게 식별할 수 있다.In the augmented reality image implementation method according to an embodiment of the present invention, since a vector image is used instead of a bitmap image, an augmented reality image can be precisely implemented. Depending on the shooting environment of the real world, even if the distance, direction, position, etc. of the object changes from the computing device 100, by appropriately changing the vector image of the object (i.e. any By responding to various forms), it is possible to accurately identify objects within real-world images.
컴퓨팅 장치(100)는 복수의 객체(21, 22, 23, 24) 중 객체체와 매칭되는 객체(22)를 결정하고, 결정된 객체(22) 주변에 가상 이미지(40)를 합성하여 증강 현실 영상을 구현한다.The computing device 100 determines an object 22 that matches the object of the plurality of objects 21, 22, 23, and 24, and synthesizes the virtual image 40 around the determined object 22 to augmented reality image. Implement
일부 실시예에서, 사용자는 현실 세계 이미지 내의 적어도 하나의 영역(31, 32)을 지정할 수 있다. 컴퓨팅 장치(100)는 사용자에 의해 지정된 영역(31, 32) 내의 객체(22, 24)를 객체 후보로 하고, 해당 객체(22, 24)가 객체와 매칭되는지 판단할 수 있다. 또는, 실질적으로 동일한 방식으로, 사용자는 현실 세계 이미지 내의 적어도 하나의 객체(22, 24)를 객체 후보로 지정할 수도 있다.In some embodiments, the user may designate at least one area 31, 32 in the real world image. The computing device 100 may use the objects 22 and 24 in the areas 31 and 32 designated by the user as object candidates, and determine whether the corresponding objects 22 and 24 match the objects. Or, in substantially the same way, the user may designate at least one object 22, 24 in the real world image as an object candidate.
도 2를 참조하면, 컴퓨팅 장치(100)는 적어도 영상 획득부(101), 센서부(102), 객체 인식부(103), 제1레이어 생성부(104), 사용자 명령 입력부(105), 사용자 명령 편집부(106), 마커이미지 생성부(107), 이미지 매칭부(108), 제2레이어 생성부(109), 제2레이어 저장부(110), 영상 합성부(111), 디스플레이 제어부(112), 디스플레이부(113) 중 하나를 포함할 수 있다. 각 구성들은 컴퓨팅 장치(100)에 포함된 프로세서(미도시)에 의해 제어될 수 있다.Referring to FIG. 2, the computing device 100 may include at least an image acquisition unit 101, a sensor unit 102, an object recognition unit 103, a first layer generator 104, a user command input unit 105, and a user. Command editing unit 106, marker image generation unit 107, image matching unit 108, second layer generation unit 109, second layer storage unit 110, image synthesizing unit 111, display control unit 112 ) May include one of the display 113. Each component may be controlled by a processor (not shown) included in the computing device 100.
영상 획득부(101)는 현실 세계 이미지를 촬영할 수 있다. 영상 획득부(101)는 촬영을 통해 현실 세계 이미지를 획득할 수 있다. 현실 세계 이미지는 복수의 현실 객체들(11, 12, 13, 14)을 포함할 수 있다. 복수의 현실 객체들(11, 12, 13, 14)은 2차원의 또는 3차원의 임의의 사물을 포함할 수 있다. 복수의 현실 객체들(11, 12, 13, 14)은 서로 다른 또는 유사한 형태를 가질 수 있다. 영상 획득부(101)는 카메라 등일 수 있다.The image acquirer 101 may capture a real world image. The image acquirer 101 may acquire a real world image by photographing. The real world image may include a plurality of real objects 11, 12, 13, and 14. The plurality of real objects 11, 12, 13, and 14 may include any object in two or three dimensions. The plurality of real objects 11, 12, 13, and 14 may have different or similar shapes. The image acquisition unit 101 may be a camera or the like.
센서부(102)는 GPS를 지원하는 장치들이 탑재되어 있을 수 있다. 센서부(102)는 촬영되는 영상의 위치, 컴퓨팅 장치(100)가 촬영하는 방향, 컴퓨팅 장치(100)의 이동 속도 등을 인지할 수 있다. The sensor unit 102 may be equipped with devices that support GPS. The sensor unit 102 may recognize a location of the captured image, a direction in which the computing device 100 photographs, a moving speed of the computing device 100, and the like.
객체 인식부(103)는 현실 세계 이미지에 포함된 복수의 현실 객체들(11, 12, 13, 14)의 윤곽선을 기초로 복수의 현실 객체들(11, 12, 13, 14)을 인식할 수 있다. 객체 인식부(103)는 복수의 현실 객체들(11, 12, 13, 14)의 윤곽선을 기초로 복수의 현실 객체들(11, 12, 13, 14)을 인식하고, 복수의 현실 객체들(11, 12, 13, 14)과 대응하는 복수의 객체들(21, 22, 23, 24)을 컴퓨팅 장치(100) 내에 생성할 수 있다.The object recognizer 103 may recognize the plurality of real objects 11, 12, 13, and 14 based on the outlines of the plurality of real objects 11, 12, 13, and 14 included in the real world image. have. The object recognizer 103 recognizes the plurality of reality objects 11, 12, 13, and 14 based on the contours of the plurality of reality objects 11, 12, 13, and 14, and recognizes the plurality of reality objects ( A plurality of objects 21, 22, 23, and 24 corresponding to 11, 12, 13, and 14 may be created in the computing device 100.
제1레이어 생성부(104)는 현실 세계 이미지에 대응하는 현실영상을 지시하는 제1레이어를 생성할 수 있다. 증강현실영상은 현실영상과 가상영상의 합성을 통해 구현될 수 있다. 본 발명에서 제1레이어 생성부(104)는 영상 획득부(101)에 의해 촬영된 현실 세계 이미지를 기초로 현실영상을 생성할 수 있다. The first layer generator 104 may generate a first layer that indicates a real image corresponding to the real world image. The augmented reality image may be implemented through the synthesis of the real image and the virtual image. In the present invention, the first layer generator 104 may generate a real image based on the real world image photographed by the image acquirer 101.
사용자 명령 입력부(105)는 컴퓨팅 장치(100)를 사용하는 사용자로부터 복수의 객체들(21, 22, 23, 24)과 구별되는 다른 객체를 출력하라는 명령을 입력 받을 수 있다. 예를 들어, 사용자는 컴퓨팅 장치(100)로부터 복수의 객체들(21, 22, 23, 24)을 인식할 수 있다. 사용자는 제1 객체(21)를 다른 객체로 바꾸고 싶은 경우 제1 객체(21)를 미리 저장된 다른 객체로 바꿀 것을 요청하는 명령을 컴퓨팅 장치(100)에 입력할 수 있다. 또는, 사용자는 제1 객체(21)를 사용자가 직접 컴퓨팅 장치(100)에 입력하는(또는 그리는) 객체로 바꿀 것을 요청하는 명령을 컴퓨팅 장치(100)에 입력할 수 있다. 사용자 명령은 마커이미지로 사용할 이미지의 내부 지점과 외부 지점의 정보를 포함할 수 있다.The user command input unit 105 may receive a command to output another object distinguished from the plurality of objects 21, 22, 23, and 24 from a user who uses the computing device 100. For example, the user may recognize the plurality of objects 21, 22, 23, and 24 from the computing device 100. If the user wants to replace the first object 21 with another object, the user may input a command to the computing device 100 to request that the first object 21 be replaced with another previously stored object. Alternatively, the user may input a command to the computing device 100 requesting to replace the first object 21 with an object that the user directly inputs (or draws) to the computing device 100. The user command may include information about an inner point and an outer point of the image to be used as the marker image.
사용자 명령 편집부(106)는 사용자 명령 입력부(105)로부터 획득한 사용자 명령을 기초로 복수의 객체들(21, 22, 23, 24) 중 적어도 하나의 객체를 편집할 수 있다. The user command editing unit 106 may edit at least one of the plurality of objects 21, 22, 23, and 24 based on the user command obtained from the user command input unit 105.
예를 들어, 사용자 명령 입력부(105)가 사용자로부터 제1 객체(21)를 미리 저장된 다른 객체로 바꿀 것을 요청하는 명령을 수신한 경우 사용자 명령 편집부(106)는 제1 객체(21)를 미리 저장된 다른 객체로 변경하는 편집을 할 수 있다.For example, when the user command input unit 105 receives a command from the user requesting to replace the first object 21 with another previously stored object, the user command editing unit 106 may store the first object 21 in advance. You can edit to change to another object.
마커이미지 생성부(107)는 복수의 객체들(21, 22, 23, 24)을 기초로 마커이미지를 생성할 수 있다. 여기서 마커이미지는 증강 현실 컨텐츠를 생성하는 이미지일 수 있다. The marker image generator 107 may generate a marker image based on the plurality of objects 21, 22, 23, and 24. The marker image may be an image for generating augmented reality content.
예를 들어, 현실 이미지에 포함된 돌을 황금으로 만드는 가상 현실 영상을 제공하는 컴퓨팅 장치(100)를 가정할 수 있다. 제2 객체(22)가 돌(stone)이라고 가정할 경우, 마커이미지 생성부(107)는 제2 객체(22)의 벡터 값을 기초로 황금을 생성할 수 있는 마커이미지를 생성할 수 있다.For example, it may be assumed that the computing device 100 provides a virtual reality image of making a stone included in the reality image golden. If it is assumed that the second object 22 is a stone, the marker image generator 107 may generate a marker image capable of generating gold based on the vector value of the second object 22.
여기서 마커이미지는 컴퓨팅 장치(100)에 의해서 인식될 수 있다. 마커이미지는 사용자에 의해서는 인식되지 않도록 투명하게 생성될 수 있다.The marker image may be recognized by the computing device 100. The marker image may be generated transparently so as not to be recognized by the user.
이미지 매칭부(108)는 생성된 복수의 객체들(21, 22, 23, 24)의 마커이미지와 복수의 객체들(21, 22, 23, 24) 사이의 위치를 대응시킬 수 있다. 이미지 매칭부(108)는 실시간으로 복수의 객체들(21, 22, 23, 24)의 위치가 변경될 경우 마커이미지의 위치를 복수의 객체들(21, 22, 23, 24)에 대응되도록 이동시킬 수 있다.The image matching unit 108 may correspond to the position between the marker images of the generated plurality of objects 21, 22, 23, and 24 and the plurality of objects 21, 22, 23, and 24. The image matching unit 108 moves the marker image to correspond to the plurality of objects 21, 22, 23, and 24 when the positions of the plurality of objects 21, 22, 23, and 24 change in real time. You can.
제2레이어 생성부(109)는 생성된 복수의 객체들(21, 22, 23, 24)의 마커이미지를 인식할 수 있다. 제2레이어 생성부(109)는 생성된 복수의 객체들(21, 22, 23, 24)의 마커이미지의 각 위치에 대응하는 증강 현실 컨텐츠가 결합된 제2레이어를 생성할 수 있다. 증강 현실 컨텐츠는 사용자가 식별할 수 있다. The second layer generator 109 may recognize marker images of the generated plurality of objects 21, 22, 23, and 24. The second layer generator 109 may generate a second layer in which augmented reality content corresponding to each position of the marker images of the plurality of objects 21, 22, 23, and 24 generated is combined. Augmented reality content may be identified by the user.
제2레이어 저장부(110)는 제2레이어 생성부(109)로부터 생성된 제2레이어를 저장할 수 있다. 마커이미지를 기초로 생성된 제2레이어로 인해 실시간으로 복수의 객체들(21, 22, 23, 24)의 위치가 변경하는 경우에도 사용자에게 끊어지지 않는 연속적인 화면을 제공할 수 있다.The second layer storage unit 110 may store the second layer generated from the second layer generator 109. The second layer generated based on the marker image may provide the user with a continuous screen that is not broken even when the positions of the plurality of objects 21, 22, 23, and 24 change in real time.
영상 합성부(111)는 제1레이어와 제2레이어의 합성을 통해 증강 현실 영상을 생성할 수 있다. 즉, 증강 현실 영상은 현실 세계 이미지에 증강 현실 컨텐츠가 포함된 영상일 수 있다. 예를 들어, 컴퓨팅 장치(100)를 통해 획득한 현실 세계 이미지에 돌이 있을 경우, 영상 합성부(111)는 해당 돌만 황금으로 표시한 영상을 생성할 수 있다.The image synthesizer 111 may generate an augmented reality image by combining the first layer and the second layer. That is, the augmented reality image may be an image including augmented reality content in a real world image. For example, if there are stones in the real world image acquired through the computing device 100, the image synthesizing unit 111 may generate an image in which only the stones are displayed in gold.
디스플레이 제어부(112)는 디스플레이부(113)가 증강 현실 영상을 출력하는 것을 제어할 수 있다. 디스플레이부(113)는 증강 현실 시각적인 화면을 통해 출력할 수 있다.The display controller 112 may control the display 113 to output an augmented reality image. The display unit 113 may output the augmented reality visual screen.
도 3은 사용자 명령이 없을 경우 컴퓨팅 장치(100)의 동작을 의미할 수 있다. 도 3을 참조하면, 컴퓨팅 장치(100)는 현실 세계 이미지를 기초로 제1레이어를 생성할 수 있다(S310). 컴퓨팅 장치(100)는 제1레이어 내의 적어도 하나의 객체를 식별할 수 있다(S320). 컴퓨팅 장치(100)는 제1레이어의 색상, 해상도, 윤곽선의 벡터 값 등을 추출할 수 있다. 3 may refer to the operation of the computing device 100 when there is no user command. Referring to FIG. 3, the computing device 100 may generate a first layer based on the real world image (S310). The computing device 100 may identify at least one object in the first layer (S320). The computing device 100 may extract the color, resolution, and vector value of the contour of the first layer.
컴퓨팅 장치(100)는 제1레이어의 색상, 해상도, 윤곽선의 벡터 값 등을 기초로 제1레이어 내의 적어도 하나의 객체를 식별할 수 있다. 구체적인 객체 식별과정은 다음과 같을 수 있다. 컴퓨팅 장치(100)는 제1레이어의 해상도를 기초로 영상을 분할 할 수 있다. 컴퓨팅 장치(100)는 분할된 영상을 각 영역별로 분류할 수 있다. 분할된 영상이 미리 설정된 개수보다 많을 경우 컴퓨팅 장치(100)는 해상도 조절을 통해 계층적 영역을 병합할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1레이어의 해상도를 낮추어 소수의 분할 영상으로 구분되도록 할 수 있다. 컴퓨팅 장치(100)는 분할 영상 중 독립적으로 인식될 수 있는 객체를 추출할 수 있다. The computing device 100 may identify at least one object in the first layer based on the color, resolution, vector value of the contour, etc. of the first layer. The detailed object identification process may be as follows. The computing device 100 may segment the image based on the resolution of the first layer. The computing device 100 may classify the divided image for each area. When the number of divided images is greater than the preset number, the computing device 100 may merge the hierarchical regions by adjusting the resolution. For example, the computing device 100 may lower the resolution of the first layer so that the computing device 100 may be divided into a plurality of divided images. The computing device 100 may extract an object that can be independently recognized among the divided images.
컴퓨팅 장치(100)는 미리 저장된 이미지 중 식별된 객체와 대응하는 이미지를 기초로 제1마커이미지를 결정할 수 있다(S330). The computing device 100 may determine the first marker image based on the image corresponding to the identified object among the pre-stored images (S330).
컴퓨팅 장치(100)는 제1마커이미지와 제1레이어에 포함된 객체의 위치를 매칭시킬 수 있다(S340). 컴퓨팅 장치(100)는 제1마커이미지를 기초로 증강 현실 컨텐츠를 포함하는 제2레이어를 생성할 수 있다(S350). The computing device 100 may match the position of the object included in the first marker image and the first layer (S340). The computing device 100 may generate a second layer including augmented reality content based on the first marker image (S350).
컴퓨팅 장치(100)는 제1레이어와 제2레이어의 합성을 통해 증강 현실 영상을 생성할 수 있다. 증강 현실 컨텐츠는 제1레이어가 아닌 제1레이어를 기초로 형성된 제1마커이미지를 기초로 생성되기 때문에 제1레이어가 손 떨림 현상으로 인해 흔들릴 경우에도 끊어지지 않는 증강 현실 컨텐츠를 포함하는 증강 현실 영상을 생성할 수 있다. 만약 제1레이어의 위치 또는 보여지는 각도가 변경된 경우 컴퓨팅 장치(100)는 제1레이어의 임의의 객체의 벡터 값, 현실 세계의 객체의 위치 벡터 값, 객체의 법선 벡터 값 등을 이용하여 저장된 제1마커이미지에 위치 또는 보여지는 각도가 변경되는 것에 대응하는 벡터 값 보상을 할 수 있다. The computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer. Since the augmented reality content is generated based on the first marker image formed based on the first layer rather than the first layer, the augmented reality image including the augmented reality content that does not break even when the first layer is shaken due to the hand shake phenomenon. Can be generated. If the position or viewing angle of the first layer is changed, the computing device 100 stores the stored vector using the vector value of any object of the first layer, the position vector value of the object in the real world, the normal vector value of the object, and the like. The vector value compensation corresponding to the change in the position or the viewing angle in one marker image can be performed.
예를 들어, 컴퓨팅 장치(100)가 현실 세계의 액자를 촬영하면서 컴퓨팅 장치(100)의 위치만 바뀌는 경우 액자가 보여지는 각도가 변경될 수 있다. 이 경우 컴퓨팅 장치(100)는 액자에 대응하는 제1마커이미지의 벡터 값, 현실 세계의 액자의 위치 벡터 값, 액자의 법선 벡터 값 등을 이용하여 제1마커이미지의 벡터 값을 보정할 수 있다.For example, when the computing device 100 photographs a picture frame in the real world and only the position of the computing device 100 is changed, the angle at which the picture frame is viewed may be changed. In this case, the computing device 100 may correct the vector value of the first marker image by using the vector value of the first marker image corresponding to the frame, the position vector value of the frame of the real world, and the normal vector value of the frame. .
컴퓨팅 장치(100)는 디스플레이부(113)를 통해 증강 현실 영상을 시각적으로 출력할 수 있다(S360).The computing device 100 may visually output the augmented reality image through the display 113 (S360).
도 4는 사용자 명령이 있을 경우 컴퓨팅 장치(100)의 동작을 의미할 수 있다. 도 4를 참조하면, 컴퓨팅 장치(100)는 현실 세계 이미지를 기초로 제1레이어를 생성할 수 있다(S310). 4 may refer to an operation of the computing device 100 when there is a user command. Referring to FIG. 4, the computing device 100 may generate a first layer based on the real world image (S310).
컴퓨팅 장치(100)는 미리 저장된 적어도 하나의 객체 또는 적어도 하나의 이미지를 사용자에게 제공할 수 있다(S311). 컴퓨팅 장치(100)는 사용자의 요청이 있을 경우 미리 저장된 적어도 하나의 객체(또는 이미지)를 사용자에게 제공할 수 있다. 또는 컴퓨팅 장치(100)는 사용자의 요청이 없더라도 자동으로 미리 저장된 적어도 하나의 객체(이미지)를 사용자에게 제공할 수 있다.The computing device 100 may provide the user with at least one object or at least one image stored in advance (S311). The computing device 100 may provide the user with at least one object (or image) stored in advance at the request of the user. Alternatively, the computing device 100 may automatically provide the user with at least one object (image) stored in advance even without a user's request.
컴퓨팅 장치(100)를 통해 미리 저장된 적어도 하나의 객체(또는 이미지)를 확인한 사용자는 현실 세계 이미지로부터 획득된 적어도 하나의 객체를 미리 저장된 다른 객체로 바꿀 것을 요청하는 명령을 컴퓨팅 장치(100)에 입력할 수 있다. 사용자는 직접 컴퓨팅 장치(100)에 객체를 입력할 수 있다(또는 그릴 수 있다.) A user who has identified at least one object (or image) previously stored through the computing device 100 inputs a command to the computing device 100 requesting to replace at least one object obtained from the real world image with another previously stored object. can do. A user may directly enter (or draw) an object into computing device 100.
컴퓨팅 장치(100)는 사용자로부터 현실 세계 이미지로부터 획득된 적어도 하나의 객체를 미리 저장된 다른 객체로 바꿀 것을 요청하는 명령을 획득할 수 있다(S312). 또는, 컴퓨팅 장치(100)는 사용자로부터 현실 세계 이미지로부터 획득된 적어도 하나의 객체를 사용자가 직접 컴퓨팅 장치(100)에 입력한(또는 그린) 객체로 바꿀 것을 요청하는 명령을 획득할 수 있다. The computing device 100 may obtain a command from the user requesting to replace at least one object obtained from the real world image with another object stored in advance (S312). Alternatively, the computing device 100 may obtain a command for requesting the user to replace at least one object obtained from the real world image with an object input (or drawn) directly to the computing device 100.
컴퓨팅 장치(100)는 명령을 기초로 미리 저장된 이미지 중 제2마커이미지를 결정할 수 있다(S313). 컴퓨팅 장치(100)는 제1레이어 내의 적어도 하나의 객체를 식별할 수 있다(S320). 컴퓨팅 장치(100)는 제1레이어의 색상, 해상도, 윤곽선의 벡터 값 등을 추출할 수 있다. The computing device 100 may determine a second marker image among pre-stored images based on the command (S313). The computing device 100 may identify at least one object in the first layer (S320). The computing device 100 may extract the color, resolution, and vector value of the contour of the first layer.
컴퓨팅 장치(100)는 제1레이어의 색상, 해상도, 윤곽선의 벡터 값 등을 기초로 제1레이어 내의 적어도 하나의 객체를 식별할 수 있다. 구체적인 객체 식별과정은 다음과 같을 수 있다. 컴퓨팅 장치(100)는 제1레이어의 해상도를 기초로 영상을 분할 할 수 있다. 컴퓨팅 장치(100)는 분할된 영상을 각 영역별로 분류할 수 있다. 분할된 영상이 미리 설정된 개수보다 많을 경우 컴퓨팅 장치(100)는 해상도 조절을 통해 계층적 영역을 병합할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1레이어의 해상도를 낮추어 소수의 분할 영상으로 구분되도록 할 수 있다. 컴퓨팅 장치(100)는 분할 영상 중 독립적으로 인식될 수 있는 객체를 추출할 수 있다. The computing device 100 may identify at least one object in the first layer based on the color, resolution, vector value of the contour, etc. of the first layer. The detailed object identification process may be as follows. The computing device 100 may segment the image based on the resolution of the first layer. The computing device 100 may classify the divided image for each area. When the number of divided images is greater than the preset number, the computing device 100 may merge the hierarchical regions by adjusting the resolution. For example, the computing device 100 may lower the resolution of the first layer so that the computing device 100 may be divided into a plurality of divided images. The computing device 100 may extract an object that can be independently recognized among the divided images.
컴퓨팅 장치(100)는 미리 저장된 이미지 중 식별된 객체와 대응하는 이미지를 기초로 제1마커이미지를 결정할 수 있다(S330). The computing device 100 may determine the first marker image based on the image corresponding to the identified object among the pre-stored images (S330).
컴퓨팅 장치(100)는 제1마커이미지와 제1레이어에 포함된 객체의 위치를 매칭시킬 수 있다(S340). 컴퓨팅 장치(100)는 제1마커이미지 또는 제2마커이미지 중 적어도 하나를 기초로 증강 현실 컨텐츠를 포함하는 제2레이어를 생성할 수 있다(S351). The computing device 100 may match the position of the object included in the first marker image and the first layer (S340). The computing device 100 may generate a second layer including augmented reality content based on at least one of the first marker image and the second marker image (S351).
컴퓨팅 장치(100)는 제1레이어와 제2레이어의 합성을 통해 증강 현실 영상을 생성할 수 있다. 증강 현실 컨텐츠는 제1레이어가 아닌 제1레이어를 기초로 형성된 제1마커이미지 및 사용자 명령을 기초로 형성된 제2마커이미지 중 적어도 하나를 기초로 생성되기 때문에 제1레이어가 손 떨림 현상으로 인해 흔들릴 경우에도 끊어지지 않는 증강 현실 컨텐츠를 포함하는 증강 현실 영상을 생성할 수 있다. 만약 제1레이어의 위치 또는 보여지는 각도가 변경된 경우 컴퓨팅 장치(100)는 제1레이어의 임의의 객체의 벡터 값, 현실 세계의 객체의 위치 벡터 값, 객체의 법선 벡터 값 등을 이용하여 저장된 제1마커이미지 또는 제2마커이미지에 위치 또는 보여지는 각도가 변경되는 것에 대응하는 벡터 값 보상을 할 수 있다. The computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer. Since the augmented reality content is generated based on at least one of a first marker image formed based on the first layer and a second marker image formed based on a user command, not the first layer, the first layer may be shaken due to the shaking of the hand. An augmented reality image including an augmented reality content that is not broken even in a case may be generated. If the position or viewing angle of the first layer is changed, the computing device 100 stores the stored vector using the vector value of any object of the first layer, the position vector value of the object in the real world, the normal vector value of the object, and the like. The vector value compensation corresponding to the change in the position or the viewing angle of the first marker image or the second marker image may be performed.
예를 들어, 컴퓨팅 장치(100)가 현실 세계의 액자를 촬영하면서 컴퓨팅 장치(100)의 위치만 바뀌는 경우 액자가 보여지는 각도가 변경될 수 있다. 이 경우 컴퓨팅 장치(100)는 액자에 대응하는 제1마커이미지의 벡터 값, 현실 세계의 액자의 위치 벡터 값, 액자의 법선 벡터 값 등을 이용하여 제1마커이미지의 벡터 값을 보정할 수 있다.For example, when the computing device 100 photographs a picture frame in the real world and only the position of the computing device 100 is changed, the angle at which the picture frame is viewed may be changed. In this case, the computing device 100 may correct the vector value of the first marker image by using the vector value of the first marker image corresponding to the frame, the position vector value of the frame of the real world, and the normal vector value of the frame. .
컴퓨팅 장치(100)는 제1레이어와 제2레이어의 합성을 통해 증강 현실 영상을 생성할 수 있다. 컴퓨팅 장치(100)는 디스플레이부(113)를 통해 증강 현실 영상을 시각적으로 출력할 수 있다(S360).The computing device 100 may generate an augmented reality image through the synthesis of the first layer and the second layer. The computing device 100 may visually output the augmented reality image through the display 113 (S360).
이상에서 전술한 본 발명의 일 실시예에 따른 증강 현실 영상 구현 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The augmented reality image implementation method according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (10)

  1. 컴퓨팅 장치에 의해 실현되는 증강 현실 영상 구현 방법으로서,An augmented reality image implementation method realized by a computing device,
    컴퓨팅 장치에 의해 획득되는 현실 세계의 이미지를 지시하는 제1레이어를 획득하는 단계;Obtaining a first layer indicating an image of the real world obtained by the computing device;
    상기 제1레이어에 포함된 적어도 하나의 객체를 식별하는 단계;Identifying at least one object included in the first layer;
    미리 저장된 이미지 중 상기 적어도 하나의 객체와 대응하는 이미지를 기초로 제1마커이미지를 결정하는 단계;Determining a first marker image based on an image corresponding to the at least one object among pre-stored images;
    상기 적어도 하나의 객체와 상기 제1마커이미지의 위치를 매칭시키는 단계;Matching a position of the at least one object with the first marker image;
    상기 제1마커이미지를 기초로 제2레이어를 생성하는 단계;Generating a second layer based on the first marker image;
    상기 제1레이어와 상기 제2레이어의 합성을 통해 증강 현실 영상을 생성하는 단계; 및Generating an augmented reality image by combining the first layer and the second layer; And
    상기 증강 현실 영상을 출력하는 단계;를 포함하는 증강 현실 영상 구현 방법.And outputting the augmented reality image.
  2. 제1항에 있어서,The method of claim 1,
    미리 저장된 이미지를 사용자에게 제공하는 단계;Providing a user with a pre-stored image;
    상기 사용자로부터 이미지 정보를 포함하는 사용자 명령을 획득하는 단계;Obtaining a user command including image information from the user;
    상기 이미지 정보를 기초로 제2마커이미지를 결정하는 단계;를 더 포함하며,Determining a second marker image based on the image information;
    상기 제2레이어의 생성에 상기 제2마커이미지를 더 고려하는, 증강 현실 영상 구현 방법. And considering the second marker image in the generation of the second layer.
  3. 제1항에 있어서,The method of claim 1,
    상기 미리 저장된 이미지는 윤곽선 벡터 값을 포함하는, 증강 현실 영상 구현 방법. And the prestored image comprises a contour vector value.
  4. 제2항에 있어서,The method of claim 2,
    상기 사용자 명령은, 상기 제2마커이미지로 사용할 이미지의 윤곽선 벡터 정보를 포함하는, 증강 현실 영상 구현 방법. The user command includes contour vector information of an image to be used as the second marker image.
  5. 제2항에 있어서,The method of claim 2,
    상기 사용자 명령은, 상기 제2마커이미지로 사용할 이미지의 내부 지점과 외부 지점의 정보를 포함하는, 증강 현실 영상 구현 방법. The user command may include information about an inner point and an outer point of the image to be used as the second marker image.
  6. 제1항에 있어서,The method of claim 1,
    상기 제1마커이미지 상기 컴퓨팅 장치에 의해 인식되고, 사용자에 의해 인식되지 않도록 투명하게 생성되는, 증강 현실 영상 구현 방법. The first marker image is recognized by the computing device, transparently generated so as not to be recognized by the user, augmented reality image implementation method.
  7. 제2항에 있어서,The method of claim 2,
    상기 제2레이어는 상기 제1마커이미지 및 상기 제2마커이미지 중 적어도 하나에 대응되는 증강 현실 컨텐츠를 포함하며, 상기 증강 현실 컨텐츠는 상기 증강 현실 영상에서 나타나는 가상영상을 의미하는, 증강 현실 영상 구현 방법. The second layer may include augmented reality content corresponding to at least one of the first marker image and the second marker image, and the augmented reality content may mean a virtual image that appears in the augmented reality image. Way.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 제1레이어의 물체 배치 상태를 벡터 기반으로 확인하고, 상기 물체 배치 상태를 기초로 상기 증강 현실 컨텐츠의 제공형태를 결정하는, 증강 현실 영상 구현 방법. Confirming the object arrangement state of the first layer based on a vector, and determining a form of providing the augmented reality content based on the object arrangement state.
  9. 제1항 내지 제8항 중 어느 하나의 항에 기재된 증강 현실 영상 구현 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer readable medium having recorded thereon a program for executing the augmented reality image implementing method according to any one of claims 1 to 8.
  10. 하드웨어인 상기 컴퓨팅 장치와 결합되어 제1항 내지 제8항 중 어느 하나의 항에 기재된 증강 현실 영상 구현 방법을 실행시키기 위하여 매체에 저장된 단말장치용 어플리케이션.An application for a terminal device, which is combined with the computing device, which is hardware, and stored in a medium for executing the augmented reality image implementing method according to any one of claims 1 to 8.
PCT/KR2018/003188 2017-03-20 2018-03-19 Method for implementing augmented reality image by using virtual marker and vector WO2018174499A2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020501108A JP2020514937A (en) 2017-03-20 2018-03-19 Realization method of augmented reality image using vector
US16/551,039 US20190378339A1 (en) 2017-03-20 2019-08-26 Method for implementing augmented reality image using vector

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20170034397 2017-03-20
KR10-2017-0034397 2017-03-20
KR10-2017-0102891 2017-08-14
KR20170102891 2017-08-14
KR10-2017-0115841 2017-09-11
KR1020170115841A KR102000960B1 (en) 2017-03-20 2017-09-11 Method for implementing augmented reality image using vector

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/551,039 Continuation US20190378339A1 (en) 2017-03-20 2019-08-26 Method for implementing augmented reality image using vector

Publications (2)

Publication Number Publication Date
WO2018174499A2 true WO2018174499A2 (en) 2018-09-27
WO2018174499A3 WO2018174499A3 (en) 2018-11-08

Family

ID=63585569

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/003188 WO2018174499A2 (en) 2017-03-20 2018-03-19 Method for implementing augmented reality image by using virtual marker and vector

Country Status (1)

Country Link
WO (1) WO2018174499A2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021001A (en) * 2004-09-02 2006-03-07 (주)제니텀 엔터테인먼트 컴퓨팅 Implementation of marker-less augmented reality and mixed reality system using object detecting method
KR101227237B1 (en) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 Augmented reality system and method for realizing interaction between virtual object using the plural marker
KR101216222B1 (en) * 2011-01-14 2012-12-28 에스케이플래닛 주식회사 System and method for providing augmented reality service
KR102167273B1 (en) * 2013-06-25 2020-10-20 한양대학교 산학협력단 Method, apparatus and computer program product for augmenting real object
KR102161510B1 (en) * 2013-09-02 2020-10-05 엘지전자 주식회사 Portable device and controlling method thereof

Also Published As

Publication number Publication date
WO2018174499A3 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
WO2019216491A1 (en) A method of analyzing objects in images recorded by a camera of a head mounted device
CN109584295B (en) Method, device and system for automatically labeling target object in image
JP4878083B2 (en) Image composition apparatus and method, and program
WO2017026839A1 (en) 3d face model obtaining method and device using portable camera
WO2019050360A1 (en) Electronic device and method for automatic human segmentation in image
WO2012091326A2 (en) Three-dimensional real-time street view system using distinct identification information
KR102000960B1 (en) Method for implementing augmented reality image using vector
WO2021045552A1 (en) Electronic device for image synthesis and operating method thereof
US20220358662A1 (en) Image generation method and device
WO2021101097A1 (en) Multi-task fusion neural network architecture
WO2013025011A1 (en) Method and system for body tracking for recognizing gestures in a space
WO2019156543A2 (en) Method for determining representative image of video, and electronic device for processing method
WO2021215800A1 (en) Surgical skill training system and machine learning-based surgical guide system using three-dimensional imaging
CN112749613A (en) Video data processing method and device, computer equipment and storage medium
JP2019201397A (en) Imaging apparatus and program
WO2018174499A2 (en) Method for implementing augmented reality image by using virtual marker and vector
WO2019004754A1 (en) Augmented reality advertisements on objects
WO2024111728A1 (en) User emotion interaction method and system for extended reality based on non-verbal elements
WO2017026834A1 (en) Responsive video generation method and generation program
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information
EP4333420A1 (en) Information processing device, information processing method, and program
WO2023149603A1 (en) Thermal-image-monitoring system using plurality of cameras
CN207301480U (en) A kind of dual-purpose telescopic system with bi-locating function
KR102339825B1 (en) Device for situation awareness and method for stitching image thereof
CN111242107B (en) Method and electronic device for setting virtual object in space

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18771846

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2020501108

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18771846

Country of ref document: EP

Kind code of ref document: A2

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 12.12.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 18771846

Country of ref document: EP

Kind code of ref document: A2