KR102510496B1 - Method of creating augmented reality object - Google Patents

Method of creating augmented reality object Download PDF

Info

Publication number
KR102510496B1
KR102510496B1 KR1020210157804A KR20210157804A KR102510496B1 KR 102510496 B1 KR102510496 B1 KR 102510496B1 KR 1020210157804 A KR1020210157804 A KR 1020210157804A KR 20210157804 A KR20210157804 A KR 20210157804A KR 102510496 B1 KR102510496 B1 KR 102510496B1
Authority
KR
South Korea
Prior art keywords
image
mobile device
coordinates
generating
plane
Prior art date
Application number
KR1020210157804A
Other languages
Korean (ko)
Inventor
이창배
황효현
Original Assignee
주식회사 시온네트웍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 시온네트웍 filed Critical 주식회사 시온네트웍
Priority to KR1020210157804A priority Critical patent/KR102510496B1/en
Application granted granted Critical
Publication of KR102510496B1 publication Critical patent/KR102510496B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method of creating an augmented reality object by using a mobile device. The method comprises: a step of collecting 2-dimensional images through an image collection unit of the mobile device; a step of defining a plane containing the 2-dimensional images as an x-y plane of a 3-dimensional coordinate system through a 3-dimensional image editing unit of the mobile device and creating 3-dimensional images by extending the 2-dimensional images to an arbitrary height in a z-axis direction perpendicular to the x-y plane; a step of selecting random coordinates on a surface of the 3-dimensional images by touching a touch screen unit of the mobile device; a step in which a motion information editing unit of the mobile device sets a predetermined movement range centered on the arbitrary coordinates on the surface of the 3-dimensional images; a step in which time-series coordinates are input through continuous dragging centered on the arbitrary coordinates through the touch screen unit; and a step in which the 3-dimensional image editing unit generates movement information which can be expressed as the surface of the predetermined-dimensional images with the set movement range changing with changes in the time-series coordinates. According to the present invention, the images to be projected into virtual reality can be arbitrarily defined by users.

Description

증강현실 객체를 생성하는 방법{METHOD OF CREATING AUGMENTED REALITY OBJECT}How to create an augmented reality object {METHOD OF CREATING AUGMENTED REALITY OBJECT}

본 발명은 증강현실에 관한 것으로, 보다 상세하게는 사용자가 정의한 움직임이 가능한 증강현실 객체를 생성하는 방법에 대한 것이다. The present invention relates to augmented reality, and more particularly, to a method for generating an augmented reality object capable of motion defined by a user.

증강현실(augmented reality)은 가상현실(virtual reality)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. Augmented reality is a field of virtual reality, which is a computer graphics technique that synthesizes virtual objects or information in an actual environment to make them look like objects in the original environment.

증강현실은 실제현실과 가상현실로 나뉜다. 디스플레이 장치를 통해 표시되는 이미지에 있어서, 카메라를 통해 실제 세계를 촬영한 실제현실(Full Reality)의 이미지와 실제 세계에는 존재하지 않으나 컴퓨터를 통해 만들어진 가상 이미지를 표현하는 가상현실(Virtual Reality)의 이미지로 나뉜다.Augmented reality is divided into real reality and virtual reality. In the image displayed through the display device, a full reality image that captures the real world through a camera and a virtual reality image that does not exist in the real world but expresses a virtual image created through a computer divided into

실제현실 상의 객체에 실시간으로 가상현실 데이터를 표시하는 증강현실이 제안되었다. 증강현실에서 실제현실 상에 가상현실 데이터를 표시할 객체를 결정하는 방법으로는, 실제현실에 마커(Marker)를 표시한 후 상기 마커를 인식하여 상기 마커 상에 가상현실 데이터를 표시하는 마커 방식 증강현실과, 실제현실에 마커를 표시하지 않고 실제현실 상의 객체를 직접 인식하여 가상현실 데이터를 표시하는 마커리스(Markerless) 증강현실이 존재한다. Augmented reality that displays virtual reality data in real time on objects in real reality has been proposed. In augmented reality, as a method of determining an object to display virtual reality data on real reality, a marker method augmentation in which a marker is displayed in real reality and then the marker is recognized and the virtual reality data is displayed on the marker There is a markerless augmented reality that displays virtual reality data by directly recognizing an object in the real world without displaying a marker in the real world.

증강현실에서 실제현실에 가상현실 데이터를 표시하는 방법으로는, 카메라를 통해 촬영되어 저장매체에 저장된 실제현실로부터 객체를 인식하고 인식된 객체 상에 가상현실 데이터를 표시하는 방법과, 카메라를 통해 실시간 촬영되는 실제현실로부터 객체를 인식하고 상기 인식된 객체 상에 가상현실 데이터를 표시하는 방법이 존재한다. 또한, 상기 방법 이외에 카메라를 통해 실제 현실을 촬영하지 않고 인간의 눈이 그 너머의 실제현실을 바라보는 투명한 안경, 고글, 유리창 등을 투명 디스플레이로 이용하고 투명 디스플레이 너머의 객체를 인식하여 상기 투명 디스플레이 상에 가상현실 데이터를 표시하는 방법이 존재한다.As a method of displaying virtual reality data in real reality in augmented reality, a method of recognizing an object from real reality photographed through a camera and stored in a storage medium and displaying virtual reality data on the recognized object, and a method of displaying virtual reality data on the recognized object in real time through the camera There is a method of recognizing an object from real reality to be photographed and displaying virtual reality data on the recognized object. In addition, in addition to the above method, transparent glasses, goggles, glass windows, etc. through which the human eye looks at the real reality beyond it are used as a transparent display without photographing the actual reality through a camera, and the transparent display is recognized by recognizing an object beyond the transparent display. There is a method of displaying virtual reality data on the screen.

이처럼 증강현실은 미리 설정된 객체에 대한 정보 또는 미리 설정된 객체의 움직임으로 표현되는 것이 일반적이다.As such, augmented reality is generally expressed as information about a preset object or movement of a preset object.

본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법은 사용자가 종이, 벽, 바닥 등에 그린 객체의 2차원 이미지를 주변이미지와 분리하여 인식하고, 2차원 이미지를 3차원 이미지로 생성하는 방법을 제공하는 것을 목적으로 한다. A method for generating an augmented reality object according to an embodiment of the present invention is a method for recognizing a 2D image of an object drawn by a user on paper, a wall, a floor, etc. by separating it from a surrounding image, and generating a 2D image as a 3D image. intended to provide

본 발명의 다른 실시예에 따른 증강현실 객체를 생성하는 방법은 사용자가 정의한 2차원 이미지를 3차원 이미지로 생성하고, 사용자가 임의로 부여한 동작을 수행하도록 함으로써 동적인 이미지를 재생하는 증강현실 객체를 제공하는 것을 목적으로 한다. A method for generating an augmented reality object according to another embodiment of the present invention provides an augmented reality object that reproduces a dynamic image by generating a 2D image defined by a user as a 3D image and performing an operation arbitrarily assigned by the user. aims to do

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

상기 기술적 과제를 해결하기 위한 본 발명의 일양상에 따른 모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법은 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계, 모바일 디바이스의 3차원이미지편집부를 통하여 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, x-y 평면과 수직한 z축 방향으로 임의의 높이로 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계, 모바일 디바이스의 터치스크린부를 터치하여 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계, 모바일 디바이스의 동작정보편집부가 3차원 이미지의 표면 중 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계, 터치스크린부를 통하여 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계 및 3차원이미지편집부가 가동범위가 설정된 소정의 3차원 이미지의 표면이 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계를 포함한다. Method for generating an augmented reality object by a mobile device according to an aspect of the present invention for solving the above technical problem is collecting a two-dimensional image through the image collection unit of the mobile device, through the three-dimensional image editing unit of the mobile device Creating a 3D image by defining a plane containing a 2D image as an x-y plane of a 3D coordinate system and extending the 2D image to an arbitrary height in a z-axis direction perpendicular to the x-y plane to generate a 3D image, a touch screen of a mobile device Selecting an arbitrary coordinate of the surface of the 3D image by touching the part, Step of setting a predetermined range of motion around the arbitrary coordinate of the surface of the 3D image by the motion information editing unit of the mobile device, Random through the touch screen unit The step of inputting time-series coordinates through continuous dragging centered on the coordinates of and the surface of a predetermined 3-dimensional image in which the movable range of the 3D image editing unit is set can be expressed as changing along with changes in time-series coordinates and generating operation information.

여기서, 3차원이미지편집부가 2차원 이미지를 구성하는 폐곡선으로부터 x-y 평면상의 무게중심좌표와 임의의 좌표의 x-y 평면상의 터치좌표를 추출하는 단계를 더 포함할 수 있다.Here, the 3D image editing unit may further include extracting coordinates of the center of gravity on the x-y plane and touch coordinates on the x-y plane of arbitrary coordinates from the closed curve constituting the 2-dimensional image.

여기서, 3차원 이미지는 x-y평면에 대칭하여 z축에 대한 양의 값과 음의 값을 모두 갖는 것으로 표현될 수 있다.Here, the 3D image can be expressed as having both positive and negative values on the z-axis symmetrically on the x-y plane.

여기서, 소정의 가동범위는 2차원 이미지의 윤곽선과 접하는 가상의 제1 접선과 연속된 제3의 접선이 미리 설정된 각도로 교차하는 경우, 제3의 접선이 윤곽선과 접하는 접점을 중심으로 설정될 수 있다.Here, the predetermined range of motion may be set around the point of contact where the third tangent line comes into contact with the contour line when a virtual first tangent line contacting the contour line of the two-dimensional image and a continuous third tangent line intersect at a preset angle. there is.

여기서, 3차원 이미지를 생성하는 단계는 x-y 평면이 터치스크린과 소정의 각도를 이루는 것으로 표현되기 위하여 터치스크린을 통해 x-y평면의 평면회전정보를 수집하는 단계를 더 포함할 수 있다.Here, generating the 3D image may further include collecting plane rotation information of the x-y plane through the touch screen so that the x-y plane forms a predetermined angle with the touch screen.

여기서, 소정의 가동범위는 3차원 이미지 전체 또는 임의의 좌표로부터 미리 설정된 범위 내의 3차원 이미지의 일부일 수 있다. Here, the predetermined movable range may be the entire 3D image or a part of the 3D image within a preset range from arbitrary coordinates.

여기서, 2차원 이미지를 수집하는 단계는 모바일 디바이스의 2차원이미지편집부를 통하여 이미지수집부를 통하여 수집된 2차원 이미지로부터 주변 선도와 구별되는 2차원 객체의 외곽선을 추출하는 단계;를 더 포함할 수 있다.Here, the step of collecting the 2D image may further include extracting the outline of the 2D object distinguished from the surrounding map from the 2D image collected through the image collection unit through the 2D image editing unit of the mobile device. .

여기서, 2차원이미지편집부는 소벨함수, 라플라시안함수 및 캐니함수로 이루어진 윤곽선검출알고리즘 중 어느 하나 이상의 방법을 통하여 2차원 객체의 외곽선을 추출할 수 있다.Here, the 2D image editing unit may extract the outline of the 2D object through any one or more of contour detection algorithms composed of a Sobel function, a Laplacian function, and a Canny function.

여기서, 3차원 좌표계의 중심은 2차원 이미지의 x-y 평면상의 무게중심좌표일 수 있다.Here, the center of the 3D coordinate system may be the center of gravity coordinates on the x-y plane of the 2D image.

여기서, 2차원 이미지는 폐곡선이거나 또는 폐곡선 내에 표현된 곡선일 수 있다. Here, the 2D image may be a closed curve or a curve expressed within the closed curve.

여기서, 2차원 이미지가 폐곡선내에 표현된 곡선인 경우, 2차원이미지편집부가 곡선을 이용하여 곡선의 양단을 잇는 선분을 포함한 제3의 폐곡선으로 정의하는 단계를 더 포함할 수 있다.Here, if the 2D image is a curve expressed in a closed curve, the 2D image editing unit may further include defining a third closed curve including a line segment connecting both ends of the curve using the curve.

본 발명의 다른 양상에 따르면, 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계, 모바일 디바이스의 3차원이미지편집부를 통하여 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, x-y 평면과 수직한 z축 방향으로 임의의 높이로 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계, 모바일 디바이스의 터치스크린부를 터치하여 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계, 모바일 디바이스의 동작정보편집부가 3차원 이미지의 표면 중 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계, 터치스크린부를 통하여 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계 및 3차원이미지편집부가 가동범위가 설정된 소정의 3차원 이미지의 표면이 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계를 포함하는 증강현실 객체를 생성하는 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체가 제공된다.According to another aspect of the present invention, collecting a two-dimensional image through the image collection unit of the mobile device, defining a plane containing the two-dimensional image as an x-y plane of the three-dimensional coordinate system through the three-dimensional image editing unit of the mobile device, Generating a 3D image by extending the 2D image to an arbitrary height in the z-axis direction perpendicular to the x-y plane, selecting an arbitrary coordinate among the surfaces of the 3D image by touching the touch screen of the mobile device, Step of setting a predetermined range of motion around an arbitrary coordinate of the surface of the 3D image by the operation information editing unit of the device, inputting time-sequential coordinates through continuous dragging around an arbitrary coordinate through the touch screen unit, and The 3D image editing unit performs a method of generating an augmented reality object including generating motion information that can be expressed as a surface of a predetermined 3D image in which a motion range is set changes along with changes in time-series coordinates. A computer readable medium on which a program for the above is recorded is provided.

본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법은 사용자가 종이, 벽, 바닥 등에 그린 객체의 2차원 이미지를 주변이미지와 분리하여 인식하고, 2차원 이미지를 3차원 이미지로 생성함으로써 가상현실로 투영되기 위한 이미지를 사용자 임의로 정의할 수 있다.A method for generating an augmented reality object according to an embodiment of the present invention is a virtual reality by recognizing a two-dimensional image of an object drawn by a user on paper, a wall, a floor, etc. by separating it from a surrounding image, and generating a two-dimensional image into a three-dimensional image. The image to be projected can be defined arbitrarily by the user.

본 발명의 다른 실시예에 따른 증강현실 객체를 생성하는 방법은 사용자가 정의한 2차원 이미지를 3차원 이미지로 생성하고, 사용자가 임의로 부여한 동작을 수행하도록 함으로써 동적인 이미지를 재생하는 증강현실 객체가 제공될 수 있다.A method for generating an augmented reality object according to another embodiment of the present invention provides an augmented reality object that reproduces a dynamic image by generating a 2D image defined by a user as a 3D image and performing an operation arbitrarily assigned by the user. It can be.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법을 수행하기 위한 모바일 디바이스의 시스템 블록도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법의 순서도를 도시한 것이다.
1 illustrates a system block diagram of a mobile device for performing a method of generating an augmented reality object according to an embodiment of the present invention.
2 is a flowchart of a method for generating an augmented reality object according to an embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기증을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. Objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described later in detail in conjunction with the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. And the terms to be described later are terms defined in consideration of donation in the present invention, which may vary according to the intention or custom of the user or operator.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. However, the present invention is not limited to the embodiments disclosed below and may be implemented in a variety of different forms. Only these embodiments are provided to complete the disclosure of the present invention and to fully inform those skilled in the art of the scope of the invention, and the present invention is defined by the scope of the claims. only become Therefore, the definition should be made based on the contents throughout this specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...유닛", "...부" 또는 "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" or "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated. . In addition, terms such as "...unit", "...unit", or "...module" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware and It can be implemented as a combination of software.

한편, 본 발명의 실시 예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.Meanwhile, in an embodiment of the present invention, each component, functional block or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by each component include an electronic circuit, It may be implemented with various known elements or mechanical elements such as an integrated circuit, an application specific integrated circuit (ASIC), and may be implemented separately or two or more may be integrated into one.

또한 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터, 스마트폰과 같은 모바일 디바이스, 온라인 게임 서비스 제공 서버 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 아래에서 설명할 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 장치에 이용 가능한 메모리 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조물을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되기 위한 프로세스를 생성하여 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Also, combinations of each block of the accompanying block diagram and each step of the flowchart may be performed by computer program instructions. Since these computer program instructions may be loaded into a processor of a general-purpose computer, a special purpose computer, a portable notebook computer, a network computer, a mobile device such as a smartphone, an online game service providing server, or other programmable data processing equipment, a computer device or other program Those instructions, executed through a processor of a possible data processing equipment, create means for performing the functions described in each block of a block diagram or each step of a flowchart described below. Since these computer program instructions may be stored in computer readable memory or in memory available to a computer device that may be directed to a computer device or other programmable data processing equipment to implement functionality in a particular way, each block of a block diagram Alternatively, it is also possible to produce an article containing instruction means for performing the functions described in each step of the flow chart. Since the computer program instructions can also be loaded on a computer device or other programmable data processing equipment, a process for performing a series of operation steps on a computer device or other programmable data processing equipment is created to create each block and flow chart in the block diagram. It is also possible to provide steps for executing the functions described in each step of .

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block or each step may represent a module, segment or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative embodiments it is possible for the functions recited in blocks or steps to occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order depending on their function.

본 발명의 실시예에 있어서, 모바일 디바이스라고 함은 태블릿 컴퓨터, 노트북 컴퓨터, 스마트폰, PDA, 휴대전화, 게임기 등 데이터를 수집, 판독, 처리, 가공, 저장, 표시할 수 있는 모든 계산 수단을 의미한다. 특히, 본 발명의 실시예에 있어서의 모바일 디바이스는 해독 가능한 코드로 작성된 소프트웨어를 실행시킬 수 있으며, 이를 사용자에게 표시하여 전달할 수 있는 기능을 갖는 장치이다. 또한, 필요에 따라서는 소프트웨어를 자체적으로 저장하기도 하고, 또는 외부로부터 데이터와 함께 읽어 들일 수도 있다.In an embodiment of the present invention, a mobile device means any calculation means capable of collecting, reading, processing, processing, storing, and displaying data such as a tablet computer, a notebook computer, a smart phone, a PDA, a mobile phone, and a game machine. do. In particular, a mobile device according to an embodiment of the present invention is a device capable of executing software written in decipherable code and having a function of displaying and delivering the software to a user. Also, if necessary, the software may be stored on its own or read from the outside together with data.

또한, 본 발명의 실시예에 있어서의 단말기에는 위와 같은 데이터 처리 기능 뿐 아니라 입력, 출력, 저장 등의 기능이 포함되어 있으며, 이를 위하여 일반적인 컴퓨터 장치들이 갖는 CPU, 메인보드, 그래픽 카드, 하드디스크, 사운드 카드, 스피커, 키보드, 마우스, 모니터, USB, 통신 모뎀 등의 각종 요소들 뿐만 아니라 무선 스마트폰 단말기들이 갖는 CPU, 메인보드, 그래픽 칩, 메모리 칩, 사운드엔진, 스피커, 터치패드, USB 등의 외부 연결 단자, 통신 안테나, 3G, LTE, LTE-A, WiFi, 블루투스 등의 통신을 구현할 수 있는 통신 모뎀 등을 포함할 수 있다. 이러한 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 구현할 수 있으며, 본 발명의 실시예에서 도면이나 상세한 설명에서 하나 또는 그 이상의 블록으로 표시된 장치 또는 그 일부분들은 위와 같은 모바일 디바이스에 포함되어 있는 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 나타내는 것을 의미할 수 있다.In addition, the terminal in the embodiment of the present invention includes functions such as input, output, and storage as well as the above data processing function, and for this purpose, a CPU, a main board, a graphic card, a hard disk, Various elements such as sound card, speaker, keyboard, mouse, monitor, USB, communication modem, etc., as well as CPU, main board, graphic chip, memory chip, sound engine, speaker, touch pad, USB, etc. of wireless smartphone terminals It may include an external connection terminal, a communication antenna, a communication modem capable of implementing communication such as 3G, LTE, LTE-A, WiFi, and Bluetooth. These various elements can implement one or more functions alone, two or more together, or a part of various elements can be combined, and in the embodiment of the present invention, a device represented by one or more blocks in the drawings or detailed description, or The parts may mean that various elements included in the mobile device as described above represent one or more functions individually or in combination of two or more, or by combining a part of various elements.

한편, 본 발명의 실시예에서 모바일 디바이스 등은 통신 기능을 가질 수 있으며, 통신 기능을 구현하기 위하여 유선 인터넷, 무선 인터넷, 적외선 통신, 블루투스, WCDMA, Wibro, WiFi, LTE, LTE-A, 5G 유무선 전화망 등의 각종 네트워크 수단을 구비할 수 있다.Meanwhile, in an embodiment of the present invention, a mobile device or the like may have a communication function, and wired Internet, wireless Internet, infrared communication, Bluetooth, WCDMA, Wibro, WiFi, LTE, LTE-A, 5G wired and wireless to implement the communication function. Various network means such as a telephone network may be provided.

이하에서는 본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법에 대하여 첨부한 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, a method of generating an augmented reality object according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법을 수행하기 위한 모바일 디바이스의 시스템 블록도를 도시한 것이고, 도 2는 본 발명의 실시예에 따른 증강현실 객체를 생성하는 방법의 순서도를 도시한 것이다. 1 shows a system block diagram of a mobile device for performing a method for generating an augmented reality object according to an embodiment of the present invention, and FIG. 2 is a method for generating an augmented reality object according to an embodiment of the present invention. It shows a flow chart.

본 발명의 실시예에 따른 모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법은 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계를 포함한다 (S110).A method of generating an augmented reality object by a mobile device according to an embodiment of the present invention includes collecting a two-dimensional image through an image collection unit of the mobile device (S110).

예를 들면, 모바일 디바이스는 스마트폰, 태블릿 컴퓨터 등 카메라를 구비한 것일 수 있다. 사용자가 임의로 종이에 그림을 그리고, 그린 그림을 카메라로 촬영하는 방법을 예시할 수 있다. 카메라 촬영에 의하여 얻어진 임의로 그린 그림을 2차원 이미지로 하여 수집하게 될 수 있는데, 이때 2차원 이미지의 수집방법이 이에 한정되는 것은 아니다. 예를 들면, 스마트폰 또는 태블릿 컴퓨터 등 터치스크린을 구비한 모바일 디바이스의 경우 직접 모바일 디바이스의 터치스크린에 2차원 이미지를 드로잉 함으로써 2차원 이미지를 수집할 수 있다. For example, the mobile device may be a smartphone, tablet computer, or the like equipped with a camera. A method in which a user arbitrarily draws a picture on paper and photographs the drawn picture with a camera may be exemplified. Arbitrarily drawn pictures obtained by camera shooting may be collected as a two-dimensional image, but the method of collecting the two-dimensional image is not limited thereto. For example, in the case of a mobile device having a touch screen, such as a smart phone or tablet computer, the 2D image can be collected by directly drawing the 2D image on the touch screen of the mobile device.

이때, 상기 2차원 이미지는 폐곡선이거나 또는 폐곡선 내에 표현된 곡선일 수 있다. 여기서, 상기폐곡선은 일단의 한 점으로부터 출발하여 한 방향으로 움직여 다시 출발점으로 되돌아오는 곡선을 의미하며, 삼각형, 사각형, 오각형 등 다각형 또는 원을 포함하는 것으로 이해될 수 있다. 폐곡선인 경우 2차원이미지편집부에 의하여 판별된 폐곡선의 내부와 외부는 서로 구별되는 것으로 정의될 수 있다. In this case, the 2D image may be a closed curve or a curve expressed within the closed curve. Here, the closed curve refers to a curve that starts from one set of points and returns to the starting point by moving in one direction, and may be understood to include a polygon or a circle such as a triangle, a quadrangle, or a pentagon. In the case of a closed curve, the inside and outside of the closed curve determined by the 2D image editing unit may be defined as distinct from each other.

만약, 2차원 이미지가 폐곡선내에 표현된 곡선인 경우, 2차원이미지편집부가 곡선을 이용하여 곡선의 양단을 잇는 선분을 포함한 제3의 폐곡선으로 정의하는 단계를 더 포함할 수 있다. 예를 들어 동물의 머리를 그리고 머리에 있는 눈, 코, 입 등을 묘사하는 경우 선도로만 표시할 수 있는데, 이때의 선은 직선이 또는 선분이 아닌 완만한 곡률의 곡선으로 표현될 수 있다. 본 발명의 실시예에서는 이러한 곡선의 양단이 하나의 선분을 포함한 제3의 폐곡선으로 정의됨으로써 이후 서술할 사용자의 임의의 드래깅을 통해 입력된 동작을 수행함에 있어서 하나의 객체로 취급되어 동작 이미지를 표현하도록 구비될 수 있다. If the 2D image is a curve expressed in a closed curve, the 2D image editing unit may further include defining a third closed curve including a line segment connecting both ends of the curve using the curve. For example, when drawing an animal's head and describing the eyes, nose, mouth, etc. on the head, only a line can be displayed, but the line at this time can be expressed as a curve with a gentle curvature rather than a straight line or segment. In the embodiment of the present invention, both ends of this curve are defined as a third closed curve including one line segment, so that when performing an operation input through a user's arbitrary dragging, which will be described later, it is treated as one object and an operation image is expressed. may be provided to do so.

다음으로, 모바일 디바이스의 3차원이미지편집부를 통하여 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, x-y 평면과 수직한 z축 방향으로 임의의 높이로 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계를 포함한다 (S120).Next, the plane containing the 2D image is defined as the x-y plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the x-y plane to create a 3D image. and generating a dimensional image (S120).

예를 들면, 사용자가 종이 위에 2차원의 이미지를 드로잉 한 경우, 드로잉한 평면을 모바일 디바이스의 카메라로 촬영하여 2차원 이미지를 수집하게 되는데, 이때 수집된 2차원 이미지가 포함된 바닥면이 x-y 평면으로 정의된다. For example, when a user draws a 2D image on paper, the 2D image is collected by capturing the drawn plane with the camera of the mobile device. is defined as

3차원이미지편집부가 x-y 평면과 수직한 방향의 z 축을 정의하고, 2차원 이미지가 사용자가 미리 정의한 높이로 솟아오르도록 함으로써 2차원 이미지를 입체감을 전달하는 3차원 이미지의 형상으로 생성할 수 있다. The 3D image editing unit defines the z-axis in the direction perpendicular to the x-y plane, and allows the 2D image to rise to a height predefined by the user, thereby creating a 3D image shape that conveys a three-dimensional effect.

다만, 2차원 이미지의 경계면을 포함하여 z 축으로 솟아오르거나 꺼지는 것이 아니라 경계면으로부터 2차원 이미지를 구성하는 폐곡선 내부로 이행하면서 2차원이미지가 솟아오르며 연장되어 입체감을 갖는 3차원 이미지로 변형되는 것을 예시할 수 있다. 예를 들면, 강아지 모양을 바닥의 종이에 드로잉하고, 이를 모바일 디바이스의 카메라를 통해 수집하는 경우 강아지의 몸통부분이 일정한 볼륨감을 갖는 것으로 보이는 3차원 이미지의 형상으로 생성될 수 있다. 이때, 3차원 이미지는 x-y평면에 대칭하여 z축에 대한 양의 값과 음의 값을 모두 갖는 것으로 표현될 수 있다. x-y 평면을 기준으로 한 z축의 양의 방향으로만 볼륨감을 갖는 것이 아니라 음의 방향으로도 표면이 연장되어 볼륨감을 갖는 3차원이미지를 생성하도록 구비될 수 있다. 이를 통하여 본 발명의 실시예를 통해 생성된 증강현실 객체를 z축 기준 180도 반대 방향에서 바라보더라도 입체감을 갖는 3차원 이미지 형상으로 보일 수 있다. However, the 2D image does not rise or fall along the z-axis including the boundary of the 2D image, but moves from the boundary to the inside of the closed curve constituting the 2D image, and the 2D image rises and extends to transform into a 3D image with a three-dimensional effect. can be exemplified. For example, when a dog shape is drawn on paper on the floor and collected through a camera of a mobile device, a three-dimensional image in which the dog's body appears to have a certain sense of volume can be created. In this case, the 3D image may be expressed as having both positive and negative values on the z-axis symmetrically on the x-y plane. It may be provided to generate a three-dimensional image having a sense of volume by extending the surface in a negative direction as well as having a sense of volume only in the positive direction of the z-axis based on the x-y plane. Through this, even if the augmented reality object created through the embodiment of the present invention is viewed from the opposite direction of 180 degrees relative to the z-axis, it can be seen as a three-dimensional image shape having a three-dimensional effect.

한편, 3차원 이미지를 생성하는 단계는 x-y 평면이 터치스크린과 소정의 각도를 이루는 것으로 표현되기 위하여 터치스크린을 통해 x-y평면의 평면회전정보를 수집하는 단계를 더 포함할 수 있다.Meanwhile, the generating of the 3D image may further include collecting plane rotation information of the x-y plane through the touch screen so that the x-y plane forms a predetermined angle with the touch screen.

사용자는 모바일 디바이스의 터치스크린을 통해 x-y 평면이 최초 수집된 상태와 달리 터치스크린을 통해 확인할 때 일정 각도로 기운 것으로 보이도록 x-y 평면을 회전시킴으로써 x-y 평면을 재정의할 수 있다. 이 경우, z 축 역시 새로 정의된 x-y 평면의 기울기 변화만큼 변하게 된다. The user can redefine the x-y plane by rotating the x-y plane so that it appears inclined at a certain angle when checked through the touch screen, unlike the state in which the x-y plane is initially collected through the touch screen of the mobile device. In this case, the z-axis also changes by the change in inclination of the newly defined x-y plane.

다음으로, 모바일 디바이스의 터치스크린부를 터치하여 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계를 포함한다 (S130).Next, selecting an arbitrary coordinate on the surface of the 3D image by touching the touch screen of the mobile device (S130).

모바일 디바이스의 터치스크린부에는 입체감이 부여된 3차원 이미지가 디스플레이되며, 이는 주변 배경과는 구분되는 경계와 표면을 갖는 것으로 디스플레이 될 수 있다. 이러한 3차원 이미지의 표면의 임의의 점을 터치하는 것으로 임의의 좌표가 선택되도록 구비된다. 예를 들면, 모바일 디바이스의 터치스크린에 표시되는 강아지 형상의 3차원 이미지의 다리 끝 부분을 터치하여 다리 끝 부분의 좌표가 선택되도록 할 수 있다. A 3D image to which a three-dimensional effect is imparted is displayed on the touch screen of the mobile device, and this may be displayed as having a boundary and a surface distinguished from the surrounding background. Arbitrary coordinates are selected by touching an arbitrary point on the surface of the 3D image. For example, by touching the end of the leg of the 3D image of the puppy displayed on the touch screen of the mobile device, the coordinates of the end of the leg may be selected.

다음으로, 모바일 디바이스의 동작정보편집부가 3차원 이미지의 표면 중 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계를 포함한다 (S140).Next, the motion information editing unit of the mobile device includes a step of setting a predetermined range of motion around an arbitrary coordinate of the surface of the 3D image (S140).

본 단계에서는 3차원 이미지의 표면 중 선택된 임의의 좌표를 기준으로 한 원(circle)형 범위 내의 범위 또는 사용자가 지정한 임의의 폐곡선 범위 내에서만 3차원 이미지가 변형될 수 있는 것으로 지정된다. In this step, it is specified that the 3D image can be deformed only within a range within a circular range based on an arbitrary coordinate selected from the surface of the 3D image or within a range of a closed curve designated by the user.

x-y 평면과 z 축이 포함된 3차원 좌표계의 중심은 2차원 이미지의 x-y 평면상의 무게중심좌표일 수 있다. 3차원 이미지는 전체적인 형상의 무게중심좌표를 기준으로 고정된 상태에서 지정된 임의의 좌표 부근의 가동범위가 지정된 특정 부분만이 가동범위로 지정될 수 있다. The center of the 3D coordinate system including the x-y plane and the z-axis may be the coordinates of the center of gravity on the x-y plane of the 2D image. In a state in which the 3D image is fixed based on the coordinates of the center of gravity of the overall shape, only a specific portion with a designated movable range around an arbitrary coordinate can be designated as a movable range.

또는, 소정의 가동범위는 3차원 이미지 전체 또는 임의의 좌표로부터 미리 설정된 범위 내의 3차원 이미지의 일부일 수 있다. 즉, 3차원 이미지가 전체적으로 이동하는 것으로 지정한 경우 전체적 3차원 이미지의 좌표 변화량 만큼의 변화를 수반하며 가동범위가 함께 변화할 수 있다. Alternatively, the predetermined range of motion may be the entire 3D image or a part of the 3D image within a preset range from arbitrary coordinates. That is, when the 3D image is designated as moving as a whole, the movable range may change together with a change as much as the amount of change in coordinates of the entire 3D image.

한편, 3차원이미지편집부가 2차원 이미지를 구성하는 폐곡선으로부터 x-y 평면상의 무게중심좌표와 임의의 좌표의 x-y 평면상의 터치좌표를 추출하는 단계를 더 포함할 수 있다. 이를 통하여 무게중심좌표의 변화량에 따른 터치좌표의 변화량을 미리 계산함으로써 모바일 디바이스의 적은 자원으로도 가동범위가 지정된 3차원 이미지 표면의 전체적인 이동좌표를 산출할 수 있다. Meanwhile, the 3D image editing unit may further include extracting coordinates of the center of gravity on the x-y plane and touch coordinates on the x-y plane of arbitrary coordinates from the closed curve constituting the 2-dimensional image. Through this, by pre-calculating the amount of change in touch coordinates according to the amount of change in the center of gravity coordinates, it is possible to calculate the overall movement coordinates of the 3D image surface with a designated movable range even with small resources of the mobile device.

예를 들면, 이전 단계에서 선택된 임의의 좌표가 강아지의 다리 끝 부분인 경우 강아지의 다리가 움직이는 범위에 해당하는 가동범위가 동적정보편집부에 의하여 임의의 좌표를 중심으로 일정 범위 내의 원 안에서만 이루어지도록 가동범위를 부여할 수 있다. 만약, 강아지 형상의 3차원 이미지가 우측에서 좌측으로 이동하는 것으로 미리 설정된 경우 무게중심의 변화량에 따라 이미 부여된 가동범위가 함께 변화하며 움직임을 수행하도록 할 수 있다. For example, if the arbitrary coordinates selected in the previous step are the tip of the dog's leg, the dynamic information editing unit moves the range of motion corresponding to the range of movement of the dog's legs only within a certain range around the arbitrary coordinates. range can be given. If the three-dimensional image of the dog shape is preset to move from the right to the left, the movement range that has already been assigned according to the amount of change in the center of gravity can be changed and the movement can be performed.

상기 기술한 가동범위와 관련하여, 소정의 가동범위는 2차원 이미지의 윤곽선과 접하는 가상의 제1 접선과 연속된 제3의 접선이 미리 설정된 각도로 교차하는 경우, 제3의 접선이 윤곽선과 접하는 접점이 가동범위의 중심으로 설정될 수 있다. 예를 들면, 강아지 모양의 2차원 이미지의 윤곽은 곧은 선분이 아닌 이상 일정한 곡률을 갖는 곡선으로 표현될 수 있다. 이때 이미지의 윤곽의 연속된 접선의 기울기 변화가 감지되는 경우에 이를 가동범위의 중심으로 지정됨으로써 자연스러운 객체의 움직임을 표현할 수 있다. Regarding the above-described movable range, the predetermined movable range is the case where a virtual first tangent line in contact with the contour of the two-dimensional image and a continuous third tangent line intersect at a preset angle, and the third tangent line is in contact with the contour line. The contact point can be set to the center of the movable range. For example, the outline of a dog-shaped 2D image may be expressed as a curve having a constant curvature unless it is a straight line segment. In this case, when a change in slope of a continuous tangent line of the image contour is detected, natural movement of the object can be expressed by designating this as the center of the movable range.

이를 위하여, 2차원 이미지를 수집하는 단계는 모바일 디바이스의 2차원이미지편집부를 통하여 이미지수집부를 통하여 수집된 2차원 이미지로부터 주변 선도와 구별되는 2차원 객체의 외곽선을 추출하는 단계를 더 포함할 수 있다. 이때, 2차원이미지편집부는 소벨함수, 라플라시안함수 및 캐니함수로 이루어진 윤곽선검출알고리즘 중 어느 하나 이상의 방법을 통하여 2차원 객체의 외곽선을 추출할 수 있다.To this end, the step of collecting the 2D image may further include extracting the outline of the 2D object distinguished from the surrounding map from the 2D image collected through the image collection unit through the 2D image editing unit of the mobile device. . In this case, the 2D image editing unit may extract the outline of the 2D object through any one or more of contour detection algorithms composed of a Sobel function, a Laplacian function, and a Canny function.

소벨함수는 인접한 픽셀들의 차이로 기울기를 구하기 위해 x와 y방향으로 각각 편미분(한 문자에 대해서만 미분)하고, 커널 크기, 비율, 오프셋 등등을 설정하여 결과 이미지를 반환하는 알고리즘으로 정의될 수 있다. 상기 라플라시안함수는 2차 미분의 형태로 윤곽선이 밝은 부분에서 발생한 것인지 어두운 부분에서 발생한 것인지 알 수 있게 해주는 함수이고 각각 2번 편미분 한 후에 합한 값이 2차 미분 방식으로써 나머지는 소벨 방식과 다르지 않게 설정해놓고 결과 이미지를 출력하는 알고리즘으로 정의될 수 있다. 캐니함수는 라플라시안 함수의 알고리즘을 개선한 것으로, 1차 미분을 한 후에 4방향으로 벡터 미분을 한 후, 그 결과에서 극댓값을 갖는 지점들이 윤곽선이 된다. 캐니함수를 이용한 경우 상위 임곗값과 하위 임곗값을 설정하여 보다 정확하게 윤곽선을 검출해낼 수 있다. The Sobel function can be defined as an algorithm that performs partial differentiation in the x and y directions (differentiation only for one character) in order to obtain the gradient with the difference between adjacent pixels, and returns the resulting image by setting the kernel size, ratio, offset, etc. The Laplacian function is a function that allows you to determine whether the contour line has occurred in a bright area or a dark area in the form of a second order differential. It can be defined as an algorithm that outputs the resulting image after doing so. The Canny function is an improved algorithm of the Laplacian function. After the first differentiation, vector differentiation is performed in four directions, and the points having the maximum values in the result become contours. In the case of using the Canny function, the contour line can be detected more accurately by setting the upper and lower threshold values.

다음으로, 터치스크린부를 통하여 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계를 포함한다 (S150).Next, a step of inputting time-sequential coordinates through continuous dragging around an arbitrary coordinate through the touch screen unit (S150).

사용자는 모바일 디바이스의 터치스크린부에 디스플레이된 3차원 이미지의 임의의 좌표를 선택한 후 자신이 부여하기를 바라는 동작을 지정하게 된다. 예를 들면, 이전 단계에서 지정된 강아지의 다리 끝 부분을 터치한 상태로 손가락을 좌우방향으로 드래깅하여 다리 끝 부분이 움직이도록 좌우로 반복적인 보행 동작을 수행하는 궤적을 입력할 수 있다. A user selects an arbitrary coordinate of a 3D image displayed on a touch screen unit of a mobile device, and then designates an operation he/she wants to give. For example, by dragging a finger left and right while touching the tip of the dog's leg designated in the previous step, a trajectory for performing repetitive walking motions left and right so that the tip of the leg moves may be input.

다음으로, 3차원이미지편집부가 가동범위가 설정된 소정의 3차원 이미지의 표면이 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계를 포함한다 (S160).Next, the 3D image editing unit includes a step of generating motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes along with changes in time-series coordinates (S160).

본 단계에서는 3차원 이미지의 표면의 선택된 좌표지점 뿐만 아니라 주변의 폐곡선 내부의 표면도 함께 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 이해될 수 있다. 앞서서 설정된 시계열적 좌표의 변화에 따라 앞서 선택된 3차원 이미지의 표면과 윤곽선으로 구분되는 3차원 이미지 내측의 3차원 이미지 표면도 함께 시계열적 좌표의 변화에 따라 함께 변화함으로써 3차원 이미지의 특정부분의 움직임을 표현할 수 있다. In this step, it can be understood that not only the selected coordinate point of the surface of the 3D image, but also the surface inside the surrounding closed curve changes along with the change of time-series coordinates. According to the change of the previously set time-sequential coordinates, the surface of the 3D image inside the 3D image, which is divided into the surface and the outline of the previously selected 3D image, also changes according to the change of the time-sequential coordinates, thereby moving a specific part of the 3D image. can express

이때, 모바일 디바이스의 2차원이미지편집부는 수집된 이미지가 미리 저장된 데이터 상의 객체에 해당하는지 판단하거나 또는 이를 제3 서비스서버에 송신하여 윤곽선으로 표현되는 폐곡선과 가장 유사한 일상의 객체와 관련한 정보를 수신하여 객체의 윤곽선 변화에 따른 모습을 자연스럽게 표현하도록 구비될 수 있다. 예를 들면, 2차원 이미지의 윤곽선이 4족보행하는 꼬리가 달린 강아지인 경우 모바일디바이스의 2차원이미지편집부 또는 제3 서비스서버는 상기 윤곽선 정보를 기초로 머리, 다리와 꼬리의 경계를 정의하고 다리를 드래깅하여 표현된 움직임을 나머지 윤곽선의 변화에 함께 적용하여 자연스러운 움직임을 표현하도록 할 수 있다. At this time, the 2D image editing unit of the mobile device determines whether the collected image corresponds to an object on pre-stored data or transmits it to a third service server to receive information related to an everyday object most similar to a closed curve represented by an outline It may be provided to naturally express the appearance according to the change of the outline of the object. For example, if the outline of the 2D image is a four-legged dog with a tail, the 2D image editing unit of the mobile device or the third service server defines the boundaries of the head, legs, and tail based on the outline information and draws the legs. The movement expressed by dragging can be applied together with the change of the rest of the outline to express natural movement.

이를 위하여 2차원이미지편집부는 객체(동물)의 관절정보를 생성하고, 동물의 특정부위를 지정하여 드래깅하는 경우 선택된 특정부위 또는 특정부위로부터 일정 영역 내의 관절의 움직임에 따라 변화하는 다른 부위의 관절정보를 생성하고, 관절의 변화량을 윤곽선 변화에 적용하여 자연스러운 모션이 표현될 수 있도록 할 수 있다.To this end, the 2D image editing unit creates joint information of an object (animal), and when designating and dragging a specific part of an animal, the joint information of the selected specific part or other parts that change according to the movement of joints within a certain area from the specific part. , and apply the change amount of the joint to the change of the outline so that natural motion can be expressed.

본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In the present specification and drawings, preferred embodiments of the present invention are disclosed, and although specific terms are used, they are only used in a general sense to easily describe the technical content of the present invention and help understanding of the present invention, It is not intended to limit the scope. It is obvious to those skilled in the art that other modifications based on the technical idea of the present invention can be implemented in addition to the embodiments disclosed herein.

Claims (14)

삭제delete 삭제delete 모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 3차원 이미지는 상기 x-y평면에 대칭하여 상기 z축에 대한 양의 값과 음의 값을 모두 갖는 것으로 표현되는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
The 3D image is symmetrical to the xy plane and is represented as having both positive and negative values for the z-axis.
모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 소정의 가동범위는 상기 2차원 이미지의 윤곽선과 접하는 가상의 제1 접선과 연속된 제3의 접선이 미리 설정된 각도로 교차하는 경우, 상기 제3의 접선이 상기 윤곽선과 접하는 접점을 중심으로 설정되는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
The predetermined range of motion is set around the point of contact where the third tangent line comes into contact with the contour line when a third tangent line continuous with a virtual first tangent line contacting the contour line of the two-dimensional image intersects at a preset angle. A method for generating an augmented reality object, characterized in that being.
삭제delete 모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 소정의 가동범위는 상기 3차원 이미지 전체 또는 상기 임의의 좌표로부터 미리 설정된 범위 내의 상기 3차원 이미지의 일부인 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
The predetermined movable range is a method for generating an augmented reality object, characterized in that the entire three-dimensional image or a part of the three-dimensional image within a preset range from the arbitrary coordinates.
모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 2차원 이미지를 수집하는 단계;는
상기 모바일 디바이스의 2차원이미지편집부를 통하여 상기 이미지수집부를 통하여 수집된 상기 2차원 이미지로부터 주변 선도와 구별되는 2차원 객체의 외곽선을 추출하는 단계;를 더 포함하는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.

In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
Collecting the two-dimensional image;
Extracting an outline of a 2D object distinguished from a surrounding line from the 2D image collected through the image collection unit through the 2D image editing unit of the mobile device; Generating an augmented reality object that further comprises How to.

제7항에 있어서,
상기 2차원이미지편집부는 소벨함수, 라플라시안함수 및 캐니함수로 이루어진 윤곽선검출알고리즘 중 어느 하나 이상의 방법을 통하여 상기 2차원 객체의 외곽선을 추출하는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
According to claim 7,
The method of generating an augmented reality object, characterized in that the 2-dimensional image editing unit extracts the outline of the 2-dimensional object through any one or more of the contour detection algorithm consisting of a Sobel function, a Laplacian function and a Canny function.
모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 3차원 좌표계의 중심은 상기 2차원 이미지의 상기 x-y 평면상의 무게중심좌표인 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
The center of the three-dimensional coordinate system is a method for generating an augmented reality object, characterized in that the coordinates of the center of gravity on the xy plane of the two-dimensional image.
모바일 디바이스에 의하여 증강현실 객체를 생성하는 방법에 있어서,
상기 방법은,
상기 모바일 디바이스의 이미지수집부를 통하여 2차원 이미지를 수집하는 단계;
상기 모바일 디바이스의 3차원이미지편집부를 통하여 상기 2차원 이미지가 포함된 평면을 3차원 좌표계의 x-y평면으로 정의하고, 상기 x-y 평면과 수직한 z축 방향으로 임의의 높이로 상기 2차원 이미지를 연장하여 3차원 이미지를 생성하는 단계;
상기 모바일 디바이스의 터치스크린부를 터치하여 상기 3차원 이미지의 표면 중 임의의 좌표를 선택하는 단계;
상기 모바일 디바이스의 동작정보편집부가 상기 3차원 이미지의 표면 중 상기 임의의 좌표를 중심으로 소정의 가동범위를 설정하는 단계;
상기 터치스크린부를 통하여 상기 임의의 좌표를 중심으로 연속된 드래깅을 통해 시계열적 좌표가 입력되는 단계; 및
상기 3차원이미지편집부가 상기 가동범위가 설정된 소정의 3차원 이미지의 표면이 상기 시계열적 좌표의 변화에 따라 함께 변화하는 것으로 표현될 수 있는 가동정보를 생성하는 단계;를 포함하고,
상기 2차원 이미지는 폐곡선이거나 또는 상기 폐곡선 내에 표현된 곡선인 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
In the method of generating an augmented reality object by a mobile device,
The method,
Collecting a two-dimensional image through an image collection unit of the mobile device;
The plane containing the 2D image is defined as the xy plane of the 3D coordinate system through the 3D image editing unit of the mobile device, and the 2D image is extended to an arbitrary height in the z-axis direction perpendicular to the xy plane. generating a three-dimensional image;
Selecting an arbitrary coordinate of the surface of the 3D image by touching the touch screen of the mobile device;
setting a predetermined movable range around the arbitrary coordinates of the surface of the 3D image by the motion information editing unit of the mobile device;
inputting time-sequential coordinates through continuous dragging around the arbitrary coordinates through the touch screen unit; and
Generating, by the 3D image editing unit, motion information that can be expressed as the surface of a predetermined 3D image in which the motion range is set changes together with changes in the time-series coordinates,
Wherein the two-dimensional image is a closed curve or a curve expressed within the closed curve.
제10항에 있어서,
상기 2차원 이미지가 상기 폐곡선내에 표현된 곡선인 경우, 2차원이미지편집부가 상기 곡선을 이용하여 상기 곡선의 양단을 잇는 선분을 포함한 제3의 폐곡선으로 정의하는 단계;를 더 포함하는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
According to claim 10,
When the two-dimensional image is a curve expressed in the closed curve, defining a third closed curve including a line segment connecting both ends of the curve by a two-dimensional image editing unit using the curve; Characterized in that it further comprises How to create augmented reality objects.
제3항, 제4항, 제6항, 제7항, 제9항 및 제10항 중 어느 한 항에 있어서,
상기 3차원이미지편집부가 상기 2차원 이미지를 구성하는 폐곡선으로부터 상기 x-y 평면상의 무게중심좌표와 상기 임의의 좌표의 상기 x-y 평면상의 터치좌표를 추출하는 단계;를 더 포함하는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
The method of any one of claims 3, 4, 6, 7, 9 and 10,
Extracting, by the 3D image editing unit, the center of gravity coordinates on the xy plane and the touch coordinates on the xy plane of the arbitrary coordinates from the closed curve constituting the two-dimensional image; the augmented reality object further comprising How to create.
제3항, 제4항, 제6항, 제7항, 제9항 및 제10항 중 어느 한 항에 있어서,
상기 3차원 이미지를 생성하는 단계;는
상기 x-y 평면이 상기 터치스크린과 소정의 각도를 이루는 것으로 표현되기 위하여 상기 터치스크린을 통해 상기 x-y평면의 평면회전정보를 수집하는 단계;를 더 포함하는 것을 특징으로 하는 증강현실 객체를 생성하는 방법.
The method of any one of claims 3, 4, 6, 7, 9 and 10,
Generating the 3D image;
Collecting plane rotation information of the xy plane through the touch screen so that the xy plane is expressed as forming a predetermined angle with the touch screen; Method for generating an augmented reality object, characterized in that it further comprises.
제3항, 제4항, 제6항, 제7항, 제9항 및 제10항 중 어느 한 항에 따른 증강현실 객체를 생성하는 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.Claims 3, 4, 6, 7, 9, and 10, wherein a computer-readable medium recording a program for performing a method for generating an augmented reality object according to any one of claims.
KR1020210157804A 2021-11-16 2021-11-16 Method of creating augmented reality object KR102510496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210157804A KR102510496B1 (en) 2021-11-16 2021-11-16 Method of creating augmented reality object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210157804A KR102510496B1 (en) 2021-11-16 2021-11-16 Method of creating augmented reality object

Publications (1)

Publication Number Publication Date
KR102510496B1 true KR102510496B1 (en) 2023-03-16

Family

ID=85985488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210157804A KR102510496B1 (en) 2021-11-16 2021-11-16 Method of creating augmented reality object

Country Status (1)

Country Link
KR (1) KR102510496B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140001167A (en) * 2012-06-26 2014-01-06 한국과학기술원 Method and apparatus for providing augmented reality service in wearable computing environment
KR101595960B1 (en) * 2014-11-06 2016-02-19 (주)비타랩소프트 3d image generation method and apparatus performing the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140001167A (en) * 2012-06-26 2014-01-06 한국과학기술원 Method and apparatus for providing augmented reality service in wearable computing environment
KR101595960B1 (en) * 2014-11-06 2016-02-19 (주)비타랩소프트 3d image generation method and apparatus performing the same

Similar Documents

Publication Publication Date Title
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
US9855496B2 (en) Stereo video for gaming
EP3039656B1 (en) Method and apparatus for representing physical scene
CN104380338B (en) Information processor and information processing method
US8395614B2 (en) Generating an asset for interactive entertainment using digital image capture
KR20210019552A (en) Object modeling and movement methods and devices, and devices
KR102461232B1 (en) Image processing method and apparatus, electronic device, and storage medium
CN110889890A (en) Image processing method and device, processor, electronic device and storage medium
CN111862333B (en) Content processing method and device based on augmented reality, terminal equipment and storage medium
KR20220167323A (en) Augmented reality content creators including 3D data in a messaging system
US20190130599A1 (en) Systems and methods for determining when to provide eye contact from an avatar to a user viewing a virtual environment
US20150269759A1 (en) Image processing apparatus, image processing system, and image processing method
US11673054B2 (en) Controlling AR games on fashion items
CN108805989A (en) Method, apparatus, storage medium and the terminal device that scene is passed through
EP2003618A1 (en) Storage medium storing image processing program and image processing apparatus
CN108961375A (en) A kind of method and device generating 3-D image according to two dimensional image
CN107610236B (en) Interaction method and system based on graph recognition
JP7195238B2 (en) Systems and methods for augmented reality applications
KR102510496B1 (en) Method of creating augmented reality object
Ban et al. An object representation system using virtual space coordinates
KR20230096063A (en) 3D mesh generator based on 2D images
WO2022195323A1 (en) System and method to interpret a surround of a user to generate an augmented reality environment
CN118314200A (en) Pose acquisition method, pose acquisition device, terminal and storage medium
Furness et al. Interaction control based on vision for AR interface of smart phone

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant