KR101314756B1 - Augmented Reality Providing Apparatus And Method Using Control Marker - Google Patents

Augmented Reality Providing Apparatus And Method Using Control Marker Download PDF

Info

Publication number
KR101314756B1
KR101314756B1 KR1020120018459A KR20120018459A KR101314756B1 KR 101314756 B1 KR101314756 B1 KR 101314756B1 KR 1020120018459 A KR1020120018459 A KR 1020120018459A KR 20120018459 A KR20120018459 A KR 20120018459A KR 101314756 B1 KR101314756 B1 KR 101314756B1
Authority
KR
South Korea
Prior art keywords
marker
control
area
virtual object
control marker
Prior art date
Application number
KR1020120018459A
Other languages
Korean (ko)
Other versions
KR20130096897A (en
Inventor
김영섭
이경호
Original Assignee
단국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 산학협력단 filed Critical 단국대학교 산학협력단
Priority to KR1020120018459A priority Critical patent/KR101314756B1/en
Publication of KR20130096897A publication Critical patent/KR20130096897A/en
Application granted granted Critical
Publication of KR101314756B1 publication Critical patent/KR101314756B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

개시된 기술은 컨트롤 마커를 이용한 증강 현실 제공 장치 및 방법에 관한 것으로, 현실 세계에서 영상을 촬영하는 촬영부, 영상에 포함된 객체 마커와 컨트롤 마커를 검출하는 검출부, 객체 마커에서 가상 객체를 증강하고 컨트롤 마커에서 메뉴를 증강하는 구현부 및 증강된 가상 객체를 메뉴에 포함된 명령으로 제어하는 제어부를 포함한다. 따라서, 객체 마커 또는 컨트롤 마커의 일부가 가려지더라도 마커 본래의 형태를 검출하여 가상 객체 또는 메뉴를 증강할 수 있다. 그리고 증강된 가상 객체를 메뉴에 포함된 명령으로 다양하게 표현한다. 이로서, 마커를 정확히 검출하고, 현실감있는 증강 현실을 제공한다.The disclosed technology relates to an apparatus and method for providing augmented reality using a control marker. The present invention relates to a photographing unit for photographing an image in the real world, a detector for detecting an object marker and a control marker included in the image, and augmenting and controlling a virtual object in the object marker. An implementation unit for augmenting a menu in the marker and a controller for controlling the augmented virtual object with a command included in the menu. Therefore, even if a part of the object marker or the control marker is covered, the original shape of the marker may be detected to augment the virtual object or the menu. The augmented virtual object is expressed in various ways with the commands included in the menu. This accurately detects markers and provides realistic augmented reality.

Description

컨트롤 마커를 이용한 증강 현실 제공 장치 및 방법 {Augmented Reality Providing Apparatus And Method Using Control Marker}Augmented Reality Providing Apparatus And Method Using Control Marker}

개시된 기술은 증강 현실을 제공하는 장치 및 방법에 관한 것으로, 보다 자세하지만 제한됨 없이는, 마커의 일부분이 가려지더라도 마커를 용이하게 추출하고, 추출된 객체 마커에 증강된 가상 객체를 컨트롤 마커에 증강된 메뉴를 이용하여 제어하는 증강 현실 제공 장치 및 방법에 관한 것이다.The disclosed technology relates to an apparatus and method for providing augmented reality, which is more detailed but without limitation, easily extracts a marker even if a portion of the marker is covered, and augments a virtual object augmented in the extracted object marker to a control marker. An apparatus and method for providing augmented reality for controlling using a menu are provided.

증강 현실(Augmented Reality)은 완전한 가상 세계를 전제로 하는 가상 현실과는 달리, 현실 세계의 기반 위에 가상의 사물이나 정보를 오버랩하여 현실 세계 만으로는 얻기 어려운 부가적인 정보들을 보강하는 기술이다. 증강 현실과 같은 의미로 쓰이는 말로는 확장 현실, 혼합 현실이 있다. 완전한 가상 세계를 전제로 하는 가상 현실과는 달리 현실 세계의 환경 위에 가상의 대상을 결합시키기 때문에 현실감과 확장성에 있어서 차세대 디스플레이 기술로 각광받고 있다.Augmented Reality (Augmented Reality) is a technology that reinforces additional information that is difficult to obtain in the real world by overlapping virtual objects or information on the basis of the real world, unlike a virtual reality that assumes a perfect virtual world. The terms used in the sense of augmented reality are extended reality and mixed reality. Unlike virtual reality, which presupposes a complete virtual world, it combines virtual objects over the real world environment, making it the next generation display technology in terms of realism and scalability.

증강 현실을 이용하는 장치 및 방법에 있어서, 주된 기술은 마커를 검출하여 증강 될 객체의 좌표를 찾는 것이다. 종래의 증강 현실 구현 기술은 마커의 일부분이 가려지게 되면 마커를 검출하지 못하여 시스템 구축에 실패하거나, 마커를 오검출하여 잘못된 시스템을 구축하는 문제점이 있었다. 마커를 검출하는 방법에 관한 기술로는 일본공개특허 제2005-293141호(마커 검출 방법, 마커 검출 장치, 위치 자세 추정 방법 및 복합 현실 공간 제시 방법)가 있다.In an apparatus and method using augmented reality, the main technique is to find a coordinate of an object to be augmented by detecting a marker. In the conventional augmented reality implementation technology, when a part of the marker is covered, there is a problem of failing to construct the system by not detecting the marker, or incorrectly detecting the marker to construct a wrong system. As a technique related to a method of detecting a marker, there is a Japanese Laid-Open Patent Publication No. 2005-293141 (marker detection method, marker detection device, position pose estimation method, and composite reality space presentation method).

개시된 기술에서는 앞서 언급한 종래기술이 가려진 마커의 검출에 있어서 갖게되는 문제점을 해결하고, 컨트롤 마커를 이용하여 가상 객체를 현실감있게 표현하는 증강 현실 제공 장치 및 방법을 제공하는데 있다.The disclosed technology solves the problems of the aforementioned prior art in detecting the hidden markers, and provides an apparatus and method for providing augmented reality that realistically expresses a virtual object using a control marker.

상기의 기술적 과제를 이루기 위하여 개시된 기술의 제1 측면은 현실 세계를 나타내는 영상을 촬영하는 촬영부, 촬영된 상기 영상에서 컨트롤 마커 및 적어도 하나의 객체 마커를 검출하는 검출부, 상기 객체 마커의 영역에 가상 객체를 증강하고, 상기 컨트롤 마커의 영역에 적어도 하나의 메뉴 항목을 증강하는 구현부 및 상기 메뉴 항목에 상응하는 명령을 이용하여 상기 가상 객체를 제어하는 제어부를 포함하는 증강 현실 제공 장치를 제공하는데 있다.In order to achieve the above technical problem, a first aspect of the disclosed technology includes a photographing unit for photographing an image representing a real world, a detection unit for detecting a control marker and at least one object marker from the photographed image, and a virtual area of the object marker. An augmented reality providing apparatus comprising an implementation unit for augmenting an object and augmenting at least one menu item in an area of the control marker and a controller for controlling the virtual object by using a command corresponding to the menu item. .

상기의 기술적 과제를 이루기 위하여 개시된 제2 측면은 현실 세계를 나타내는 영상을 촬영하는 단계, 촬영된 상기 영상에서 컨트롤 마커 및 적어도 하나의 객체 마커를 검출하는 단계, 상기 객체 마커의 영역에 가상 객체를 증강하고, 상기 컨트롤 마커의 영역에 적어도 하나의 메뉴 항목을 증강하는 단계 및 상기 메뉴 항목에 상응하는 명령을 이용하여, 상기 가상 객체를 제어하는 단계를 포함하는 증강 현실 제공 방법을 제공하는데 있다.
According to a second aspect of the present invention, there is provided a method of photographing an image representing a real world, detecting a control marker and at least one object marker from the photographed image, and augmenting a virtual object in an area of the object marker. And augmenting at least one menu item in an area of the control marker, and controlling the virtual object by using a command corresponding to the menu item.

개시된 기술의 실시 예들은 다음의 장점들을 포함하는 효과를 가질 수 있다. 다만, 개시된 기술의 실시 예들이 이를 전부 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다. Embodiments of the disclosed technique may have effects that include the following advantages. It should be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, since the embodiments of the disclosed technology are not meant to include all such embodiments.

개시된 기술의 일 실시예에 따르면 마커 검출 장치 및 방법은 가려진 마커를 개시된 기술이 포함하는 구성요소와 방법으로 검출함으로써, 본래 마커가 증강하고자하는 가상 객체를 증강하여 사용자에게 나타내는 효과가 있다.According to an embodiment of the disclosed technology, the apparatus and method for detecting a marker has an effect of augmenting a virtual object to be augmented by the original marker to a user by detecting the hidden marker by the components and methods included in the disclosed technology.

또한 개시된 기술의 다른 일 실시예에 따르면 컨트롤 마커를 이용한 제어 장치 및 방법으로 증강된 가상 객체를 표현하여 현실감과 흥미를 제공하는 효과가 있다.In addition, according to another embodiment of the disclosed technology to express the virtual object augmented by the control device and method using the control marker has the effect of providing realism and interest.

도 1은 단수 또는 복수의 객체 마커 및 컨트롤 마커에 대한 도면이다.
도 2는 개시된 기술의 일 실시예에 따른 증강 현실 제공 장치에 대한 블록도이다.
도 3는 도 2의 구성요소 중, 검출부가 포함하는 구성 요소에 대한 실시예를 나타낸다.
도 4은 개시된 기술의 일 실시예에 포함된 마커 검출에 대한 단계를 나타낸다.
도 5는 개시된 기술의 일 실시예에 포함된 증강 현실 제공 장치의 일 실시예에 대한 순서도이다.
1 is a diagram of a singular or plural object markers and a control marker.
2 is a block diagram of an apparatus for providing augmented reality according to an embodiment of the disclosed technology.
FIG. 3 illustrates an embodiment of a component included in a detector among the components of FIG. 2.
4 shows steps for marker detection included in one embodiment of the disclosed technique.
5 is a flowchart of an embodiment of an apparatus for providing augmented reality included in an embodiment of the disclosed technology.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the disclosed technology should be understood to include equivalents capable of realizing technical ideas.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

“제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms " first ", " second ", and the like are used to distinguish one element from another and should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions describing the relationship between the components, such as "between" and "immediately between" or "neighboring to" and "directly neighboring to", should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "include" or "have" refer to features, numbers, steps, operations, components, parts, or parts thereof described. It is to be understood that the combination is intended to be present, but not to exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.

각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.Unless otherwise defined, all terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs. Terms such as those defined in the commonly used dictionaries should be construed to be consistent with the meanings in the context of the related art and should not be construed as having ideal or overly formal meanings unless expressly defined in this application. .

도 1은 객체 마커 및 컨트롤 마커에 대한 도면이다. 도 1의 (1)은 각각 하나의 객체 마커(110)와 컨트롤 마커(120)에 대한 도면이고 도 1의 (2)는 복수의 객체 마커(110a, 110b, 110c)와 컨트롤 마커(120)에 대한 도면이다. 마커는 종류에 따라 객체 마커(110)와 컨트롤 마커(120)로 구분된다. 일례로, 객체 마커(110)와 컨트롤 마커(120)를 구분하는 방법은 마커의 색을 달리하는 방법일 수 있다. 다른 일례로, 도 1에서 도시하는 바와 같이 마커 내부에 객체 마커(110)와 컨트롤 마커(120)를 구분하도록 기호나 글씨를 넣는 방법일 수 있다. 객체 마커(110)는 일반적인 가상 객체가 증강될 영역을 표시하는 마커이다. 객체 마커(110)는 사용자가 보는 영상에 증강되는 가상 객체에 대한 정보를 가지고 있을 수 있다. 컨트롤 마커(120)는 가상 객체를 제어하는 메뉴가 증강될 영역을 표시한다. 메뉴는 가상 객체를 제어하는 명령을 포함하고 있다. 예컨대, 증강되는 가상 객체가 개(dog)라면 메뉴는 객체 색변환, 객체 축소, 객체 확대 등과 같은 명령을 포함할 수 있다. 또한, 메뉴는 가상 객체와 연관성이 존재하는 명령을 포함할 수 있다. 예컨대, 객체 마커(120)에서 증강되는 가상 객체가 개(dog)라면 컨트롤 마커(120)에서 증강되는 메뉴가 포함하는 명령은 개와 연관성이 존재하는 앉기, 짖기 및 꼬리흔들기가 제공될 수 있다. 실시예에 따라, 객체 마커(110)는 도 1의 (2)에서 도시하는 바와 같이 한 영상 안에서 복수의 객체 마커(110a, 110b, 110c)로 존재할 수 있다. 그리고 컨트롤 마커(120)는 복수의 객체 마커들(110a, 110b, 110c)을 동시에 제어하거나 또는 원하는 일부를 제어할 수 있다. 일례로, 컨트롤 마커(120)는 객체 마커들(110a, 110b, 110c)과의 거리를 산출하여, 그 중 가장 가까이 위치한 객체 마커 110c를 제어할 수 있다. 다른 일례로, 컨트롤 마커(120)는 영상에 포함된 복수의 객체 마커(110a, 110b, 110c) 전부를 한번에 제어할 수도 있다.1 is a diagram for an object marker and a control marker. FIG. 1 (1) is a diagram of one object marker 110 and a control marker 120, respectively, and FIG. 1 (2) shows a plurality of object markers 110a, 110b, 110c and control marker 120. This is the drawing. The marker is divided into the object marker 110 and the control marker 120 according to the type. For example, the method of distinguishing the object marker 110 from the control marker 120 may be a method of changing the color of the marker. As another example, as shown in FIG. 1, a symbol or a text may be inserted into the marker to distinguish the object marker 110 from the control marker 120. The object marker 110 is a marker indicating an area where a general virtual object is to be augmented. The object marker 110 may have information about the virtual object that is augmented in the image viewed by the user. The control marker 120 displays an area where a menu for controlling the virtual object is to be augmented. Menus contain commands to control virtual objects. For example, if the augmented virtual object is a dog, the menu may include commands such as object color conversion, object reduction, object enlargement, and the like. In addition, the menu may include a command having an association with the virtual object. For example, if the virtual object augmented at the object marker 120 is a dog, the commands included in the menu augmented at the control marker 120 may be provided with sitting, barking, and tailing in association with the dog. According to an embodiment, the object marker 110 may exist as a plurality of object markers 110a, 110b, and 110c in one image, as shown in FIG. 1 (2). In addition, the control marker 120 may control the plurality of object markers 110a, 110b, and 110c at the same time or a desired portion. For example, the control marker 120 may calculate distances from the object markers 110a, 110b, and 110c, and control the object marker 110c located closest thereto. As another example, the control marker 120 may control all of the plurality of object markers 110a, 110b, and 110c included in the image at once.

도 2는 개시된 기술의 일 실시예에 따른 증강 현실 제공 장치(200)에 대한 블록도이다. 도2를 참조하면 증강 현실 제공 장치(200)는 촬영부(210), 검출부(220), 구현부(230) 및 제어부(240)를 포함한다. 촬영부(210)는 현실 세계의 영상을 촬영한다. 촬영된 영상은 적어도 하나의 객체 마커(110)와 컨트롤 마커(120)를 포함할 수 있다. 설명의 편의를 위하여, 이하 촬영된 영상은 도 1에서와 같이 적어도 하나의 객체 마커(110)와 컨트롤 마커(120)를 포함한다고 가정한다. 검출부(220)는 촬영된 영상에서 객체 마커(110)와 컨트롤 마커(120)를 검출한다. 예컨대, 검출하려는 객체 마커(110) 및 컨트롤 마커(120)의 일부분이 훼손되거나 장애물로 가려진 상태라면 가려진 부분을 캐니 엣지 알고리즘 및 호프 변환 알고리즘을 기반으로 검출할 수 있다. 또한 검출부(220)는 촬영 영상에서 조작 수단을 검출한다. 조작 수단은 컨트롤 마커(120) 영역에 접근하여 증강된 메뉴 항목을 선택한다. 일례로, 조작 수단은 촬영 영상에서 신체 말단을 인식할 수 있도록 하는 도구(예컨대, 손에 쥘 수 있는 발광장치, 지휘봉)일 수 있다. 다른 일례로, 조작 수단은 신체 말단(예컨대, 손가락 등) 자체일 수 있다. 구현부(230)는 객체 마커(110)의 영역에 가상 객체를 증강하고, 컨트롤 마커(120)의 영역에 적어도 하나의 메뉴 항목을 증강한다. 일례로, 컨트롤 마커(120)에는 하나의 메뉴 항목(객체 축소)만이 증강될 수도 있으며, 다른 일례로, 복수의 메뉴 항목들(앉기, 짖기, 꼬리흔들기)이 증강될 수도 있다. 제어부(240)는 메뉴에 상응하는 명령을 이용하여 가상 객체를 제어한다. 예컨대, 검출된 객체 마커들(110a, 110b, 110c)이 복수라면, 제어부(240)는 객체 마커들(110a, 110b, 110c) 간의 좌표 차이를 기반으로 선택된 어느 하나의 객체 마커 영역에 증강된 가상 객체를 제어할 수 있다. 일 실시예에 따라, 제어부(240)는 검출부(220)가 검출한 조작 수단의 조작에 따라 가상 객체를 제어할 수 있다. 예컨대, 제어부(240)는 조작 수단이 컨트롤 마커(120)에 증강된 메뉴 항목에 위치한다고 판단하면 해당하는 명령에 따라 가상 객체를 제어할 수 있다. 또한, 실시예에 따라, 컨트롤 마커(120)에 증강된 메뉴 항목이 복수인 경우, 제어부(240)는 조작 수단에 의하여 선택되는 메뉴항목에 상응하는 명령에 따라 가상 객체를 제어할 수 있다. 2 is a block diagram of an apparatus 200 for providing augmented reality according to an embodiment of the disclosed technology. Referring to FIG. 2, the apparatus for providing augmented reality 200 includes a photographing unit 210, a detector 220, an implementation unit 230, and a controller 240. The photographing unit 210 captures an image of the real world. The captured image may include at least one object marker 110 and a control marker 120. For convenience of explanation, it is assumed that the captured image includes at least one object marker 110 and a control marker 120 as shown in FIG. 1. The detector 220 detects the object marker 110 and the control marker 120 from the captured image. For example, if a part of the object marker 110 and the control marker 120 to be detected is damaged or obscured by an obstacle, the hidden part may be detected based on a canny edge algorithm and a hop transform algorithm. In addition, the detector 220 detects an operation means in the captured image. The operation means accesses the control marker 120 area to select the augmented menu item. For example, the manipulation means may be a tool (eg, a hand-held light emitting device, a baton) to recognize the body end in the captured image. In another example, the manipulation means may be the body end (eg, finger, etc.) itself. The implementation unit 230 augments the virtual object in the area of the object marker 110 and augments at least one menu item in the area of the control marker 120. For example, only one menu item (object collapse) may be augmented to the control marker 120, and as another example, a plurality of menu items (sitting, barking, and tailing) may be augmented. The controller 240 controls the virtual object using a command corresponding to the menu. For example, if the detected object markers 110a, 110b, 110c are plural, the control unit 240 may augment the virtual marker in one of the selected object marker regions based on the coordinate difference between the object markers 110a, 110b, 110c. You can control the object. According to an exemplary embodiment, the controller 240 may control the virtual object according to the manipulation of the manipulation means detected by the detector 220. For example, if it is determined that the manipulation means is located in a menu item augmented by the control marker 120, the controller 240 may control the virtual object according to a corresponding command. In addition, according to an exemplary embodiment, when there are a plurality of menu items enhanced in the control marker 120, the controller 240 may control the virtual object according to a command corresponding to the menu item selected by the manipulation means.

도 3은 개시된 기술의 일 실시예에 따라 도 2의 검출부를 설명하기 위한 블록도이다. 도 3을 참조하면 검출부(220)는 직선 검출부(310), 연결선 생성부(320) 및 꼭지점 결정부(330)를 포함한다. 직선 검출부(310)는 촬영된 영상에서 직선들을 검출한다. 일 실시예에 따른 직선 검출부(310)는 경계선 추출부(310a)와 직선 추출부(310b)를 포함할 수 있다. 경계선 추출부(310a)는 영상에 존재하는 경계선을 추출한다. 예컨대, 경계선 추출부(310a)는 케니 엣지 알고리즘을 기반으로 영상의 노이즈를 제거하고 경계선을 추출할 수 있다. 직선 추출부(310b)는 경계선 추출부(310a)에서 추출한 경계선 중에서 직선을 추출한다. 예컨대, 직선 추출부(310b)는 호프 변환 알고리즘을 기반으로 경계선들 중에서 직선의 강도가 높은 경계선을 직선으로 추출할 수 있다. 연결선 생성부(320)는 마커 기준점을 연결하여 마커의 중심을 지나는 연결선(420a, 420b)들을 생성한다. 마커 기준점은 마커 중심점을 사이에 두고 서로 일직선상에 존재하는 대칭점이다. 일례로, 연결선 생성부(320)는 미리 결정된 두개의 기준점이 중심점을 지나도록 연결한 연결선 420a 및 420b를 생성할 수 있다. 다른 일례로, 마커 자체에 중심점이 표시되어 있어서 중심점에서 기준점으로 연결되는 연결선(420a, 420b)들을 생성할 수도 있다. 꼭지점 결정부(330)는 가려진 마커의 모서리가 만나는 것으로 추정되는 꼭지점을 결정하여 마커를 복원한다. 예컨대, 꼭지점 결정부(330)는 우선 직선 검출부(310)가 검출한 직선들 및 그 연장선들의 교차점들을 꼭지점 후보로 산출한다. 이후, 꼭지점 결정부(330)는 꼭지점 후보로 산출된 교차점들 중에서, 연결선 생성부(320)가 생성한 연결선과의 가장 짧은 거리에 존재하는 교차점을 꼭지점으로 결정할 수 있다.3 is a block diagram illustrating the detector of FIG. 2 in accordance with an embodiment of the disclosed technology. Referring to FIG. 3, the detector 220 includes a straight line detector 310, a connection line generator 320, and a vertex determiner 330. The straight line detector 310 detects straight lines in the captured image. The straight line detector 310 according to an embodiment may include a boundary line extractor 310a and a straight line extractor 310b. The boundary extractor 310a extracts a boundary existing in the image. For example, the boundary extractor 310a may remove noise of an image and extract a boundary based on the Kenny edge algorithm. The straight line extracting unit 310b extracts a straight line from the boundary lines extracted by the boundary extracting unit 310a. For example, the straight line extractor 310b may extract, as a straight line, a boundary line having a high intensity of straight lines among the boundary lines based on the hop transform algorithm. The connection line generator 320 connects the marker reference points to generate connection lines 420a and 420b passing through the center of the marker. Marker reference points are symmetry points that exist in a straight line with each other between the marker center points. For example, the connection line generator 320 may generate the connection lines 420a and 420b that connect two predetermined reference points to pass through the center point. As another example, the center point may be displayed on the marker itself to generate connection lines 420a and 420b connected from the center point to the reference point. The vertex determination unit 330 restores the marker by determining a vertex estimated to meet the corner of the masked marker. For example, the vertex determiner 330 first calculates the intersection points of the straight lines and the extension lines detected by the straight line detector 310 as vertex candidates. Thereafter, the vertex determiner 330 may determine, as a vertex, an intersection present at the shortest distance from the connection line generated by the connection line generator 320 among the intersection points calculated as the vertex candidates.

도 4는 일부가 가려진 객체 마커 또는 컨트롤 마커를 검출하는 과정을 나타낸다. 도 4의 (1)은 일 부분이 가려진 마커를 나타내는 도면이다. 도 4의 (2)는 영상에서 검출된 직선들 또는 그 연장선들의 교점을 산출하는 과정을 나타낸다. 도 4의 (2)에 나타난 직선들(410a, 410b, 410c, 410d)은 마커 내외곽선일 수 있으므로, 이들 간의 교차점은 마커의 꼭지점으로 간주될 수 있다. 도 4의 (3)은 마커의 가려진 부분의 꼭지점을 검출하는 모습을 나타낸다. 가려진 부분의 꼭지점은 마커의 내곽과 외곽의 기준점이 되므로, 마커의 본래 모습을 복원할 수 있다. 꼭지점을 찾기 위해서 연결선 420a 및 420b를 생성하여 도 4의 (2)에서 산출된 교차점들 중 연결선과 가장 가까이에 위치하는 교차점을 찾는다. 일례로, 도 4의 (3)에 도시된 바와 같이 연결선 420a는 마커 내곽의 기준점과 마커 중심점을 연결하여 생성할 수 있다. 다른 일례로, 연결선 420a는 마커 외곽의 기준점과 마커 중심점을 연결하여 생성할 수도 있다. 그리고 연결선 420a와 같은 중심점을 지나되, 연결선 420a를 생성하는데 사용하지 않은 다른 기준점을 연결하면 연결선 420b를 생성할 수 있다. 연결선 420b는 마커 내외곽의 직선들(410a, 410b, 410c, 410d)과 교차되는 꼭지점들 중에서 최단 거리에 존재하는 꼭지점 430a와 430b를 찾을 수 있다. 도 4의 (4)는 앞선 (1),(2) 및(3)의 순서를 거쳐 검출한 마커 본래의 모습이다. 4 illustrates a process of detecting an object marker or a control marker that is partially hidden. FIG. 4 (1) is a diagram showing a marker with a portion hidden. 4 shows a process of calculating intersection points of straight lines or extension lines detected in an image. Since the straight lines 410a, 410b, 410c, and 410d shown in (2) of FIG. 4 may be inner and outer marker lines, an intersection point between them may be regarded as a vertex of the marker. 4 (3) shows the state of detecting the vertex of the hidden portion of the marker. Since the vertices of the hidden portions become reference points of the inner and outer sides of the marker, the original shape of the marker can be restored. In order to find the vertex, connecting lines 420a and 420b are generated to find an intersection point closest to the connecting line among the intersection points calculated in FIG. For example, as illustrated in (3) of FIG. 4, the connecting line 420a may be generated by connecting the marker center point with the reference point of the inner edge of the marker. As another example, the connection line 420a may be generated by connecting a marker center point with a reference point outside the marker. The connection line 420b may be generated by passing through the same center point as the connection line 420a but connecting another reference point not used to generate the connection line 420a. The connection line 420b may find vertices 430a and 430b that exist at the shortest distance among the vertices intersecting the straight lines 410a, 410b, 410c, and 410d inside and outside the marker. Fig. 4 (4) is the original state of the marker detected through the procedure of the preceding (1), (2) and (3).

도 5는 개시된 기술의 일 실시예에 따른 증강 현실을 제공하는 방법을 설명하는 순서도이다. 510 단계에서는 촬영부가 현실 세계를 나타내는 영상을 촬영하여 입력한다. 예컨대, 촬영된 영상은 카메라, 캠코더 또는 스마트폰을 이용한 것일 수 있다. 촬영된 영상은 증강 현실을 제공할 목적으로 촬영하였기 때문에 적어도 하나의 객체 마커(110)와 컨트롤 마커(120)를 포함할 수 있다. 520 단계에서는 영상에 포함된 객체 마커(110)와 컨트롤 마커(120)를 검출한다. 예컨대, 마커의 검출은 케니 엣지 알고리즘 및 호프 변환 알고리즘에 기초한 방법으로 이루어질 수 있다. 530 단계에서는 검출된 객체 마커(110) 영역과 컨트롤 마커(120) 영역에 각각 가상 객체와 가상 객체에 대한 메뉴를 증강한다. 메뉴는 증강된 가상 객체에 대한 적어도 하나의 명령을 포함한다. 540 단계에서는 증강된 메뉴에 접근해서 가상 객체를 제어하기 위한 조작 수단을 검출하여 움직임을 인식한다. 일례로, 조작 수단은 손, 발 또는 머리인 신체 말단일 수 있다. 다른 일례로, 조작 수단은 지시봉이나 막대인 사물일 수 있다. 그리고 조작 수단을 화면에서 인식하여 메뉴에 접근하거나 조작 수단으로 터치패드를 이용하여 메뉴에 접근하는 방법을 사용할 수 있다. 550 단계에서는 메뉴에서 제공하는 명령을 선택한다. 메뉴는 가상 객체를 제어하는 명령을 포함한다. 메뉴는 증강된 가상 객체가 단수, 복수일 때에 따라서 다른 형태를 가질 수 있다. 일 실시예로, 증강된 가상 객체가 개(dog) 하나라면 개의 행동이나 모습을 나타내는 명령들을 제공하는 메뉴가 될 수 있다. 다른 일 실시예로, 증강된 가상 객체가 하나를 초과한다면 가상 객체들 간의 연관성 유무에 따라 메뉴의 명령을 묶거나 또는 분리하여 제공할 수 있다. 예컨대, 증강된 가상 객체들이 개, 고양이 및 원숭이라면 동물이라는 연관성에 의한 공통된 명령을 포함하는 메뉴로 앉기, 서기, 짖기를 함께 묶어서 제공할 수 있고, 가상 객체들이 개, 책상, 옷이라면 각각을 제어하는 명령을 따로 제공하는 메뉴일 수 있다. 560 단계에서는 메뉴의 명령에 상응하는 동작을 가상 객체를 통해 나타낸다. 예컨대, 가상 객체가 사람이고 선택한 메뉴의 명령이 앉기라면, 선택한 명령에 상응하도록 가상의 사람이 앉아있는 모습을 나타내도록 할 수 있다.5 is a flowchart illustrating a method of providing augmented reality according to an embodiment of the disclosed technology. In operation 510, the photographing unit captures and inputs an image representing the real world. For example, the captured image may be a camera, a camcorder, or a smartphone. The photographed image may include at least one object marker 110 and a control marker 120 because the photographed image is photographed for the purpose of providing augmented reality. In operation 520, the object marker 110 and the control marker 120 included in the image are detected. For example, the detection of the marker may be made in a method based on the Kenny edge algorithm and the hop transform algorithm. In operation 530, a menu for the virtual object and the virtual object is augmented in the detected object marker 110 area and the control marker 120 area, respectively. The menu includes at least one command for the augmented virtual object. In operation 540, a motion is detected by detecting an operation means for controlling a virtual object by accessing an enhanced menu. In one example, the manipulating means may be a body end that is a hand, foot or head. In another example, the manipulation means may be an object that is an indicator rod or a rod. In addition, a method of accessing a menu by recognizing a manipulation means on a screen or using a touchpad as a manipulation means may be used. In step 550, a command provided from a menu is selected. The menu contains commands to control the virtual object. The menu may have a different form depending on the singular or plural augmented virtual objects. In one embodiment, if the augmented virtual object is a dog, it may be a menu that provides commands indicating the behavior or appearance of the dog. In another embodiment, if more than one augmented virtual object is provided, the commands of the menu may be bundled or separated according to the association between the virtual objects. For example, if augmented virtual objects are dogs, cats, and monkeys, a menu containing common commands by the association of animals may be provided together to provide sitting, standing, and barking together. It may be a menu that provides a separate command. In operation 560, the operation corresponding to the command of the menu is represented through the virtual object. For example, if the virtual object is a person and the command of the selected menu is sitting, the virtual person may be shown to sit as the corresponding command.

개시된 기술의 실시예를 통한 증강 현실 제공 장치 및 방법은 이해를 돕기 위하여 도면에 도시된 실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 개시된 기술의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.Apparatus and method for providing augmented reality through embodiments of the disclosed technology have been described with reference to the embodiments illustrated in the drawings for clarity, but these are merely exemplary and various modifications therefrom can be made by those skilled in the art. And other equivalent embodiments are possible. Accordingly, the true scope of protection of the disclosed technology should be determined by the appended claims.

110 : 객체 마커 120 : 컨트롤 마커
110a, 110b, 110c : 복수의 객체 마커
200 : 증강 현실 제공 장치 210 : 촬영부
220 : 검출부 230 : 구현부
240 : 제어부 310 : 직선검출부
310a : 경계선 추출부 310b : 직선 추출부
320 : 연결선 생성부 330 : 꼭지점 결정부
410a, 410b, 410c, 410d : 직선들 420a, 420b : 연결선
430a, 430b : 꼭지점
510 : 영상 입력 단계 520 : 마커 검출 단계
530 : 객체 증강 단계 540 : 패턴 인식 단계
550 : 메뉴 선택 단계 560 : 객체 동작 단계
110: object marker 120: control marker
110a, 110b, 110c: multiple object markers
200: augmented reality providing device 210: the photographing unit
220: detector 230: implementer
240 control unit 310 linear detection unit
310a: boundary line extraction unit 310b: straight line extraction unit
320: connection line generation unit 330: vertex determination unit
410a, 410b, 410c, 410d: straight lines 420a, 420b: connecting line
430a, 430b: vertices
510: Image input step 520: Marker detection step
530: object augmentation step 540: pattern recognition step
550: menu selection step 560: object operation step

Claims (15)

현실 세계를 나타내는 영상을 촬영하는 촬영부;
촬영된 상기 영상에서 컨트롤 마커 및 적어도 하나의 객체 마커를 검출하는 검출부;
상기 객체 마커의 영역에 가상 객체를 증강하고, 상기 컨트롤 마커의 영역에 적어도 하나의 메뉴 항목을 증강하는 구현부; 및
상기 메뉴 항목에 상응하는 명령을 이용하여, 상기 가상 객체를 제어하는 제어부를 포함하되,
상기 검출부는,
상기 영상에서 직선들을 검출하는 직선검출부;
상기 컨트롤 마커 및 상기 적어도 하나의 객체 마커 중 어느 하나의 중심점에 대칭되는 기준점들을 연결하여 연결선을 생성하는 연결선 생성부; 및
상기 직선들 또는 상기 직선들의 연장선 간의 교차점들 중에서 상기 연결선과의 거리가 가장 짧은 교차점을 상기 검출부가 검출하려는 마커의 꼭지점으로 결정하는 꼭지점 결정부를 포함하고,
상기 기준점들은, 상기 컨트롤 마커 및 상기 적어도 하나의 객체 마커의 내곽 또는 외곽에 존재하는 꼭지점들을 포함하는 증강 현실 제공 장치.
A photographing unit which photographs an image representing a real world;
A detector detecting a control marker and at least one object marker in the captured image;
An implementation unit for augmenting a virtual object in an area of the object marker and augmenting at least one menu item in an area of the control marker; And
And a controller for controlling the virtual object by using a command corresponding to the menu item.
Wherein:
A straight line detector for detecting straight lines in the image;
A connection line generation unit configured to generate a connection line by connecting reference points symmetrical to one of the center markers of the control marker and the at least one object marker; And
And a vertex determining unit configured to determine, as vertices of the markers to be detected by the detector, the intersection between the straight lines or the intersection points of the straight lines having the shortest distance from the connection line.
The reference points, the augmented reality providing apparatus comprising a vertex existing in or out of the control marker and the at least one object marker.
제1항에 있어서, 상기 제어부는,
상기 객체 마커의 영역과 상기 컨트롤 마커의 영역 간의 거리를 기반으로, 상기 가상 객체를 제어하는 증강 현실 제공 장치.
The apparatus of claim 1,
The apparatus for providing augmented reality that controls the virtual object based on a distance between an area of the object marker and an area of the control marker.
제1항에 있어서, 상기 검출부가 복수의 객체 마커들을 검출한 경우,
상기 구현부는, 각 객체 마커의 영역에 상기 각 객체 마커와 상응하는 각 가상 객체를 증강시키고,
상기 제어부는, 상기 복수의 객체 마커들 중 상기 컨트롤 마커와 상기 복수의 객체 마커들 간의 각 좌표 차이를 기반으로 선택되는 어느 하나의 객체 마커의 영역에 증강된 가상 객체를 제어하는 증강 현실 제공 장치.
The method of claim 1, wherein when the detector detects a plurality of object markers,
The implementation unit augments each virtual object corresponding to each object marker in an area of each object marker,
The control unit, augmented reality providing apparatus for controlling an augmented virtual object in the region of any one object marker selected based on the coordinate difference between the control marker and the plurality of object markers of the plurality of object markers.
제1항에 있어서, 상기 구현부가 상기 컨트롤 마커의 영역에 복수의 메뉴 항목들을 증강하는 경우,
상기 검출부는, 촬영된 상기 영상에서 조작 수단을 검출하고,
상기 제어부는 상기 조작 수단의 움직임에 따라 상기 복수의 메뉴 항목들 중 어느 하나의 메뉴 항목을 선택하고, 선택된 상기 어느 하나의 메뉴 항목에 상응하는 명령을 이용하여 상기 가상 객체를 제어하는 증강 현실 제공 장치.
The method of claim 1, wherein the implementation unit augments a plurality of menu items in an area of the control marker.
The detection unit detects an operation means in the captured image,
The controller selects any one of the plurality of menu items according to the movement of the manipulation means and controls the virtual object by using a command corresponding to the selected one of the menu items. .
삭제delete 삭제delete 제1항에 있어서, 상기 중심점은,
상기 컨트롤 마커 또는 상기 적어도 하나의 객체 마커의 중심에 표시되거나 또는 상기 연결선의 중심상에 존재하는 증강 현실 제공 장치.
The method of claim 1, wherein the center point,
The apparatus for providing augmented reality displayed on the center of the control marker or the at least one object marker or on the center of the connecting line.
제1항에 있어서, 상기 직선 검출부는,
캐니 엣지 알고리즘을 기초로 상기 영상에 존재하는 경계선들을 추출하는 경계선 추출부; 및
호프 변환 알고리즘에 따라 산출되는 직선강도를 기초로 상기 경계선들 중 직선들을 추출하는 직선 추출부를 포함하는 증강 현실 제공 장치.
The method of claim 1, wherein the straight line detector,
A boundary line extracting unit for extracting boundary lines existing in the image based on a canny edge algorithm; And
And a straight line extracting unit configured to extract straight lines among the boundary lines based on a straight line strength calculated according to a hop transform algorithm.
현실 세계를 나타내는 영상을 촬영하는 단계;
촬영된 상기 영상에서 컨트롤 마커 및 적어도 하나의 객체 마커를 검출하는 단계;
상기 객체 마커의 영역에 가상 객체를 증강하고, 상기 컨트롤 마커의 영역에 적어도 하나의 메뉴 항목을 증강하는 단계; 및
상기 메뉴 항목에 상응하는 명령을 이용하여, 상기 가상 객체를 제어하는 단계를 포함하되,
상기 검출하는 단계는,
촬영된 상기 영상에서 직선들을 검출하는 단계;
상기 컨트롤 마커 및 상기 적어도 하나의 객체 마커 중 어느 하나의 중심점에 대칭되는 기준점들을 연결하여 연결선을 생성하는 단계; 및
상기 직선들 또는 상기 직선들의 연장선들 간의 교차점들 중에서 상기 연결선과의 거리가 가장 짧은 교차점을 검출하려는 마커의 꼭지점으로 결정하는 단계;를 포함하고,
상기 기준점들은, 상기 컨트롤 마커 및 상기 적어도 하나의 객체 마커의 내과 또는 외곽에 존재하는 꼭지점들을 포함하는 증강 현실 제공 방법.
Photographing an image representing a real world;
Detecting a control marker and at least one object marker from the captured image;
Augmenting a virtual object in an area of the object marker and augmenting at least one menu item in an area of the control marker; And
Controlling the virtual object using a command corresponding to the menu item;
Wherein the detecting comprises:
Detecting straight lines in the captured image;
Generating a connection line by connecting reference points symmetrical to a center point of any one of the control marker and the at least one object marker; And
Determining the vertex of the marker to detect the intersection point of the shortest distance from the connection line among the intersection points between the straight lines or the extension lines of the straight lines;
The reference points, augmented reality providing method comprising a vertex existing in or inside the control marker and the at least one object marker.
제9항에 있어서, 상기 제어하는 단계는,
상기 객체 마커의 영역과 상기 컨트롤 마커의 영역 간의 거리를 기반으로, 상기 가상 객체를 제어하는 증강 현실 제공 방법.
The method of claim 9, wherein the controlling step,
And controlling the virtual object based on a distance between the area of the object marker and the area of the control marker.
제10항에 있어서, 촬영된 상기 영상에서 복수의 객체 마커들이 검출된 경우,
상기 제어하는 단계는,
상기 복수의 객체 마커들 중 상기 컨트롤 마커와의 거리가 가장 짧은 객체 마커를 선택하는 단계; 및
상기 선택된 객체 마커의 영역에 증강된 가상 객체를 제어하는 단계를 포함하는 증강 현실 제공 방법.
The method of claim 10, wherein when a plurality of object markers are detected in the captured image,
Wherein the controlling comprises:
Selecting an object marker having a shortest distance from the control marker among the plurality of object markers; And
And controlling an augmented virtual object in an area of the selected object marker.
제9항에 있어서, 상기 컨트롤 마커의 영역에 복수의 메뉴 항목들이 증강된 경우,
촬영된 상기 영상에서 조작 수단을 검출하고, 상기 검출된 조작 수단의 움직임을 추적하는 단계를 더 포함하고,
상기 제어하는 단계는, 상기 조작 수단의 움직임에 따라 상기 복수의 메뉴 항목들 중 어느 하나의 메뉴 항목을 선택하고, 선택된 상기 어느 하나의 메뉴 항목에 상응하는 명령을 이용하여 상기 가상 객체를 제어하는 단계를 포함하는 증강 현실 제공 방법.
The method of claim 9, wherein when a plurality of menu items are augmented in an area of the control marker,
Detecting an operation means in the captured image, and tracking a movement of the detected operation means;
The controlling may include selecting one menu item among the plurality of menu items according to the movement of the manipulation means, and controlling the virtual object using a command corresponding to the selected one menu item. Augmented reality providing method comprising a.
삭제delete 삭제delete 제9항에 있어서, 상기 직선들을 검출하는 단계는,
캐니 엣지 알고리즘을 기초로 상기 영상에 존재하는 경계선들을 추출하는 단계; 및
호프 변환 알고리즘에 따라 산출되는 직선강도를 기초로 상기 경계선들 중 직선들을 추출하는 단계를 포함하는 증강 현실 제공 방법.
The method of claim 9, wherein the detecting of the straight lines comprises:
Extracting boundary lines existing in the image based on a canny edge algorithm; And
And extracting straight lines from the boundary lines based on a straight line strength calculated according to a hop transform algorithm.
KR1020120018459A 2012-02-23 2012-02-23 Augmented Reality Providing Apparatus And Method Using Control Marker KR101314756B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120018459A KR101314756B1 (en) 2012-02-23 2012-02-23 Augmented Reality Providing Apparatus And Method Using Control Marker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120018459A KR101314756B1 (en) 2012-02-23 2012-02-23 Augmented Reality Providing Apparatus And Method Using Control Marker

Publications (2)

Publication Number Publication Date
KR20130096897A KR20130096897A (en) 2013-09-02
KR101314756B1 true KR101314756B1 (en) 2013-10-08

Family

ID=49449530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120018459A KR101314756B1 (en) 2012-02-23 2012-02-23 Augmented Reality Providing Apparatus And Method Using Control Marker

Country Status (1)

Country Link
KR (1) KR101314756B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102299936B1 (en) * 2019-12-30 2021-09-09 주식회사 버넥트 Method and system for posture estimation about object tracking taken by camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520542A (en) * 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド Illumination detection using a classifier chain
KR20100067155A (en) * 2008-12-11 2010-06-21 인천대학교 산학협력단 Apparatus and method for providing realistic contents through augmented book
KR20110104676A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Augmented reality system and method for realizing interaction between virtual object using the plural marker
KR20120035322A (en) * 2010-10-05 2012-04-16 에스케이플래닛 주식회사 System and method for playing contents of augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520542A (en) * 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド Illumination detection using a classifier chain
KR20100067155A (en) * 2008-12-11 2010-06-21 인천대학교 산학협력단 Apparatus and method for providing realistic contents through augmented book
KR20110104676A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Augmented reality system and method for realizing interaction between virtual object using the plural marker
KR20120035322A (en) * 2010-10-05 2012-04-16 에스케이플래닛 주식회사 System and method for playing contents of augmented reality

Also Published As

Publication number Publication date
KR20130096897A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
US9881423B2 (en) Augmented reality-based hand interaction apparatus and method using image information
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US10082879B2 (en) Head mounted display device and control method
US10747307B2 (en) Selection of an object in an augmented or virtual reality environment
US9430698B2 (en) Information input apparatus, information input method, and computer program
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP6771996B2 (en) Systems and methods for real-time interactive operation of the user interface
US10453235B2 (en) Image processing apparatus displaying image of virtual object and method of displaying the same
KR101083408B1 (en) Augmented reality apparatus and method for supporting interactive mode
US20130100140A1 (en) Human body and facial animation systems with 3d camera and method thereof
CN104471511A (en) Touch free user interface
US10950056B2 (en) Apparatus and method for generating point cloud data
US10853966B2 (en) Virtual space moving apparatus and method
JP2011159162A (en) Image processing device, image processing method, and program
JP2011146796A5 (en)
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008100073A5 (en)
WO2015030264A1 (en) Device, method, and program for detecting click operation
JP5668587B2 (en) Image processing apparatus, image processing method, and program
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
US11520409B2 (en) Head mounted display device and operating method thereof
KR20150010193A (en) Depth information based Head detection apparatus and method thereof
KR101314756B1 (en) Augmented Reality Providing Apparatus And Method Using Control Marker
JP7209495B2 (en) Image processing device, image processing method
Gupta et al. Hand gesture based region marking for tele-support using wearables

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180802

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 7