KR20150125326A - System and method for providing interactive augmented reality service - Google Patents

System and method for providing interactive augmented reality service Download PDF

Info

Publication number
KR20150125326A
KR20150125326A KR1020140052515A KR20140052515A KR20150125326A KR 20150125326 A KR20150125326 A KR 20150125326A KR 1020140052515 A KR1020140052515 A KR 1020140052515A KR 20140052515 A KR20140052515 A KR 20140052515A KR 20150125326 A KR20150125326 A KR 20150125326A
Authority
KR
South Korea
Prior art keywords
marker
image
model
deformed
augmented reality
Prior art date
Application number
KR1020140052515A
Other languages
Korean (ko)
Other versions
KR101582225B1 (en
Inventor
전봉주
Original Assignee
(주)제이앤씨마케팅커뮤니케이션
전봉주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이앤씨마케팅커뮤니케이션, 전봉주 filed Critical (주)제이앤씨마케팅커뮤니케이션
Priority to KR1020140052515A priority Critical patent/KR101582225B1/en
Publication of KR20150125326A publication Critical patent/KR20150125326A/en
Application granted granted Critical
Publication of KR101582225B1 publication Critical patent/KR101582225B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a system and a method for providing an interactive augmented reality service, and includes an augmented reality processing apparatus which recognizes a printed book which has a page including a marker and enables a user to modify the marker, and a marker in an image obtained by photographing the page of the printed book; and displays a three-dimensional (3D) model corresponding to the modified marker, when the recognized marker is modified, by rendering the model in real time.

Description

인터랙티브 증강현실 서비스 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING INTERACTIVE AUGMENTED REALITY SERVICE}TECHNICAL FIELD [0001] The present invention relates to an interactive augmented reality service system,

본 발명은 인터랙티브 증강현실 서비스 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자에 의해 마커(marker)의 변형이 가능한 페이지를 갖는 인쇄서적을 통해 획득한 영상에서 마커를 인식하고, 인식된 마커가 변형된 경우 변형 마커에 대응하는 3D모델을 실시간으로 렌더링하여 표시하는 인터랙티브 증강현실 서비스 시스템 및 방법에 관한 것이다.
The present invention relates to an interactive augmented reality service system and method, and more particularly, to a system and method for interactive augmented reality service that recognize a marker in an image acquired through a print book having a page capable of deforming a marker by a user, And more particularly to an interactive augmented reality service system and method in which a 3D model corresponding to a transformation marker is rendered and displayed in real time.

증강현실이란 실제 환경에 컴퓨터 그래픽 등의 영상을 삽입하여 실제 영상과 가상의 영상을 혼합한 것을 의미하며, 증강현실 시스템은 실제 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 것이다. 이는 가상현실의 변화된 형태로 실제 환경에 가상의 컨텐츠를 첨가하여 현시함으로써 사용자의 지각 및 현실과 상호작용하기 위한 목적으로 사용된다. The augmented reality means that a real image and a virtual image are mixed by inserting an image such as a computer graphic into a real environment, and the augmented reality system combines the real world and the virtual world so that the user can interact with the user in real time . It is used for the purpose of interacting with the user 's perception and reality by adding virtual contents to the real environment in a changed form of virtual reality.

이러한 증강현실은 정보 제공자가 사전에 입력한 데이터를 특정 신호(예컨대, GPS, 이미지 마커 등임)에 따라 노출하는 형태이다. 즉, 정보 소비자가 정보 제공자가 제공하는 정보를 일방적으로 받는 형태이므로, 정보 소비자는 자신의 의도에 맞는 증강 정보를 받을 수 없었다.
Such augmented reality is a form in which the data input by the information provider is exposed according to a specific signal (for example, GPS, image marker, etc.). That is, since the information consumer unilaterally receives the information provided by the information provider, the information consumer could not receive the augment information according to his / her intention.

한국등록특허 제10-1281314호, 발명의 명칭 '증강현실시스템 및 증강현실구현방법'Korean Patent No. 10-1281314, entitled " Augmented Reality System and Method for Implementing Augmented Reality "

본 발명의 목적은 마커에 기반한 증강정보 서비스를 제공받는 사용자가 마커를 변형하여 자신의 의도에 맞는 증강정보를 제공받을 수 있도록 하는 인터랙티브 증강현실 서비스 시스템 및 방법을 제공하는데 있다. It is an object of the present invention to provide an interactive augmented reality service system and a method for allowing a user who is provided with an augmentation information service based on a marker to receive augmentation information corresponding to his / her intention by modifying a marker.

본 발명의 다른 목적은 사용자가 마커를 변형한 경우, 마커의 변형에 따라 3D모델을 변형하거나, 3D모델의 각 부분의 스케일을 조정하는 인터랙티브 증강현실 서비스 시스템 및 방법을 제공하는데 있다.
Another object of the present invention is to provide an interactive augmented reality service system and a method for modifying a 3D model according to a change of a marker or adjusting a scale of each part of a 3D model when a user deforms a marker.

상기 목적들을 달성하기 위하여 본 발명의 일 측면에 따르면, (a) 영상을 획득하는 단계, (b) 상기 획득된 영상에서 마커를 인식하고, 상기 인식된 마커의 변형 여부를 판단하는 단계, (c) 상기 판단결과 마커가 변형된 경우, 마커 변형에 따른 3D모델을 결정하는 단계, (d) 상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하는 단계, (e) 상기 추출된 이미지로 머트리얼을 결정하는 단계, (f) 상기 결정된 3D 모델에 상기 결정된 머트리얼을 적용하여 표시하는 단계를 포함하는 인터랙티브 증강현실 서비스 방법이 제공된다.According to an aspect of the present invention, there is provided a method of detecting a marker, comprising the steps of: (a) obtaining an image; (b) recognizing a marker in the obtained image and determining whether the recognized marker is deformed; ) Determining a 3D model according to the marker deformation when the marker is deformed as a result of the determination, (d) masking a border of the marker and extracting an image inside the masking, (e) Determining a real, and (f) applying the determined material to the determined 3D model and displaying the 3D model.

상기 (b)단계는, 상기 획득된 영상에서 특징점을 추출하여 테두리 마커를 인식하는 단계, 상기 인식된 마커 위치로 가상 공간의 방향 및 위치를 계산하고, 상기 인식된 마커를 마커 정보 데이터베이스에 저장된 마커들과 비교하여, 마커의 변형 여부를 판단하는 단계를 포함할 수 있다. The step (b) includes the steps of extracting a feature point from the acquired image to recognize a border marker, calculating a direction and a position of the virtual space with the recognized marker position, and storing the recognized marker in a marker And judging whether the marker is deformed or not.

상기 (c) 단계는 상기 판단결과 마커가 변형된 경우, 그 변형이 기 정의된 변형인지를 판단하는 단계, 상기 판단결과 기 정의된 변형인 경우 상기 마커에 대응하는 3D모델에서 변형된 부분의 형태를 교체하여 3D모델을 결정하고, 기 정의된 변형이 아닌 경우 테두리의 스케일의 변형 여부를 판단하여, 테두리의 스케일이 변형된 경우, 해당 부분의 스케일을 계산하고, 상기 마커에 대응하는 3D모델에서 상기 계산된 스케일을 적용하여 3D모델을 결정하는 단계를 포함할 수 있다. If the marker is deformed, the step (c) may include: determining whether the deformation is a predefined deformation, and if the deformation is a predefined deformation, changing the shape of the deformed part in the 3D model corresponding to the marker The scale of the border is determined. If the scale of the border is deformed, the scale of the corresponding part is calculated, and the scale of the 3D model corresponding to the marker is determined And determining the 3D model by applying the calculated scale.

상기 (e) 단계는 상기 추출된 이미지가 정의된 이미지인지를 판단하는 단계, 상기 판단결과 정의된 이미지인 경우 머트리얼 정보 데이터베이스로부터 상기 이미지에 대응하는 머트리얼을 획득하고, 정의된 이미지가 아닌 경우 영상 획득부와 마커와의 거리 및 각도를 계산하고, 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공하며, 상기 가공된 이미지로 머트리얼을 생성하는 단계를 포함할 수 있다. Wherein the step (e) includes the steps of: determining whether the extracted image is a defined image; acquiring a material corresponding to the image from the material information database if the determined result is the determined image; Calculating distance and angle between the image acquiring unit and the marker, processing the extracted image with the calculated distance and angle, and generating material using the processed image.

본 발명의 다른 측면에 따르면, 영상을 획득하는 영상 획득부, 상기 획득된 영상에서 마커를 인식하는 마커 인식부, 상기 인식된 마커의 변형 여부를 판단하고, 그 판단결과에 따른 3D모델을 결정하는 3D모델 결정부, 상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 상기 추출된 이미지로 머트리얼을 결정하는 머트리얼 결정부, 상기 3D 모델 결정부에서 결정된 3D 모델에 상기 머트리얼 결정부에서 결정된 머트리얼을 적용하는 렌더링부를 포함하는 증강현실 처리 장치가 제공된다. According to another aspect of the present invention, there is provided an image processing apparatus including an image acquiring unit acquiring an image, a marker recognizing unit recognizing a marker in the acquired image, determining whether the recognized marker is deformed, and determining a 3D model according to the determination result A 3D model determination unit, a material decision unit for masking the edge of the marker, extracting an image of the inside of the masking, and determining materiality in the extracted image; And a rendering unit for applying the material determined in step (a).

상기 3D모델 결정부는 상기 인식된 마커를 마커 정보 데이터베이스에 저장된 마커들과 비교하여, 마커의 테두리 변형 여부를 판단하고, 마커의 테두리가 변형된 경우, 그 변형이 기 정의된 변형인지를 판단하여, 기 정의된 변형인 경우, 상기 마커에 대응하는 3D모델에서 변형된 부분의 형태를 교체하여 3D모델을 결정하고, 기 정의된 변형이 아닌 경우, 테두리의 스케일의 변형 여부를 판단하여, 테두리의 스케일이 변형된 경우, 해당 부분의 스케일을 계산하고, 상기 마커에 대응하는 3D모델에서 상기 계산된 스케일을 적용하여 3D모델을 결정할 수 있다. The 3D model determination unit compares the recognized marker with the markers stored in the marker information database to determine whether or not the edge of the marker is deformed. If the edge of the marker is deformed, the 3D model determination unit determines whether the deformation is a predefined deformation, In the case of the predefined deformation, the 3D model is determined by replacing the shape of the deformed part in the 3D model corresponding to the marker, and if the deformation is not the predefined deformation, the deformation of the scale of the frame is determined, The 3D model corresponding to the marker can be determined by applying the calculated scale in the 3D model corresponding to the marker.

상기 머트리얼 결정부는 상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 상기 추출된 이미지가 정의된 이미지인지를 판단하여, 기 정의된 이미지인 경우 머트리얼 정보 데이터베이스로부터 상기 이미지에 대응하는 머트리얼을 획득하고, 정의된 이미지가 아닌 경우 영상 획득부와 마커와의 거리 및 각도를 계산하고, 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공하며, 상기 가공된 이미지로 머트리얼을 생성할 수 있다. The material determining unit may mask the edge of the marker, extract an image inside the masking, determine whether the extracted image is a defined image, and if the extracted image is a predefined image, Calculating a distance and an angle between the image acquiring unit and the marker when the image is not a defined image, processing the extracted image at the calculated distance and angle, generating the material using the processed image, can do.

본 발명의 또 다른 측면에 따르면, 증강 현실용의 마커(marker)가 포함된 페이지를 갖고, 사용자에 의해 상기 마커의 변형이 가능한 보드, 상기 보드의 페이지를 촬영하여 획득한 영상에서 마커를 인식하고, 상기 인식된 마커가 변형된 경우 변형 마커에 대응하는 3D모델을 실시간으로 렌더링하여 표시하는 증강현실 처리 장치를 포함하는 인터랙티브 증강현실 서비스 시스템이 제공된다.
According to another aspect of the present invention, there is provided a method of recognizing a marker, comprising: a board having a page including a marker for augmented reality and capable of deforming the marker by a user; And an augmented reality processing unit for rendering and displaying a 3D model corresponding to a transformation marker when the recognized marker is deformed in real time.

본 발명에 따르면, 마커에 기반한 증강정보 서비스를 제공받는 사용자가 마커를 변형할 수 있고, 이를 통해 사용자는 자신의 의도에 맞는 증강정보를 제공받을 수 있다. According to the present invention, a user who receives the augmentation information service based on the marker can modify the marker, and the user can receive the augmenting information corresponding to his / her intention.

또한, 사용자가 마커를 변형한 경우, 마커의 변형에 따라 3D모델을 변형하거나, 3D모델의 각 부분의 스케일을 조정할 수 있다. Further, when the user deforms the marker, the 3D model can be deformed or the scale of each part of the 3D model can be adjusted according to the deformation of the marker.

도 1은 본 발명의 실시예에 따른 인터랙티브 증강현실 서비스 시스템을 나타낸 도면.
도 2는 본 발명의 실시예에 따른 증강현실 처리 장치의 구성을 개략적으로 나타낸 블럭도.
도 3은 본 발명의 실시예에 따른 인터랙티브 증강현실 서비스 방법을 나타낸 도면.
도 4는 본 발명의 실시예에 따른 마커 변형에 따라 3D모델을 결정하는 방법을 나타낸 흐름도.
도 5는 본 발명의 실시예에 따른 증강현실 처리 장치가 머트리얼을 결정하는 방법을 나타낸 도면.
1 illustrates an interactive augmented reality service system according to an embodiment of the present invention.
2 is a block diagram schematically showing the configuration of an augmented reality processing apparatus according to an embodiment of the present invention;
3 illustrates an interactive augmented reality service method according to an embodiment of the present invention.
4 is a flow diagram illustrating a method for determining a 3D model according to marker deformation according to an embodiment of the present invention.
5 illustrates a method for determining a material by an augmented reality processing apparatus according to an embodiment of the present invention.

본 발명의 전술한 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.The foregoing and other objects, features, and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

본 명세서에서 표현되는 각 기능부는 본 발명 구현에 대한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능부가 사용될 수 있다. 또한, 각 기능부는 순전히 하드웨어 또는 소프트웨어의 구성으로만 구현될 수도 있지만, 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다.
Each functional unit represented in the present specification is only an example of implementation of the present invention. Therefore, other functional units may be used in other embodiments of the present invention without departing from the spirit and scope of the present invention. In addition, each functional unit may be implemented solely in hardware or software configuration, but may be implemented in combination of various hardware and software configurations that perform the same function.

도 1은 본 발명의 실시예에 따른 인터랙티브 증강현실 서비스 시스템을 나타낸 도면이다. 1 is a diagram illustrating an interactive augmented reality service system according to an embodiment of the present invention.

도 1을 참조하면, 증강현실 서비스 시스템은 증강 현실용의 마커(marker)가 포함된 페이지를 갖는 인쇄서적(10)과, 인쇄서적(10)의 페이지를 촬영한 촬영영상을 분석하여 상기 촬영영상 내에 존재하는 마커에 대응하여 기 설정된 증강현실 구현기능을 수행하여 수행결과를 상기 촬영영상에 적용한 증강현실 컨텐츠를 출력하는 증강현실 처리 장치(100)를 포함한다. 1, the augmented reality service system includes a print book 10 having a page including a marker for augmented reality, and a print book 10 for analyzing a photographed image of a page of the print book 10, And an augmented reality processing apparatus 100 that performs a predetermined augmented reality implementing function corresponding to a marker existing in the augmented reality processing apparatus 100 and outputs an augmented reality content to which the execution result is applied to the photographed image.

인쇄서적(10)은 텍스트 및/또는 그림이 포함되는 적어도 하나의 페이지로 이루어진 오프라인 도서로서, 페이지에는 적어도 하나의 증강 현실용의 마커(marker)가 포함될 수 있다. 여기서, 증강 현실용의 마커는 테두리로 둘러싸여 있으며 테두리 안의 이미지는 사용자가 다양한 이미지, 글자 등으로 형상화할 수 있다.The printed book 10 is an offline book composed of at least one page including text and / or pictures, and the page may include at least one marker for augmented reality. Here, the marker for the augmented reality is surrounded by the frame, and the image in the frame can be shaped by various images, letters, etc. by the user.

사용자는 인쇄서적(10)에 표시된 마커를 변형할 수 있고, 증강현실 처리 장치(100)는 인쇄서적(10)에 표시된 변형 마커를 인식하고, 인식된 변형 마커에 해당하는 3D모델을 렌더링할 수 있다. 즉, 사용자는 인쇄서적(10)에 표시된 마커의 테두리 등을 자신의 의도대로 변형할 수 있다. 이때, 사용자는 미리 정해진 입력장치, 필기구 등을 이용하여 인쇄서적(10)에 표시된 마커를 변형할 수 있고, 지우개 등을 이용하여 마커를 지울수도 있다. 여기서, 입력장치는 터치패드의 경우 터치펜, 손가락 등일 수 있고, 화이트보드인 경우 화이트보드 펜 등일 수 있다. The user can modify the markers displayed on the printed book 10 and the augmented reality processing apparatus 100 can recognize the deformed markers displayed on the printed book 10 and render 3D models corresponding to the recognized deformed markers have. That is, the user can change the border of the marker displayed on the print book 10 to his / her intention. At this time, the user can change the marker displayed on the printed book 10 using a predetermined input device, a writing instrument, or the like, and erase the marker using an eraser or the like. Here, the input device may be a touch pen, a finger or the like in the case of a touch pad, or a whiteboard pen in the case of a white board.

예를 들면, 2D 새그림이 마커로 표시된 인쇄서적(10)에서 사용자가 입력장치를 이용하여 새의 날개를 더 크게 그리면, 인쇄서적(10)에 표시된 마커는 사용자가 입력장치를 이용하여 그린 마커로 변형된다. For example, when a user draws a wing of a bird with a larger size on a printing book 10 in which a 2D new figure is indicated by a marker by using an input device, a marker displayed on the printed book 10 is displayed on the display device .

여기에서는 증강현실용의 마커가 표시된 장치를 인쇄서적(10)으로 칭하여 설명하였으나, 텍스트 및/또는 그림이 표시되면서 마커의 변형(수정)이 가능한 칠판, 화이트보드, 터치패드, 전자칠판 등 다양한 형태일 수 있다. 이러한 다양한 형태를 모두 포함하는 개념으로 인쇄서적(10) 대신 보드(board)로 칭할 수 있다. Herein, the device for displaying the marker for the augmented reality has been described as the printing book 10, but it is also possible to use various forms such as a blackboard, a whiteboard, a touchpad, and an electronic board capable of deforming (correcting) a marker while displaying text and / Lt; / RTI > In the concept including all of these various forms, it can be referred to as a board instead of the printed book 10.

증강현실 처리장치(100)는 특정 촬영구역에 위치한 인쇄서적(10)의 펼쳐진 페이지를 촬영하고, 촬영한 촬영영상을 분석하여 상기 촬영영상 내에 존재하는 마커에 대응하여 기 설정된 증강현실 구현기능을 수행하고, 수행결과를 상기 촬영영상에 적용한 증강현실 컨텐츠를 출력한다.The augmented reality processing apparatus 100 photographs an expanded page of the print book 10 located in a specific photographing area and analyzes the photographed image to perform a preset augmented reality implementing function corresponding to a marker existing in the photographed image And outputs the result of the augmented reality applied to the photographed image.

이러한 증강현실 처리장치(100)는 인쇄서적(10)의 펼쳐진 페이지를 촬영한 촬영영상을 분석하여 특정 마커를 통해 인지된 해당 인쇄서적(10)에 대한 식별정보를 토대로 외부의 컨텐츠 서버(200)로부터 해당 인쇄서적(10)에 대응하는 마커조합 별 구현기능정보를 획득하는 것도 가능하다.The augmented reality processing apparatus 100 analyzes the photographed image of a page of the printed book 10 and displays it on the external content server 200 based on identification information of the corresponding printed book 10 recognized through a specific marker. It is also possible to obtain the implementation function information for each combination of the markers corresponding to the print book 10. [

증강현실 처리장치(100)에서 인쇄서적(10)에 대응하는 특정 정보를 컨텐츠 서버(200)로부터 획득하는 과정은 기존의 증강현실 서비스에서와 대응되므로 구체적인 획득 절차에 대한 설명은 생략하도록 하겠다.Since the process of acquiring the specific information corresponding to the print book 10 from the content server 200 in the augmented reality processing apparatus 100 corresponds to the existing augmented reality service, a detailed description of the acquisition procedure will be omitted.

증강현실 처리장치(100)는 컨텐츠 서버(200)로부터 증강현실 서비스 애플리케이션을 다운로드받아 설치한다.The augmented reality processing apparatus 100 downloads and installs the augmented reality service application from the content server 200. [

증강현실 처리장치(100)는 증강현실 서비스 애플리케이션이 구동된 경우 구비된 영상 획득부(110)를 구동시켜 영상을 획득하고, 획득된 영상에서 마커를 인식하며, 인식된 마커를 중심으로 가상 공간을 생성하고, 생성된 가상 공간을 기준으로 상기 마커에 대응되는 3D모델을 획득된 영상과 함께 표시하여 증강 현실을 제공한다. 여기서, 3D모델은 3차원 가상 이미지, 동영상, 음성 등의 멀티미디어 컨텐츠를 포함할 수 있다. 또는 3D모델은 사용자와 상호작용할 수 있는 대화형 컨텐츠를 포함할 수 있다. 또한, 3D모델은 증강현실 처리장치에 저장된 다른 컨텐츠 또는 통신망을 통해 연결된 외부 서버에 저장된 다른 컨텐츠를 링크하는 컨텐츠를 포함할 수 있다. When the augmented reality service application is activated, the augmented reality processing apparatus 100 acquires an image by driving the provided image acquisition unit 110, recognizes the marker in the acquired image, And displays a 3D model corresponding to the marker based on the generated virtual space together with the acquired image to provide an augmented reality. Here, the 3D model may include multimedia contents such as a three-dimensional virtual image, a moving image, and a voice. Or the 3D model may include interactive content that can interact with the user. In addition, the 3D model may include other contents stored in the augmented reality processing apparatus or contents linking other contents stored in an external server connected through a communication network.

증강현실 처리장치(100)는 영상 획득부(110)를 통해 획득된 영상에서 마커를 인식하고, 인식된 마커가 변형된 경우 변형 마커에 대응하는 3D모델을 실시간으로 렌더링하여 표시한다. The augmented reality processing apparatus 100 recognizes the marker in the image obtained through the image obtaining unit 110 and displays the 3D model corresponding to the deformed marker in real time when the recognized marker is deformed.

이러한 증강현실 처리장치(100)는 영상 획득부(110)가 구비된 장치로, 예를 들면, 네비게이션 장치, 노트북, 이동통신 단말, 스마트폰(Smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant), 타블렛 PC(Tablet PC), 셋탑박스(Set-top box), 스마트 TV 등 다양한 장치가 될 수 있다.The augmented reality processing apparatus 100 includes an image acquisition unit 110 and may be a navigation device, a notebook computer, a mobile communication terminal, a smart phone, a portable media player (PMP) A personal digital assistant (PC), a tablet PC, a set-top box, a smart TV, and the like.

증강현실 처리장치(100)에 대한 상세한 설명은 도 2를 참조하기로 한다. A detailed description of the augmented reality processing apparatus 100 will be given with reference to Fig.

컨텐츠 서버(200)는 증강현실 서비스 애플리케이션을 증강현실 처리장치(100)에 제공한다.
The content server 200 provides the augmented reality service application to the augmented reality processing device 100. [

도 2는 본 발명의 실시예에 따른 증강현실 처리 장치의 구성을 개략적으로 나타낸 블럭도이다. 2 is a block diagram schematically showing the configuration of an augmented reality processing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 증강현실 처리 장치(100)는 영상 획득부(110), 마커 인식부(120), 3D모델 결정부(130), 머트리얼(matrial) 결정부(140), 렌더링부(150), 표시부(160), 저장부(170)를 포함한다. 2, the augmented reality processing apparatus 100 includes an image acquisition unit 110, a marker recognition unit 120, a 3D model determination unit 130, a matrial determination unit 140, a rendering unit 150, a display unit 160, and a storage unit 170.

영상 획득부(110)는 사용자 조작에 따라 영상을 촬영하는 구성으로, 예컨대 카메라 등을 포함할 수 있다. The image obtaining unit 110 is configured to photograph an image according to a user operation, and may include, for example, a camera.

마커 인식부(120)는 영상 획득부(110)를 통해 획득된 영상에서 마커를 인식한다. 마커 인식부(120)는 저장부(170)에 저장된 마커정보 데이터베이스(172)를 검색해서 획득된 영상에서 마커를 인식한다. The marker recognition unit 120 recognizes the marker in the image obtained through the image acquisition unit 110. [ The marker recognition unit 120 searches the marker information database 172 stored in the storage unit 170 and recognizes the marker in the acquired image.

본 발명에 따른 마커 인식부(120)는 영상 획득부(110)에 의해 촬영된 영상의 마커와 기 저장된 마커의 이미지를 비교하여 외부 객체에 포함되어 있는 마커를 인식할 수 있다.The marker recognition unit 120 according to the present invention can recognize the marker included in the external object by comparing the image of the image captured by the image acquisition unit 110 with the image of the previously stored marker.

마커 인식부(120)는 인식된 마커를 중심으로 가상 공간을 생성한다. 즉, 마커 인식부(120)는 마커 위치로 가상 공간의 방향 및 위치를 계산하고, 그 계산된 가상 공간을 기준으로 마커에 대응되는 3D 모델이 표시되도록 한다. The marker recognition unit 120 creates a virtual space around the recognized marker. That is, the marker recognition unit 120 calculates the direction and position of the virtual space with the marker position, and displays the 3D model corresponding to the marker based on the calculated virtual space.

3D모델 결정부(130)는 마커 인식부(120)에서 인식된 마커의 테두리 변형 여부를 판단하고, 그 판단결과에 따른 3D모델을 결정한다. The 3D model determination unit 130 determines whether the edge of the marker recognized by the marker recognition unit 120 is deformed, and determines the 3D model according to the determination result.

즉, 3D모델 결정부(130)는 마커 인식부(120)에서 인식된 마커를 마커 정보 데이터베이스(172)에 저장된 마커들과 비교하여, 마커의 테두리 변형 여부를 판단한다. 그 판단결과 마커의 테두리가 변형된 경우, 3D모델 결정부(130)는 그 변형이 기 정의된 변형인지를 판단한다. 그 판단결과 기 정의된 변형인 경우 3D모델 결정부(130)는 상기 마커에 대응하는 3D모델에서 변형된 부분의 형태를 교체하여 3D모델을 결정한다. 예컨대, 3D 모델 결정부(130)는 마커 위의 특정 부분이 체크되어 있거나 특정 색깔로 칠해졌을 경우 정해진 규칙으로 그 부분의 3D모델 형태만을 교체하고, 그 교체된 3D모델을 최종 3D모델로 결정한다. That is, the 3D model determination unit 130 compares the markers recognized by the marker recognition unit 120 with the markers stored in the marker information database 172, and determines whether the markers are deformed. If the edge of the marker is deformed as a result of the determination, the 3D model determination unit 130 determines whether the deformation is a predefined deformation. As a result of the determination, the 3D model determination unit 130 determines the 3D model by replacing the shape of the deformed portion in the 3D model corresponding to the marker. For example, when a specific portion on the marker is checked or painted with a specific color, the 3D model determination unit 130 replaces only the 3D model type of the portion with the predetermined rule, and determines the replaced 3D model as the final 3D model .

만약, 마커 테두리 변형이 기 정의된 변형이 아니면, 3D모델 결정부(130)는 테두리 스케일의 변형 여부를 판단하고, 테두리 스케일이 변형된 경우, 해당 부분의 스케일을 계산하고, 상기 마커에 대응하는 3D모델에서 상기 계산된 스케일을 적용하여 3D모델을 결정한다. 이때, 3D모델 결정부(130)는 저장부(170)에 저장된 3D모델 정보 데이터베이스를 검색하여 마커에 대응하는 3D모델을 선택하고, 선택된 3D모델에 상기 계산된 스케일을 적용한다. 즉, 3D모델 결정부(130)는 원 마커의 테두리선이 아닌 다른 테두리선이 감지되면, 마커의 중심에서 원 테두리선의 거리와 감지된 다른 테두리선의 거리와의 거리비를 구하고, 구해진 거리비를 근거로 해당 3D모델의 변환 스케일을 결정하며, 결정된 변환 스케일을 해당 3D모델에 적용한다. 예를들어, 2D 새그림을 마커로 사용했을 경우, 사용자가 그 마커위에 날개를 더 크게 그렸을 경우 원 3D 모델에서 더 크게 그린 날개만큼 날개를 더 크게하여 3D 모델을 결정한다. If the marker edge deformation is not a predefined deformation, the 3D model determination unit 130 determines whether or not the edge scale is deformed. If the edge scale is deformed, the 3D model determination unit 130 calculates a scale of the edge scale, The calculated scale is applied to the 3D model to determine the 3D model. At this time, the 3D model determination unit 130 searches the 3D model information database stored in the storage unit 170 to select a 3D model corresponding to the marker, and applies the calculated scale to the selected 3D model. That is, when the 3D model determining unit 130 detects another edge line other than the edge line of the original marker, the 3D model determining unit 130 obtains the distance ratio between the distance of the original edge line from the center of the marker and the distance of the other edge lines sensed, Based on the above, the conversion scale of the corresponding 3D model is determined, and the determined conversion scale is applied to the corresponding 3D model. For example, if a 2D new image is used as a marker, if the user draws the wing on the marker larger, the 3D model is determined by making the wing larger than the wing of the original 3D model.

머트리얼 결정부(140)는 인식된 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 상기 추출된 이미지로 머트리얼을 결정한다. The material decision unit 140 masks the edge of the recognized marker, extracts the image inside the masking, and determines the material using the extracted image.

즉, 머트리얼 결정부(140)는 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 추출된 이미지가 정의된 이미지인지를 판단한다. 여기서, 추출된 이미지는 텍스트, 기호, 이미지 등 다양한 형태일 수 있다. 그 판단결과 기 정의된 이미지인 경우 머트리얼 결정부(140)는 머트리얼 정보 데이터베이스(176)로부터 상기 이미지에 대응하는 머트리얼을 획득한다. 마커의 테두리는 여러 개의 닫혀진 2D도형으로 이루어질 수 있으므로, 머트리얼 결정부(140)는 각 닫혀진 2D도형의 마스킹으로 패도형 내부의 패턴을 얻을 수 있고, 얻어진 패턴이 정의된 이미지인지를 판단한다. That is, the material determining unit 140 masks the edge of the marker, extracts the image of the inside of the masking, and determines whether the extracted image is a defined image. Here, the extracted image may be in various forms such as text, symbols, and images. As a result of the determination, the material determining unit 140 acquires the material corresponding to the image from the material information database 176 when the image is a predefined image. Since the edge of the marker can be composed of a plurality of closed 2D figures, the material decision unit 140 can obtain a pattern inside the pattern by masking each closed 2D figure, and judges whether the obtained pattern is a defined image.

예를 들어, 추출된 이미지가 '아빠'라는 텍스트이면, 머트리얼 결정부(140)는 머트리얼 정보 데이터베이스(176)로부터 '아빠'와 대응되는 머트리얼을 획득할 수 있다. 또한, 추출된 이미지가 '별'기호이면, 머트리얼 결정부(140)는 머트리얼 정보 데이터베이스(176)로부터 '별'기호에 대응되는 머트리얼을 획득할 수 있다.For example, if the extracted image is the text 'Dad', the material decision unit 140 can acquire a material corresponding to 'Dad' from the material information database 176. If the extracted image is a 'star' symbol, the material determining unit 140 may obtain the material corresponding to the 'star' symbol from the material information database 176.

만약, 추출된 이미지가 정의된 이미지가 아니면, 머트리얼 결정부(140)는 영상 획득부(110)와 마커와의 거리 및 각도를 계산하고, 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공하며, 가공된 이미지로 머트리얼을 생성한다. If the extracted image is not a defined image, the material determining unit 140 calculates the distance and angle between the image obtaining unit 110 and the marker, and processes the extracted image at the calculated distance and angle And creates the material with the processed image.

렌더링부(150)는 3D 모델 결정부(130)에서 결정된 3D 모델에 머트리얼 결정부(140)에서 결정된 머트리얼을 적용하여 표시부(160)에 표시되도록 한다. The rendering unit 150 applies the material determined by the material decision unit 140 to the 3D model determined by the 3D model determination unit 130, and causes the display unit 160 to display the 3D model.

렌더링부(150)는 영상 획득부(110)에 의해 획득된 영상을 표시부(160)에 표시 가능한 영상으로 변환할 수 있다. 구체적으로, 렌더링부(150)는 마커가 표시된 위치에 사전에 준비된 가상의 영상을 증강하여 새로운 영상을 생성할 수 있다. 여기서, 증강은 화면에 그려지는 실제 물체의 각 면에 3차원 컴퓨터 그래픽(CG)을 통한 색상이나 효과를 부여하는 렌더링(Rendering) 기능을 포함하며, 이를 통해 화면 상의 실제 물체에 대한 입체감 및 사실감을 향상시킬 수 있다. The rendering unit 150 may convert the image acquired by the image acquisition unit 110 into an image that can be displayed on the display unit 160. Specifically, the rendering unit 150 may enhance a previously prepared virtual image at a location where the marker is displayed to generate a new image. Herein, the reinforcement includes a rendering function that gives a color or an effect through three-dimensional computer graphics (CG) to each surface of an actual object drawn on the screen, thereby realizing a three-dimensional feeling and a real feeling of an actual object on the screen Can be improved.

저장부(170)는 증강현실 처리장치(100)의 동작 제어 시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장한다. 저장부(170)에는 증강현실 서비스 애플리케이션이 저장되어 있다.The storage unit 170 stores a program necessary for controlling the operation of the augmented reality processing apparatus 100 and data generated during the execution of the program. The storage unit 170 stores an augmented reality service application.

또한, 저장부(170)에는 마커 정보 데이터베이스(172), 3D모델 정보 데이터베이스(174), 머트리얼 정보 데이터베이스(176)가 저장되어 있다. 마커 정보 데이터베이스(172)에는 영상에 따른 마커, 각 마커에 설정된 3D모델이 저장되어 있다. 3D모델 정보 데이터베이스(174)에는 3D모델, 각 3D모델의 부분 변형에 따라 변형될 3D모델 등이 저장되어 있다. 머트리얼 정보 데이터베이스(176)에는 이미지별 머트리얼에 대한 정보가 저장되어 있다. A marker information database 172, a 3D model information database 174, and a material information database 176 are stored in the storage unit 170. The marker information database 172 stores markers according to images and 3D models set for the respective markers. The 3D model information database 174 stores 3D models, 3D models to be transformed according to partial deformations of the respective 3D models, and the like. The material information database 176 stores information on materials for each image.

이때, 마커 정보 데이터베이스(172), 3D 모델 정보 데이터베이스(174), 머트리얼 정보 데이터베이스(176)는 증강현실 처리장치(100) 내부 또는 외부에 존재할 수 있다.
At this time, the marker information database 172, the 3D model information database 174, and the material information database 176 may exist inside or outside the augmented reality processing apparatus 100.

도 3은 본 발명의 실시예에 따른 인터랙티브 증강현실 서비스 방법을 나타낸 도면이다. 3 is a diagram illustrating an interactive augmented reality service method according to an embodiment of the present invention.

도 3을 참조하면, 증강현실 처리 장치는 영상이 획득되면(S302), 획득된 영상에서 테두리 마커를 인식한다(S304).Referring to FIG. 3, when an image is acquired (S302), the augmented reality processing apparatus recognizes a border marker in the acquired image (S304).

증강현실 처리 장치는 인식된 테두리 마커가 기 정의된 마커 정보 데이터베이스에 존재하는지의 여부를 판단한다(S306).The augmented reality processing apparatus determines whether the recognized border marker is present in the predefined marker information database (S306).

S306 단계의 판단결과, 인식된 마커가 존재하면, 증강현실 처리 장치는 인식된 마커 위치로 가상 공간의 방향 및 위치를 계산하고(S308), 상기 인식된 마커를 마커 정보 데이터베이스에 저장된 마커들과 비교하여 변형 마커인지의 여부를 판단한다(S310).If it is determined in step S306 that the recognized marker exists, the augmented reality processing apparatus calculates the direction and position of the virtual space with the recognized marker position (S308), compares the recognized marker with the markers stored in the marker information database And determines whether or not it is a modification marker (S310).

S310 단계의 판단결과 변형 마커인 경우, 증강현실 처리 장치는 마커 변형에 따른 3D모델을 결정한다(S312). 증강현실 처리 장치가 마커 변형에 따른 3D모델을 결정하는 방법에 대한 상세한 설명은 도 4를 참조하기로 한다. If it is determined as a result of the determination in step S310, the augmented reality processing apparatus determines a 3D model corresponding to the marker deformation (S312). A detailed description of how the augmented reality processing device determines the 3D model according to the marker deformation will be described with reference to Fig.

S312 단계가 수행되면, 증강현실 처리 장치는 상기 변형 마커의 테두리 형상으로 마스킹을 수행하고(S314), 마스킹 내부의 이미지를 추출한다(S316).When the step S312 is performed, the augmented reality processing apparatus performs masking on the shape of the edge of the deformed marker (S314), and extracts the image inside the masking (S316).

그런 후, 증강현실 처리 장치는 상기 추출된 이미지로 머트리얼을 결정하고(S318), 상기 결정된 3D 모델에 상기 결정된 머트리얼을 적용하여 표시한다(S320). 증강현실 처리 장치가 추출된 이미지로 머트리얼을 결정하는 방법에 대한 상세한 설명은 도 5를 참조하기로 한다. Thereafter, the augmented reality processing apparatus determines the material using the extracted image (S318), and applies the determined material to the determined 3D model and displays it (S320). A detailed description of how the augmented reality processing apparatus determines the material from the extracted image will be described with reference to Fig.

만약, S310의 판단결과 변형 마커가 아니면, 증강현실 처리 장치는 인식된 마커에 대응하는 3D모델을 표시한다(S322). 이때, 증강현실 처리장치는 상기 계산된 가상 공간의 방향과 위치에 인식된 마커에 대응하는 3D모델을 표시한다.
If it is determined as a result of the determination in S310, the augmented reality processing apparatus displays the 3D model corresponding to the recognized marker (S322). At this time, the augmented reality processing apparatus displays a 3D model corresponding to the recognized marker in the direction and position of the calculated virtual space.

도 4는 본 발명의 실시예에 따른 마커 변형에 따라 3D모델을 결정하는 방법을 나타낸 흐름도이다. 4 is a flowchart illustrating a method of determining a 3D model according to marker deformation according to an embodiment of the present invention.

도 4를 참조하면, 증강현실 처리 장치는 마커 변형 이미지가 입력되면(S402), 마커 변형 이미지가 기 정의된 변형 이미지인지를 판단한다(S404).Referring to FIG. 4, the augmented reality processing apparatus determines whether the marker deformed image is a predefined deformed image (S404).

S404 단계의 판단결과 정의된 변형 이미지이면, 증강현실 처리 장치는 마커에 대응하는 3D모델에서 해당 부분의 형태를 교체하여(S406) 3D모델을 결정한다(S408). As a result of the determination in step S404, the augmented reality processing apparatus determines the 3D model by replacing the shape of the corresponding part in the 3D model corresponding to the marker (S406).

만약, S404 단계의 판단결과 정의된 변형 이미지가 아니면, 증강현실 처리 장치는 상기 변형 마커의 테두리 스케일이 변형되었는지의 여부를 판단한다(S410).If it is determined in step S404 that the deformed image is not a deformed image, the augmented reality processing apparatus determines whether the border scale of the deformed marker is deformed (S410).

S410 단계의 판단결과 변형 마커의 테두리 스케일이 변형된 것이면, 증강현실 처리 장치는 해당 부분의 스케일을 계산하고(S412), 해당 3D모델에 상기 계산된 스케일을 적용하여 3D모델을 결정한다(S414).
If it is determined in step S410 that the border scale of the deformed marker is deformed, the augmented reality processing apparatus calculates the scale of the corresponding part (S412) and determines the 3D model by applying the calculated scale to the 3D model (S414) .

도 5는 본 발명의 실시예에 따른 증강현실 처리 장치가 머트리얼을 결정하는 방법을 나타낸 도면이다. 5 is a diagram illustrating a method for determining a material by an augmented reality processing apparatus according to an embodiment of the present invention.

도 5를 참조하면, 증강현실 처리 장치는 마스킹 내부의 이미지가 입력되면(S502), 그 이미지가 정의된 이미지인지를 판단한다(S504).Referring to FIG. 5, the augmented reality processing apparatus determines whether an image in the masking is input (S502) and whether the image is a defined image (S504).

S504 단계의 판단결과, 기 정의된 이미지이면, 증강현실 처리 장치는 머트리얼 정보 데이터베이스로부터 상기 이미지에 대응하는 머트리얼을 획득하고(S506),획득된 머트리얼을 해당 3D모델의 머트리얼로 결정한다(S508).If it is determined in step S504 that the augmented reality processing apparatus obtains a material corresponding to the image from the material information database (S506), the augmented reality processing apparatus determines the obtained material as a material of the corresponding 3D model (S508).

만약, S504 단계의 판단결과 기 정의된 이미지가 아니면, 증강현실 처리 장치는 영상 획득부와 마커와의 거리 및 각도를 계산하고(S510), 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공한다(S512).If it is determined in step S504 that the image is not a predefined image, the augmented reality processing apparatus calculates the distance and angle between the image obtaining unit and the marker (S510), and processes the extracted image with the calculated distance and angle (S512).

그런 후, 증강현실 처리장치는 가공된 이미지로 머트리얼을 생성하고(S514), 생성된 머트리얼을 해당 3D모델의 머트리얼로 결정한다(S508).
Then, the augmented reality processing apparatus generates a material using the processed image (S514), and determines the generated material as a material of the corresponding 3D model (S508).

한편, 인터랙티브 증강현실 서비스 방법은 프로그램으로 작성 가능하며, 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 프로그래머에 의하여 용이하게 추론될 수 있다. Meanwhile, the interactive augmented reality service method can be written as a program, and the codes and code segments constituting the program can be easily deduced by a programmer in the field.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 증강현실 처리 장치 110 : 영상 획득부
120 : 마커 인식부 130 : 3D모델 결정부
140 : 머트리얼(matrial) 결정부 150 : 렌더링부
160 : 표시부 170 : 저장부
100: augmented reality processing device 110:
120: marker recognition unit 130: 3D model determination unit
140: matrial decision unit 150: rendering unit
160: Display section 170:

Claims (8)

(a) 영상을 획득하는 단계;
(b) 상기 획득된 영상에서 마커를 인식하고, 상기 인식된 마커의 변형 여부를 판단하는 단계;
(c) 상기 판단결과 마커가 변형된 경우, 마커 변형에 따른 3D모델을 결정하는 단계;
(d) 상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하는 단계;
(e) 상기 추출된 이미지로 머트리얼을 결정하는 단계; 및
(f) 상기 결정된 3D 모델에 상기 결정된 머트리얼을 적용하여 표시하는 단계;
를 포함하는 인터랙티브 증강현실 서비스 방법.
(a) acquiring an image;
(b) recognizing a marker in the obtained image and determining whether the recognized marker is deformed;
(c) if the marker is deformed as a result of the determination, determining a 3D model according to marker deformation;
(d) masking an edge of the marker and extracting an image of the inside of the masking;
(e) determining the material image as the extracted image; And
(f) applying and displaying the determined material on the determined 3D model;
And an interactive augmented reality service method.
제1항에 있어서,
상기 (b)단계는,
상기 획득된 영상에서 특징점을 추출하여 테두리 마커를 인식하는 단계; 및
상기 인식된 마커 위치로 가상 공간의 방향 및 위치를 계산하고, 상기 인식된 마커를 마커 정보 데이터베이스에 저장된 마커들과 비교하여, 마커의 변형 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 인터랙티브 증강현실 서비스 방법.
The method according to claim 1,
The step (b)
Extracting a feature point from the obtained image and recognizing a border marker; And
Calculating a direction and a position of the virtual space with the recognized marker position and comparing the recognized marker with the markers stored in the marker information database to determine whether the marker is deformed, Service method.
제1항에 있어서,
상기 (c) 단계는,
상기 판단결과 마커가 변형된 경우, 그 변형이 기 정의된 변형인지를 판단하는 단계; 및
상기 판단결과 기 정의된 변형인 경우 상기 마커에 대응하는 3D모델에서 변형된 부분의 형태를 교체하여 3D모델을 결정하고, 기 정의된 변형이 아닌 경우 테두리의 스케일의 변형 여부를 판단하여, 테두리의 스케일이 변형된 경우, 해당 부분의 스케일을 계산하고, 상기 마커에 대응하는 3D모델에서 상기 계산된 스케일을 적용하여 3D모델을 결정하는 단계를 포함하는 것을 특징으로 하는 인터랙티브 증강현실 서비스 방법.
The method according to claim 1,
The step (c)
Determining whether the distortion is a predefined distortion when the marker is deformed; And
As a result of the determination, if the 3D model corresponding to the marker is deformed, the 3D model is determined by replacing the shape of the deformed part. If the 3D model is not the previously defined deformed shape, Calculating a scale of the part when the scale is deformed, and determining the 3D model by applying the calculated scale in the 3D model corresponding to the marker.
제1항에 있어서,
상기 (e) 단계는,
상기 추출된 이미지가 정의된 이미지인지를 판단하는 단계;
상기 판단결과 정의된 이미지인 경우 머트리얼 정보 데이터베이스로부터 상기 이미지에 대응하는 머트리얼을 획득하고, 정의된 이미지가 아닌 경우 영상 획득부와 마커와의 거리 및 각도를 계산하고, 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공하며, 상기 가공된 이미지로 머트리얼을 생성하는 단계를 포함하는 것을 특징으로 하는 인터랙티브 증강현실 서비스 방법.
The method according to claim 1,
The step (e)
Determining whether the extracted image is a defined image;
Acquiring a material corresponding to the image from the material information database when the determination result is that the image is a defined image, calculating a distance and an angle between the image acquiring unit and the marker when the image is not a defined image, Processing the extracted image with the processed image, and generating material using the processed image.
영상을 획득하는 영상 획득부;
상기 획득된 영상에서 마커를 인식하는 마커 인식부;
상기 인식된 마커의 변형 여부를 판단하고, 그 판단결과에 따른 3D모델을 결정하는 3D모델 결정부;
상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 상기 추출된 이미지로 머트리얼을 결정하는 머트리얼 결정부; 및
상기 3D 모델 결정부에서 결정된 3D 모델에 상기 머트리얼 결정부에서 결정된 머트리얼을 적용하는 렌더링부;
를 포함하는 증강현실 처리 장치.
An image acquiring unit acquiring an image;
A marker recognition unit for recognizing a marker in the acquired image;
A 3D model determination unit for determining whether the recognized marker is deformed and determining a 3D model according to the determination result;
A material decision unit for masking an edge of the marker, extracting an image inside the masking, and determining the material in the extracted image; And
A rendering unit for applying the material determined in the material determining unit to the 3D model determined by the 3D model determining unit;
Wherein the augmented reality processing unit includes:
제5항에 있어서,
상기 3D모델 결정부는 상기 인식된 마커를 마커 정보 데이터베이스에 저장된 마커들과 비교하여, 마커의 테두리 변형 여부를 판단하고, 마커의 테두리가 변형된 경우, 그 변형이 기 정의된 변형인지를 판단하여, 기 정의된 변형인 경우, 상기 마커에 대응하는 3D모델에서 변형된 부분의 형태를 교체하여 3D모델을 결정하고, 기 정의된 변형이 아닌 경우, 테두리의 스케일의 변형 여부를 판단하여, 테두리의 스케일이 변형된 경우, 해당 부분의 스케일을 계산하고, 상기 마커에 대응하는 3D모델에서 상기 계산된 스케일을 적용하여 3D모델을 결정하는 것을 특징으로 하는 증강현실 처리 장치.
6. The method of claim 5,
The 3D model determination unit compares the recognized marker with the markers stored in the marker information database to determine whether or not the edge of the marker is deformed. If the edge of the marker is deformed, the 3D model determination unit determines whether the deformation is a predefined deformation, In the case of the predefined deformation, the 3D model is determined by replacing the shape of the deformed part in the 3D model corresponding to the marker, and if the deformation is not the predefined deformation, the deformation of the scale of the frame is determined, Wherein the 3D model is determined by calculating a scale of the portion and applying the calculated scale in the 3D model corresponding to the marker.
제5항에 있어서,
상기 머트리얼 결정부는 상기 마커의 테두리를 마스킹하고, 마스킹 내부의 이미지를 추출하며, 상기 추출된 이미지가 정의된 이미지인지를 판단하여, 기 정의된 이미지인 경우 머트리얼 정보 데이터베이스로부터 상기 이미지에 대응하는 머트리얼을 획득하고, 정의된 이미지가 아닌 경우 영상 획득부와 마커와의 거리 및 각도를 계산하고, 상기 계산된 거리와 각도로 상기 추출된 이미지를 가공하며, 상기 가공된 이미지로 머트리얼을 생성하는 것을 특징으로 하는 증강현실 처리 장치.
6. The method of claim 5,
The material determining unit may mask the edge of the marker, extract an image inside the masking, determine whether the extracted image is a defined image, and if the extracted image is a predefined image, Calculating a distance and an angle between the image acquiring unit and the marker when the image is not a defined image, processing the extracted image at the calculated distance and angle, generating the material using the processed image, Wherein the augmented reality processing unit comprises:
증강 현실용의 마커(marker)가 포함된 페이지를 갖고, 사용자에 의해 상기 마커의 변형이 가능한 보드(board); 및
상기 보드의 페이지를 촬영하여 획득한 영상에서 마커를 인식하고, 상기 인식된 마커가 변형된 경우 변형 마커에 대응하는 3D모델을 실시간으로 렌더링하여 표시하는 증강현실 처리 장치;
를 포함하는 인터랙티브 증강현실 서비스 시스템.

A board having a page including a marker for an augmented reality and capable of deforming the marker by a user; And
An augmented reality processing device for recognizing a marker in an image obtained by photographing a page of the board and rendering and displaying a 3D model corresponding to a deformed marker in real time when the recognized marker is deformed;
And an interactive augmented reality service system.

KR1020140052515A 2014-04-30 2014-04-30 System and method for providing interactive augmented reality service KR101582225B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140052515A KR101582225B1 (en) 2014-04-30 2014-04-30 System and method for providing interactive augmented reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140052515A KR101582225B1 (en) 2014-04-30 2014-04-30 System and method for providing interactive augmented reality service

Publications (2)

Publication Number Publication Date
KR20150125326A true KR20150125326A (en) 2015-11-09
KR101582225B1 KR101582225B1 (en) 2016-01-04

Family

ID=54604868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140052515A KR101582225B1 (en) 2014-04-30 2014-04-30 System and method for providing interactive augmented reality service

Country Status (1)

Country Link
KR (1) KR101582225B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3312801A1 (en) * 2016-10-18 2018-04-25 DS Global Method and system for providing augmented reality content using user-edited image
KR20190094166A (en) * 2016-11-08 2019-08-12 쓰리디큐알 게엠베하 Method and apparatus for overlaying virtual image and audio data on the reproduction of real scenes, and mobile devices
WO2021025188A1 (en) * 2019-08-02 2021-02-11 주식회사 토포로그 Interactive content providing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080018397A (en) * 2006-08-24 2008-02-28 한국문화콘텐츠진흥원 Computer-readable recording medium for recorded program for providing 3d modeling based real-time images
KR20110088778A (en) * 2010-01-29 2011-08-04 주식회사 팬택 Terminal and method for providing augmented reality
KR20120106519A (en) * 2011-03-16 2012-09-26 성준형 Apparatus and method for providing user interface based on augmented reality
KR20130017258A (en) * 2011-08-10 2013-02-20 중앙대학교 산학협력단 Apparatus and method about implementation of augmented reality based on model with multiple-planes
KR101281314B1 (en) 2013-02-18 2013-07-03 구덕회 System and method for augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080018397A (en) * 2006-08-24 2008-02-28 한국문화콘텐츠진흥원 Computer-readable recording medium for recorded program for providing 3d modeling based real-time images
KR20110088778A (en) * 2010-01-29 2011-08-04 주식회사 팬택 Terminal and method for providing augmented reality
KR20120106519A (en) * 2011-03-16 2012-09-26 성준형 Apparatus and method for providing user interface based on augmented reality
KR20130017258A (en) * 2011-08-10 2013-02-20 중앙대학교 산학협력단 Apparatus and method about implementation of augmented reality based on model with multiple-planes
KR101281314B1 (en) 2013-02-18 2013-07-03 구덕회 System and method for augmented reality

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3312801A1 (en) * 2016-10-18 2018-04-25 DS Global Method and system for providing augmented reality content using user-edited image
KR20190094166A (en) * 2016-11-08 2019-08-12 쓰리디큐알 게엠베하 Method and apparatus for overlaying virtual image and audio data on the reproduction of real scenes, and mobile devices
US11100719B2 (en) 2016-11-08 2021-08-24 3Dqr Gmbh Method and apparatus for overlaying a reproduction of a real scene with virtual image and audio data, and a mobile device
WO2021025188A1 (en) * 2019-08-02 2021-02-11 주식회사 토포로그 Interactive content providing system

Also Published As

Publication number Publication date
KR101582225B1 (en) 2016-01-04

Similar Documents

Publication Publication Date Title
Bhattacharya et al. Augmented reality via expert demonstration authoring (AREDA)
CN107251101B (en) Scene modification for augmented reality using markers with parameters
JP7337104B2 (en) Model animation multi-plane interaction method, apparatus, device and storage medium by augmented reality
Dash et al. Designing of marker-based augmented reality learning environment for kids using convolutional neural network architecture
US9652895B2 (en) Augmented reality image transformation
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
CN108876934B (en) Key point marking method, device and system and storage medium
US20140210857A1 (en) Realization method and device for two-dimensional code augmented reality
CN106104635A (en) Block augmented reality object
JP2015153046A (en) Image processor, image processing method and program
CA2898668A1 (en) Realization method and device for two-dimensional code augmented reality
CN111738769B (en) Video processing method and device
KR101582225B1 (en) System and method for providing interactive augmented reality service
CN106447756A (en) Method and system for generating a user-customized computer-generated animation
CN112328088B (en) Image presentation method and device
Rose et al. Word recognition incorporating augmented reality for linguistic e-conversion
CN108027647B (en) Method and apparatus for interacting with virtual objects
KR20160072306A (en) Content Augmentation Method and System using a Smart Pen
Thiengtham et al. Improve template matching method in mobile augmented reality for thai alphabet learning
CN111107264A (en) Image processing method, image processing device, storage medium and terminal
US20230082420A1 (en) Display of digital media content on physical surface
JP4703744B2 (en) Content expression control device, content expression control system, reference object for content expression control, and content expression control program
JP4550460B2 (en) Content expression control device and content expression control program
KR20180076188A (en) Method for embodiment of augmented reality using marker and Voice Recognition
CN113434059A (en) Written document processing method and device, electronic equipment and computer readable medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant