KR20200079857A - System for providing performance contents using augmented reality and Method for providing the same - Google Patents

System for providing performance contents using augmented reality and Method for providing the same Download PDF

Info

Publication number
KR20200079857A
KR20200079857A KR1020180169499A KR20180169499A KR20200079857A KR 20200079857 A KR20200079857 A KR 20200079857A KR 1020180169499 A KR1020180169499 A KR 1020180169499A KR 20180169499 A KR20180169499 A KR 20180169499A KR 20200079857 A KR20200079857 A KR 20200079857A
Authority
KR
South Korea
Prior art keywords
augmented reality
user
content
marker
performance
Prior art date
Application number
KR1020180169499A
Other languages
Korean (ko)
Other versions
KR102143616B1 (en
Inventor
장승현
김대근
Original Assignee
블루베리엔터테인먼트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 블루베리엔터테인먼트 주식회사 filed Critical 블루베리엔터테인먼트 주식회사
Priority to KR1020180169499A priority Critical patent/KR102143616B1/en
Publication of KR20200079857A publication Critical patent/KR20200079857A/en
Application granted granted Critical
Publication of KR102143616B1 publication Critical patent/KR102143616B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a system for providing performance content using augmented reality to the audience and a method thereof, which are able to provide content by synthesizing an actual performance with an augmented reality image. More specifically, the present invention relates to a system for providing performance content using augmented reality, which comprises a server and a terminal. The server comprises: a user checking unit which checks if a user using the terminal is an audience or not; a user position checking unit which extracts the seat information of the user; and a content storage unit which stores the augmented reality content used for the performance. The terminal includes: a reality image extraction unit which extracts a reality image of the performance venue; a movement information extraction unit which extracts the movement information of the user; an augmented reality synthesizing unit which synthesizes the reality image with the augmented reality content provided from the server, adjusts the size and position of the augmented reality content in accordance with the seat information of the user extracted by the user position checking unit, and adjusts the size and position of the augmented reality content in accordance with the movement of the user extracted by the movement information extraction unit; and a display unit which outputs the synthesized image.

Description

증강현실을 이용한 공연콘텐츠 제공 시스템 및 그의 제공방법 {System for providing performance contents using augmented reality and Method for providing the same}System for providing performance contents using augmented reality and its providing method {System for providing performance contents using augmented reality and Method for providing the same}

개시된 내용은 관객들에게 증강현실을 이용하여 공연콘텐츠를 제공해주는 시스템 및 방법에 관한 것으로써, 실제 공연과 증강현실이미지를 합성하여 콘텐츠를 제공하는 것이다.The disclosed content relates to a system and a method for providing performance content to the audience using augmented reality, and to provide content by synthesizing a real performance and augmented reality image.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the content described in this section is not prior art to the claims of this application and is not admitted to be prior art by inclusion in this section.

최근 스마트폰 등 다양한 매체를 실행하고 제공할 수 있는 모바일 기기의 보급으로 사용자에게 콘텐츠를 제공하는 방법이 다양해지고 있다. 이러한 콘텐츠들은 효율성과 편의성의 관점에서 인간과 컴퓨터 사이의 상호작용에 관한 기술 수요의 증대로 이어지면서, HCI(Human Computer Interaction)의 한 분야인 증강현실이 큰 주목을 받고 있으며, 특히 모바일 증강현실(Mobile Augmented Reality)에 관한 관심이 고조되고 있다.Recently, with the spread of mobile devices capable of executing and providing various media such as smart phones, methods for providing content to users have been diversified. As these contents lead to an increase in technology demand for interaction between humans and computers from the viewpoint of efficiency and convenience, augmented reality, which is a field of Human Computer Interaction (HCI), has attracted great attention, especially mobile augmented reality ( Interest in Mobile Augmented Reality is growing.

증강현실(Augmented Reality)이란 가상현실(Virtual Reality)과 달리, 현실세계의 이미지와 가상세계의 이미지를 융합하여 사용자에게 제공되는 환경을 의미한다. 일반적으로 증강현실에 나타나는 가상세계의 이미지는 컴퓨터 그래픽을 활용하며, 현실세계의 이미지에 추가적으로 정보를 제공하는 역할을 한다.Augmented reality (Augmented Reality), unlike Virtual Reality (Virtual Reality) refers to an environment that is provided to users by fusing images from the real world and images from the virtual world. Generally, the image of the virtual world that appears in augmented reality uses computer graphics, and serves to provide additional information to the image of the real world.

종래에 사용자에게 증강현실을 이용하여 제공하는 콘텐츠로써, 모바일 기기의 카메라에 비춰지는 현실 이미지에 GPS, GNSS 등으로 사용자의 위치정보를 추출하여, 추출된 위치정보에서 광고, 네비게이션 정보 등을 제공하기도 하며, 다양한 방면에서 증강현실 콘텐츠를 활용하여 사용자에게 서비스를 제공하고 있다.Content that is provided to users using augmented reality in the related art, and extracts user's location information through GPS, GNSS, etc. from a real image projected on the camera of a mobile device, and provides advertisement and navigation information from the extracted location information. In a variety of ways, augmented reality content is utilized to provide services to users.

한국특허공보 제10-1825600호에 의하면, 모바일 단말기에 있어서, 영상을 촬영하는 카메라, 상기 카메라를 통해 촬영된 영상을 실시간으로 화면에 표시하는 화면 제어수단, 네트워크를 경유하여 서버로부터 하나 이상의 좌석들의 번호와 위치를 포함하는 좌석배치 정보를 제공받는 유무선 통신수단, 모바일 단말기 자신의 오프라인상 현 위치의 정보를 파악하는 위치 판정수단;을 구비하되, 상기 위치 판정수단은 사용자로부터 좌석번호를 입력받으면 상기 좌석배치 정보 상에서 사용자로부터 입력받은 좌석의 위치를 판정한 다음, 사용자가 입력한 좌석번호에 해당하는 좌석의 오프라인상 위치를 판정하며, 상기 화면 제어수단은 카메라를 통해 촬영된 영상을 화면에 표시하되, 화면상 상기 사용자가 입력한 좌석번호에 해당하는 좌석의 오프라인상 위치에 소정의 표식을 오버레이하여 표시하며, 각 좌석에는 고유의 태그가 부여되며, 상기 위치 판정수단은 상기 카메라에 의해 촬영된 태그로부터 현 위치를 판정하며, 상기 위치 판정수단은 태그와 좌석번호의 매칭관계를 이용하여 상기 태그로부터 확인된 현 위치와 사용자에 의해 입력된 좌석번호의 위치로부터 상대위치를 판정하며, 상기 화면 제어수단은 상기 상대위치를 화면에 오버레이하여 표시하는 것을 특징으로 하는 증강현실기술을 이용한 좌석안내 장치를 개시하고 있다.According to Korean Patent Publication No. 10-1825600, in a mobile terminal, a camera for capturing an image, a screen control means for displaying an image captured through the camera on a screen in real time, and one or more seats from a server via a network. And a wire/wireless communication means receiving seat arrangement information including a number and a location, and location determination means for grasping the current location information of the mobile terminal itself, wherein the location determination means receives the seat number from the user. After determining the position of the seat input from the user on the seat arrangement information, the offline position of the seat corresponding to the seat number entered by the user is determined, and the screen control means displays an image captured through the camera on the screen. On the screen, a predetermined mark is overlaid on the off-line position of the seat corresponding to the seat number entered by the user, and each seat is given a unique tag, and the position determination means is a tag taken by the camera The current position is determined from, and the position determination means determines the relative position from the current position identified from the tag and the position of the seat number input by the user using the matching relationship between the tag and the seat number, and the screen control means Discloses a seat guiding device using augmented reality technology, characterized in that the relative position is displayed overlaid on the screen.

상기 한국특허공보 제10-1825600호에서는 증강현실을 이용하여 좌석을 안내하고 있으나, 증강현실은 좀더 다양하게 사용될 수 있는바, 연구의 필요성이 대두되고 있었다. In the Korean Patent Publication No. 10-1825600, augmented reality is used to guide the seat, but augmented reality can be used in more various ways, so the need for research has emerged.

1. 한국특허공보 제10-1825600호1. Korean Patent Publication No. 10-1825600

실물공연과 가상현실을 융합하여 보다 현실감과 몰입감을 줄 수 있는 증강현실 공연콘텐츠를 제공하고자 한다.We intend to provide augmented reality performance contents that can bring more realism and immersion by integrating real performance and virtual reality.

개시된 내용은 서버와 단말기를 포함하는 증강현실을 이용한 공연콘텐츠 제공시스템에 있어서, 상기 서버는, 상기 단말기를 사용하는 사용자가 관객인지 확인하는 사용자확인부, 사용자의 좌석정보를 추출하는 사용자위치확인부 및 공연에 사용되는 증강현실콘텐츠를 저장하는 콘텐츠저장부를 포함하고, 상기 단말기는, 공연장의 현실이미지를 추출하는 현실이미지추출부, 사용자의 움직임정보를 추출하는 움직임정보추출부, 상기 현실이미지와 상기 서버로부터 제공받은 상기 증강현실콘텐츠를 합성하되, 상기 사용자위치확인부에서 추출된 상기 사용자의 좌석정보에 따라 상기 증강현실콘텐츠의 크기 및 위치를 조정하고, 상기 움직임정보추출부에서 추출된 사용자의 움직임에 따라 증강현실콘텐츠의 크기 및 위치를 조정하여 합성하는 증강현실합성부 및 상기 합성된 영상을 출력하는 디스플레이부를 포함하는 것을 특징으로 하는 증강현실을 이용한 공연콘텐츠 제공시스템을 일 실시 예로 제시한다.Disclosed is a system for providing performance content using augmented reality including a server and a terminal, wherein the server comprises: a user identification unit to determine whether a user using the terminal is an audience; a user location identification unit to extract user's seat information; And a content storage unit for storing augmented reality content used for performances, wherein the terminal comprises: a reality image extraction unit for extracting a reality image of a venue, a motion information extraction unit for extracting user motion information, the reality image and the Synthesizing the augmented reality content received from a server, adjusting the size and position of the augmented reality content according to the user's seat information extracted from the user location confirmation unit, and the user's motion extracted from the motion information extraction unit According to an embodiment of the present invention, a system for providing performance content using augmented reality is provided, which includes an augmented reality synthesis unit for adjusting and synthesizing the size and position of augmented reality content and a display unit for outputting the synthesized image.

또한, 개시된 내용은 사용자가 관객인지 여부를 확인하는 제 1 단계, 상기 사용자의 좌석정보를 취득하는 제 2 단계, 공연장의 현실이미지를 추출하는 제 3 단계, 증강현실콘텐츠를 수신하는 제 4 단계, 상기 사용자의 좌석정보에 따라 증강현실콘텐츠의 위치 및 크기를 조정하여, 상기 현실이미지와 합성하는 제 5 단계, 상기 합성된 영상을 디스플레이에 출력하는 제 6 단계 및 사용자의 움직임 정보에 따라 상기 증강현실콘텐츠의 위치를 조정하는 제 7 단계를 포함하는 증강현실을 이용한 공연콘텐츠 제공방법을 일 실시 예로 제시한다.In addition, the disclosed contents include a first step of confirming whether the user is an audience, a second step of acquiring the seat information of the user, a third step of extracting a reality image of the venue, a fourth step of receiving augmented reality content, Adjusting the location and size of the augmented reality content according to the user's seat information, the fifth step of synthesizing with the real image, the sixth step of outputting the synthesized image to a display, and the augmented reality according to the user's motion information A method for providing performance contents using augmented reality including a seventh step of adjusting the location of the content is presented as an embodiment.

개시된 실시 예에 따르면, 실제공연과 가상현실을 융합하여 관객의 몰입감을 향상시키고, 실제공연에서 연출할 수 없었던 대규모 장면을 관객에게 제공할 수 있다.According to the disclosed embodiment, it is possible to improve the immersion of the audience by fusing the actual performance and the virtual reality, and to provide the audience with a large-scale scene that could not be produced in the actual performance.

본 실시예들의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present embodiments are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 개시된 내용의 일 실시 예에 따른 증강현실을 이용한 공연콘텐츠 제공 시스템의 구성도.
도 2는 개시된 내용의 일 실시 예에 따른 증강현실을 이용한 공연콘텐츠 제공방법의 흐름도.
1 is a block diagram of a system for providing performance content using augmented reality according to an embodiment of the disclosed content.
Figure 2 is a flow diagram of a method for providing performance content using augmented reality according to an embodiment of the disclosed content.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. Throughout the specification, the same reference numerals refer to the same components.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들을 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.

이하, 첨부된 도 1을 참조하여 개선된 증강현실을 이용한 공연콘텐츠 제공 시스템의 바람직한 실시 예에 대하여 설명한다.Hereinafter, a preferred embodiment of a system for providing performance content using improved augmented reality will be described with reference to the accompanying FIG. 1.

도 1에 도시된 바에 의하며, 증강현실을 이용한 공연콘텐츠 제공시스템은 서버(10)와 단말기(20)를 포함하고, 상기 서버(10)는, 상기 단말기(20)를 사용하는 사용자가 관객인지 확인하는 사용자확인부(11), 사용자의 좌석정보를 추출하는 사용자좌석확인부 및 공연에 사용되는 증강현실콘텐츠를 저장하는 콘텐츠저장부(13)를 포함하고, 상기 단말기(20)는, 공연장의 현실이미지를 추출하는 현실이미지추출부(24), 사용자의 움직임정보를 추출하는 움직임정보추출부(23), 상기 현실이미지와 상기 서버(10)로부터 제공받은 상기 증강현실콘텐츠를 합성하되, 상기 사용자위치확인부(12)에서 추출된 상기 사용자의 좌석정보에 따라 상기 증강현실콘텐츠의 크기 및 위치를 조정하고, 상기 움직임정보추출부(23)에서 추출된 사용자의 움직임에 따라 증강현실콘텐츠의 크기 및 위치를 조정하여 합성하는 증강현실합성부(25) 및 상기 합성된 영상을 출력하는 디스플레이부(21)를 포함한다.As shown in FIG. 1, the system for providing performance contents using augmented reality includes a server 10 and a terminal 20, and the server 10 confirms whether a user using the terminal 20 is an audience. It includes a user identification unit 11, a user seat identification unit for extracting the user's seat information, and a content storage unit 13 for storing augmented reality content used in the performance, the terminal 20, the reality of the venue A reality image extracting unit 24 for extracting images, a motion information extracting unit 23 for extracting user's motion information, and the augmented reality contents provided from the server 10 are synthesized, but the user location Adjust the size and position of the augmented reality content according to the user's seat information extracted from the confirmation unit 12, and the size and position of the augmented reality content according to the user's motion extracted from the motion information extraction unit 23 It includes an augmented reality synthesis unit 25 for adjusting and synthesizing, and a display unit 21 for outputting the synthesized image.

보다 상세하게 설명하면, 상기 서버(10)는 사용자 정보를 확인하는 사용자확인부(11), 사용자의 좌석정보를 추출하는 사용자위치확인부(12) 및 공연에 사용되는 증강현실콘텐츠를 저장하는 콘텐츠저장부(13)를 포함하며, In more detail, the server 10 includes a user identification unit 11 for checking user information, a user location identification unit 12 for extracting user's seat information, and content for storing augmented reality content used for performances. It includes a storage unit 13,

상기 사용자확인부(11)는 상기 단말기(20)의 사용자가 해당공연의 관객인지 여부를 확인한다. 단말기(20)마다 고유의 ID를 할당하여 사용자가 해당공연의 관객인지 확인할 수 있고, 또는 단말기(20)에 사용자가 자신의 ID를 입력하여 관객여부를 확인할 수 있다. 다른 방법으로는 공연티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자의 단말기(20)가 해당 QR코드 또는 마커를 인식함으로써, 관객여부를 확인할 수도 있다.The user identification unit 11 checks whether the user of the terminal 20 is an audience of the corresponding performance. By assigning a unique ID to each terminal 20, it is possible to check whether the user is an audience of the corresponding performance, or the user can enter the ID of the user in the terminal 20 to check whether the audience is present. Alternatively, a kind of QR code or a specific marker is assigned to the performance ticket, and the user's terminal 20 recognizes the corresponding QR code or marker, thereby checking whether the audience is present.

상기 사용자위치확인부(12)는 사용자의 좌석정보를 추출한다. 사용자의 좌석정보를 추출하는 것은 후술하는 현실이미지와 증강현실콘텐츠의 정확한 합성을 위한 것으로써, 사용자의 위치에 따른 시각차를 보정하기 위한 변수로 사용하기 위함이다. 사용자의 좌석에 따라 공연장 및 배우의 크기 및 각도가 변화하고, 변화된 위치에 따라 증강현실콘텐츠의 위치 및 크기를 조정할 수 있다. 위치를 확인하는 방법으로는 사용자가 자신의 좌석정보를 입력할 수 있으며, 또는 좌석마다 고유의 NFC 칩 또는 비콘(Beacon)을 설치하여, 사용자의 좌석정보를 추출할 수 있다. 경제적인 면에서는 사용자가 자신의 좌석정보를 입력하는 것이 바람직하나, 사용자가 좌석을 이동하거나, 공연장 내에서 움직여야 할 상황에서도 증강현실콘텐츠를 제공할 수 있도록 비콘을 활용함이 바람직할 것이다.The user positioning unit 12 extracts the user's seat information. Extracting the user's seat information is for accurate synthesis of the reality image and augmented reality content, which will be described later, and is used as a variable for correcting a time difference according to the user's location. The size and angle of the venue and actors change according to the user's seat, and the location and size of the augmented reality content can be adjusted according to the changed position. As a method of confirming the location, the user can input his seat information, or by installing a unique NFC chip or beacon for each seat, the user's seat information can be extracted. From an economical point of view, it is desirable for a user to input his/her own seat information, but it would be desirable to use a beacon to provide augmented reality content even when the user has to move a seat or move in a venue.

상기 콘텐츠저장부(13)는 공연에 사용되는 증강현실콘텐츠를 저장한다. 상기 저장되는 콘텐츠는 해당공연에 사용되는 가상현실 그래픽으로 해당 공연에 따라 구분되어 저장될 수 있다. The content storage unit 13 stores augmented reality content used for performances. The stored content is a virtual reality graphic used for a corresponding performance and may be classified and stored according to a corresponding performance.

상기 단말기(20)는 별도로 마련된 장치로써, 해당 공연의 시작에 앞서 관객들에게 나눠줄 수 있으며, 스마트폰 또는 프로그램이 설치될 수 있는 장치에 해당 공연의 주최측이 미리 준비해둔 어플리케이션을 설치하여, 단말기(20)로 사용될 수 있다. 새로운 기능을 부가하거나 확장성을 향상시키기 위하여는 사용자가 소지하는 스마트폰에 어플리케이션을 설치하는 것이 바람직할 것이다. 상기 단말기(20)는 현실이미지추출부(24), 움직임정보추출부(23), 증강현실합성부(25) 및 디스플레이부(21)를 포함할 수 있다.The terminal 20 is a separately provided device, which can be distributed to the audience prior to the start of the performance, and installs an application prepared by the organizer of the performance in advance on a smartphone or a device on which a program can be installed. It can be used as (20). In order to add new functions or improve scalability, it would be desirable to install an application on a user's smartphone. The terminal 20 may include a reality image extraction unit 24, a motion information extraction unit 23, an augmented reality synthesis unit 25, and a display unit 21.

상기 현실이미지추출부(24)는 공연장의 현실이미지를 추출한다. 공연에서 공연장의 모습과 공연을 하는 배우의 모습을 영상 또는 이미지로 추출한다. 현실이미지추출부(24)로써 카메라 또는 캠코더를 사용할 수 있으며, 바람직하게는 스마트폰에 내장된 카메라를 활용할 수 있다.The reality image extraction unit 24 extracts the reality image of the venue. In the performance, the appearance of the venue and the actor performing the performance are extracted as images or images. A camera or a camcorder may be used as the reality image extraction unit 24, and preferably, a camera built in a smartphone may be used.

상기 움직임정보추출부(23)는 사용자의 움직임정보를 추출할 수 있다. 상기 단말기(20)를 고정된 위치에 두고 사용할 수도 있으나, 사용자가 손으로 들고 사용할 수도 있기에, 사용자의 움직임에 따라 증강현실콘텐츠의 크기와 위치를 조정하는 것이 바람직하다. 따라서 사용자의 움직임정보를 추출할 수 있는 자이로 센서나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위해 3축 이상의 가속도 센서를 사용함이 바람직할 것이다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다.The motion information extraction unit 23 may extract motion information of a user. The terminal 20 may be used in a fixed position, but may be held by a user and used, so it is preferable to adjust the size and position of the augmented reality content according to the user's movement. Therefore, a gyro sensor capable of extracting user's motion information or an acceleration sensor having two or more axes may be used, and it may be desirable to use an acceleration sensor having three or more axes to recognize three-dimensional motion. When using a user's smartphone, a gyro sensor or an acceleration sensor built into the smartphone can be used.

상기 증강현실합성부(25)는 상기 현실이미지와 상기 서버(10)로부터 제공받은 상기 증강현실콘텐츠를 합성하되, 상기 사용자위치확인부(12)에서 추출된 상기 사용자의 좌석정보에 따라 상기 증강현실콘텐츠의 크기 및 위치를 조정하고, 상기 움직임정보추출부(23)에서 추출된 사용자의 움직임에 따라 증강현실콘텐츠의 크기 및 위치를 조정하여 합성할 수 있다. 상기 현실이미지와 증강현실콘텐츠의 합성은 1회에 그치는 것이 아니라, 증강현실콘텐츠를 제공하는 시간동안 지속적으로 이루어질 수 있다. 예를 들면 상기 사용자의 위치정보와 움직임정보를 1ms(milli second) 마다 측정하고, 측정된 정보에 따라 1ms 마다 현실이미지와 증강현실콘텐츠를 합성할 수 있다.The augmented reality synthesis unit 25 synthesizes the augmented reality content received from the real image and the server 10, but augmented reality according to the user's seat information extracted from the user location confirmation unit 12 The size and position of the content may be adjusted, and the size and position of the augmented reality content may be adjusted according to the user's motion extracted from the motion information extraction unit 23 and synthesized. The synthesis of the real image and the augmented reality content is not limited to one time, but may be continuously performed during the time of providing the augmented reality content. For example, the user's location information and motion information may be measured every 1 ms (milli second), and a real image and augmented reality content may be synthesized every 1 ms according to the measured information.

증강현실콘텐츠와 현실이미지의 정확한 합성을 위해서, 상기 공연의 무대위에 하나 이상의 제1마커(31)를 포함할 수 있다. 또한, 상기 단말기(20)에 상기 제1마커(31)를 인식할 수 있는 마커추출부를 포함할 수 있다. 제1마커(31)는 무대의 고정된 위치에 설치될 수 있으며, 마커추출부는 상기 현실이미지추출부(24)에서 추출된 현실이미지에서 상기 제1마커(31)를 인식하여 위치 및 크기를 식별할 수 있다. For accurate synthesis of augmented reality content and reality images, one or more first markers 31 may be included on the stage of the performance. In addition, a marker extraction unit capable of recognizing the first marker 31 may be included in the terminal 20. The first marker 31 may be installed at a fixed position on the stage, and the marker extraction unit recognizes the first marker 31 from the reality image extracted from the reality image extraction unit 24 to identify the location and size. can do.

또한, 공연을 하는 배우 및 공연에 사용되는 물건 중 적어도 어느 하나에 제2마커(32)를 설치할 수 있으며, 상기 마커추출부에서 상기 제2마커(32)도 인식할 수 있다. 상기 제1마커(31)와 제2마커(32)는 마커추출부에서 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커를 인식하는 방법으로는, 상기 마커가 특정무늬로 이루어진 경우에 상기 현실이미지를 추출하면서 마커를 함께 추출하여, 마커의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 상기 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커의 위치를 식별할 수 있다. 상기 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다. 상술한 바와 같이 제1마커(31)와 제2마커(32)를 마커추출부(22)에서 인식하면, 증강현실콘텐츠와 현실이미지를 합성할 때, 정확한 위치와 크기로 합성할 수 있을 것이다.In addition, a second marker 32 may be installed on at least one of an actor performing a performance and an object used in the performance, and the second marker 32 may be recognized by the marker extraction unit. The first marker 31 and the second marker 32 may be made of a specific pattern that can be identified by the marker extraction unit, and may be made of a beacon or infrared transceiver. As a method of recognizing a marker, when the marker is formed of a specific pattern, the marker is extracted while extracting the real image, and the size and position of the marker can be identified, or, as a beacon, Bluetooth Low Energy (BLE). Using the device, the location of the beacon can be identified with a Bluetooth receiver, and the location of the corresponding marker can be identified using an infrared transceiver. Although only one of the beacon and infrared transceivers may be used, it is preferable to use triangulation by arranging three or more because it is difficult to determine the exact location when only one is used. As described above, if the first marker 31 and the second marker 32 are recognized by the marker extractor 22, when synthesizing the augmented reality content and the real image, it may be synthesized with the correct position and size.

상기 디스플레이부(21)는 상기 합성된 영상을 출력할 수 있다. 상기 디스플레이부(21)는 영상을 출력할 수 있는 화면을 모두 포함할 수 있으며, LCD, LED, AMOLED 등을 사용할 수 있다. 상기 디스플레이부(21)는 단말기(20)에 별도로 구비될 수 있으나, 사용자의 스마트폰을 활용하는 경우, 스마트폰 화면을 디스플레이부(21)로 활용할 수 있다.The display unit 21 may output the synthesized image. The display unit 21 may include all screens capable of outputting images, and may use LCDs, LEDs, AMOLEDs, and the like. The display unit 21 may be separately provided in the terminal 20, but when a user's smartphone is used, the smartphone screen may be used as the display unit 21.

본 증강현실을 이용한 공연콘텐츠 제공 시스템은 해당 공연시간동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 예를 들면, 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연콘텐츠 제공 시스템을 활용하여, 보다 몰입감 있고 현실감 있는 공연콘텐츠를 제공할 수 있을 것이다.The system for providing performance contents using the augmented reality may be continuously provided during the performance time, or may be limitedly used in a specific scene as needed while performing a general performance. For example, in the case of directing a large-scale scene such as a war scene, there is a limitation in the space and manpower of the stage, so it is possible to provide a more immersive and realistic performance content by utilizing the performance content providing system using this augmented reality. .

이하, 도 2를 참조하여, 증강현실을 이용한 공연콘텐츠 제공방법에 대해 설명한다.Hereinafter, a method for providing performance content using augmented reality will be described with reference to FIG. 2.

증강현실을 이용한 공연콘텐츠 제공방법은, 사용자가 관객인지 여부를 확인하는 제 1 단계, 상기 사용자의 좌석정보를 취득하는 제 2 단계, 공연장의 현실이미지를 추출하는 제 3 단계, 증강현실콘텐츠를 수신하는 제 4 단계, 상기 사용자의 좌석정보에 따라 증강현실콘텐츠의 위치 및 크기를 조정하여, 상기 현실이미지와 합성하는 제 5 단계, 상기 합성된 영상을 디스플레이에 출력하는 제 6 단계 및 사용자의 움직임 정보에 따라 상기 증강현실콘텐츠의 위치를 조정하는 제 7 단계를 포함한다.The method for providing performance content using augmented reality includes: a first step of determining whether a user is an audience; a second step of acquiring seat information of the user; a third step of extracting a reality image of the venue; receiving augmented reality content The fourth step, adjusting the position and size of the augmented reality content according to the user's seat information, the fifth step of synthesizing with the real image, the sixth step of outputting the synthesized image to a display and the user's motion information And adjusting the location of the augmented reality content according to the seventh step.

구체적으로 살펴보면, If you look specifically,

제 1 단계에서는 사용자가 관객인지 여부를 확인한다. 해당 공연장에 입장한 사용자는 증강현실콘텐츠를 시청할 수 있는 단말기(20)를 소지하고 입장할 수 있는데, 해당 단말기(20)마다 고유의 ID를 할당하여 사용자가 해당공연의 관객인지 확인할 수 있고, 또는 단말기(20)에 사용자가 자신의 ID를 입력하여 관객여부를 확인할 수 있다. 다른 방법으로는 공연티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자의 단말기(20)가 해당 QR코드 또는 마커를 인식함으로써, 관객여부를 확인할 수도 있다. In the first step, it is checked whether the user is an audience. A user who enters the corresponding venue can enter and enter the terminal 20 capable of viewing the augmented reality content, and by assigning a unique ID for each terminal 20, it is possible to check whether the user is an audience of the performance, or The user can check his or her audience by entering his or her ID in the terminal 20. Alternatively, a kind of QR code or a specific marker is assigned to the performance ticket, and the user's terminal 20 recognizes the corresponding QR code or marker, thereby checking whether the audience is present.

제 2 단계에서는 사용자의 좌석정보를 취득한다. 사용자의 좌석정보를 추출하는 것은 후술하는 현실이미지와 증강현실콘텐츠의 정확한 합성을 위한 것으로써, 공연장에서 사용자의 좌석에 따라 공연장 및 배우의 크기 또는 각도가 서로 상이하므로, 증강현실콘텐츠의 위치 및 크기를 조정하기 위한 변수로 사용할 수 있다. 위치를 확인하는 방법으로는 사용자가 자신의 좌석정보를 단말기(20)에 입력할 수 있으며, 또는 좌석마다 고유의 NFC 칩 또는 비콘(Beacon)을 설치하여, 사용자의 좌석정보를 추출할 수 있다. 경제적인 면에서는 사용자가 자신의 좌석정보를 입력하는 것이 바람직하나, 사용자가 좌석을 이동하거나, 공연장 내에서 움직여야 할 상황에서도 증강현실콘텐츠를 제공할 수 있도록 비콘을 활용함이 바람직할 것이다.In the second step, the user's seat information is acquired. Extracting the user's seat information is for the accurate synthesis of the augmented reality content and the reality image, which will be described later. Since the venue and the actor's size or angle differ depending on the user's seat in the venue, the location and size of the augmented reality content It can be used as a variable to adjust. As a method of checking the location, the user can input his/her seat information into the terminal 20, or by installing a unique NFC chip or beacon for each seat, the user's seat information can be extracted. From an economical point of view, it is desirable for a user to input his/her own seat information, but it would be desirable to use a beacon to provide augmented reality content even when the user has to move a seat or move in a venue.

제 3 단계에서는 공연장의 현실이미지를 추출한다. 공연에서 공연장의 모습과 공연을 하는 배우의 모습을 영상 또는 이미지로 추출한다. 현실이미지를 추출하는 방법으로는 카메라 또는 캠코더를 사용할 수 있으며, 바람직하게는 스마트폰에 내장된 카메라를 활용할 수 있다.In the third step, the reality image of the venue is extracted. In the performance, the appearance of the venue and the actor performing the performance are extracted as images or images. As a method of extracting a real image, a camera or a camcorder may be used, and preferably, a camera built in a smartphone may be used.

현실이미지를 추출하면서, 무대 및 배우 중 적어도 어느 하나에 설치되는 마커(30)로부터 마커정보를 추출하는 제 3-1 단계를 더 포함할 수 있다. 상기 마커는 증강현실콘텐츠와 현실이미지의 정확한 합성을 위한 것으로써, 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커정보를 추출하는 방법으로는, 상기 마커(30)가 특정무늬로 이루어진 경우에 상기 현실이미지를 추출하면서 마커(30)를 함께 추출하여, 마커(30)의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 상기 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커(30)의 위치를 식별할 수 있다. 상기 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다.The 3-1 step of extracting the marker information from the marker 30 installed on at least one of the stage and the actor while extracting the reality image may be further included. The marker is for accurate synthesis of augmented reality content and a real image, and can be made of a specific pattern that can be identified, and can be made of a beacon or an infrared transceiver. As a method of extracting marker information, when the marker 30 is formed of a specific pattern, the marker 30 can be extracted together while extracting the real image to identify the size and position of the marker 30, Alternatively, a Bluetooth low energy (BLE) device may be used as a beacon, and the location of the beacon may be identified using a Bluetooth receiver, and the location of the corresponding marker 30 may be identified using an infrared transceiver. Although only one of the beacon and infrared transceivers may be used, it is preferable to use triangulation by arranging three or more because it is difficult to determine the exact location when only one is used.

상기 마커(30)는 무대의 고정된 위치에 하나 이상 설치될 수 있으며, 또는 공연을 하는 배우 및 공연에 사용되는 물건 중 적어도 어느 하나에 설치될 수 있다.The marker 30 may be installed in one or more fixed positions on the stage, or may be installed in at least one of an actor performing a performance and an object used in the performance.

제 4 단계에서는 증강현실콘텐츠를 수신한다. 수신받는 증강현실콘텐츠는 해당공연에 사용되는 가상현실 그래픽으로, 공연마다 따로 구분되어 수신받을 수 있다. In the fourth step, augmented reality content is received. The received augmented reality content is a virtual reality graphic used for the performance, and can be received separately for each performance.

제 5 단계에서는 상기 사용자의 좌석정보에 따라 증강현실콘텐츠의 위치 및 크기를 조정하여, 상기 현실이미지와 합성한다. 보다 상세하게 살펴보면, 상기 현실이미지와 상기 서버(10)로부터 제공받은 상기 증강현실콘텐츠를 합성하되, 추출된 사용자의 좌석정보에 따라 상기 증강현실콘텐츠의 크기 및 위치를 조정할 수 있으며, 상술한 마커정보를 포함하여, 상기 증강현실콘텐츠의 크기 및 위치의 정확성을 향상시킬 수 있다.In the fifth step, the location and size of the augmented reality content are adjusted according to the user's seat information, and the result is synthesized with the real image. Looking in more detail, the real image and the augmented reality content provided from the server 10 are synthesized, but the size and position of the augmented reality content can be adjusted according to the extracted user's seat information, and the above-described marker information Including, it is possible to improve the accuracy of the size and location of the augmented reality content.

제 6 단계에서는 상기 합성된 영상을 디스플레이에 출력한다. 상기 디스플레이는 영상을 출력할 수 있는 화면을 모두 포함할 수 있으며, LCD, LED, AMOLED 등을 사용할 수 있다. 상기 디스플레이는 별도로 구비된 단말기(20)에 포함될 수 있으나, 사용자의 스마트폰을 활용하는 경우, 스마트폰 화면을 상기 디스플레이로 활용할 수 있다.In the sixth step, the synthesized image is output to the display. The display may include all screens capable of outputting an image, and LCD, LED, AMOLED, and the like can be used. The display may be included in the separately provided terminal 20, but when a user's smartphone is used, the smartphone screen may be used as the display.

제 7 단계에서는 사용자의 움직임 정보에 따라 상기 증강현실콘텐츠의 위치를 조정한다. 증강현실콘텐츠를 제공하는 단말기(20)는 고정된 위치에 설치될 수 있을 뿐만 아니라, 사용자가 손으로 들고 사용할 수도 있으므로, 증강현실콘텐츠를 사용자의 움직임에 대응하도록 조정하기 위해서는 사용자의 움직임 정보를 추출할 필요가 있다. 사용자의 움직임 정보를 추출하는 방법으로 자이로 센서를 사용하거나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위하여 3축 이상의 가속도 센서를 사용함이 바람직하다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다. In the seventh step, the location of the augmented reality content is adjusted according to the user's motion information. The terminal 20 that provides the augmented reality content can be installed at a fixed location, and can also be lifted and used by the user, so that the user's motion information is extracted to adjust the augmented reality content to correspond to the user's motion. Needs to be. As a method of extracting the user's motion information, a gyro sensor may be used, or an acceleration sensor of two or more axes may be used, and it is preferable to use an acceleration sensor of three or more axes to recognize 3D motion. When using a user's smartphone, a gyro sensor or an acceleration sensor built into the smartphone can be used.

본 증강현실을 이용한 공연콘텐츠 제공방법은 해당 공연시간동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 예를 들면 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연콘텐츠 제공방법을 활용하여, 보다 몰입감 있고 현실감 있는 공연콘텐츠를 제공할 수 있을 것이다.The method for providing performance content using the augmented reality may be continuously provided during the performance time, or may be limitedly used in a specific scene as needed while performing a general performance. For example, in the case of directing a large-scale scene such as a war scene, there is a limitation in the space and manpower of the stage, so it is possible to provide a more immersive and realistic performance content by utilizing the method for providing performance content using this augmented reality.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시 예에 한정되지 않는다.The disclosed content is only an example, and can be variously changed by a person having ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the scope of protection of the disclosed content is specified above. It is not limited to the embodiment.

10 : 서버
11 : 사용자확인부
12 : 사용자위치확인부
13 : 콘텐츠저장부
20 : 단말기
21 : 디스플레이부
22 : 마커추출부
23 : 움직임정보추출부
24 : 현실이미지추출부
25 : 증강현실합성부
30 : 마커
31 : 제1마커
32 : 제2마커
10: Server
11: User identification
12: User location confirmation
13: content storage
20: terminal
21: display unit
22: marker extraction unit
23: Motion information extraction unit
24: reality image extraction unit
25: Augmented Reality Synthesis
30: marker
31: 1st marker
32: second marker

Claims (5)

서버와 단말기를 포함하는 증강현실을 이용한 공연콘텐츠 제공시스템에 있어서,
상기 서버는,
상기 단말기를 사용하는 사용자가 관객인지 확인하는 사용자확인부;
사용자의 좌석정보를 추출하는 사용자위치확인부; 및
공연에 사용되는 증강현실콘텐츠를 저장하는 콘텐츠저장부; 를 포함하고,
상기 단말기는,
공연장의 현실이미지를 추출하는 현실이미지추출부;
사용자의 움직임정보를 추출하는 움직임정보추출부;
상기 현실이미지와 상기 서버로부터 제공받은 상기 증강현실콘텐츠를 합성하되, 상기 사용자위치확인부에서 추출된 상기 사용자의 좌석정보에 따라 상기 증강현실콘텐츠의 크기 및 위치를 조정하고, 상기 움직임정보추출부에서 추출된 사용자의 움직임에 따라 증강현실콘텐츠의 크기 및 위치를 조정하여 합성하는 증강현실합성부; 및
상기 합성된 영상을 출력하는 디스플레이부;를 포함하는 것을 특징으로 하는 증강현실을 이용한 공연콘텐츠 제공시스템.
In the system for providing performance content using augmented reality including a server and a terminal,
The server,
A user identification unit that checks whether a user using the terminal is an audience;
A user location confirmation unit for extracting user's seat information; And
A content storage unit for storing augmented reality content used for performances; Including,
The terminal,
A reality image extraction unit that extracts the reality image of the venue;
A motion information extraction unit for extracting user's motion information;
Synthesizing the real image and the augmented reality content provided from the server, adjusting the size and position of the augmented reality content according to the user's seat information extracted from the user location confirmation unit, and the motion information extraction unit An augmented reality synthesis unit for synthesizing by adjusting the size and position of the augmented reality content according to the extracted user's movement; And
And a display unit for outputting the synthesized image.
청구항 1에 있어서,
무대의 고정된 위치에 설치되는 제1마커;를 포함하고,
상기 단말기에 상기 제1마커를 인식하는 마커추출부;를 포함하는 것을 특징으로 하는 증강현실을 이용한 공연콘텐츠 제공시스템.
The method according to claim 1,
It includes; a first marker installed in a fixed position on the stage,
Marker extraction unit for recognizing the first marker on the terminal; performance content providing system using augmented reality comprising a.
청구항 2에 있어서,
공연을 하는 배우 및 공연에 사용되는 물건 중 적어도 어느 하나에 설치되며, 상기 마커추출부에서 인식할 수 있는 제2마커;를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 공연콘텐츠 제공시스템.
The method according to claim 2,
A system for providing performance contents using augmented reality, further comprising: a second marker that is installed on at least one of an actor performing a performance and an object used in the performance, and is recognizable by the marker extraction unit.
사용자가 관객인지 여부를 확인하는 제 1 단계;
상기 사용자의 좌석정보를 취득하는 제 2 단계;
공연장의 현실이미지를 추출하는 제 3 단계;
증강현실콘텐츠를 수신하는 제 4 단계;
상기 사용자의 좌석정보에 따라 증강현실콘텐츠의 위치 및 크기를 조정하여, 상기 현실이미지와 합성하는 제 5 단계;
상기 합성된 영상을 디스플레이에 출력하는 제 6 단계; 및
사용자의 움직임 정보에 따라 상기 증강현실콘텐츠의 위치를 조정하는 제 7 단계;를 포함하는 증강현실을 이용한 공연콘텐츠 제공방법.
A first step of determining whether the user is an audience;
A second step of obtaining the user's seat information;
A third step of extracting the reality image of the venue;
A fourth step of receiving augmented reality content;
A fifth step of adjusting the location and size of the augmented reality content according to the user's seat information and synthesizing it with the real image;
A sixth step of outputting the synthesized image to a display; And
A seventh step of adjusting the location of the augmented reality content according to the user's motion information; Method for providing performance content using augmented reality comprising a.
청구항 4에 있어서,
상기 제 3 단계와 제 4 단계 사이에, 무대 및 배우 중 적어도 어느 하나에 설치되는 마커로부터 마커정보를 추출하는 제 3-1 단계;를 더 포함하고,
상기 제 5 단계는 상기 사용자의 좌석정보와 상기 마커정보에 따라 증강현실콘텐츠의 위치 및 크기를 조정하여, 상기 현실이미지와 합성하는 것을 특징으로 하는 증강현실을 이용한 공연콘텐츠 제공방법.
The method according to claim 4,
Further comprising a step 3-1 between the third step and the fourth step, extracting the marker information from the marker installed on at least one of the stage and the actor;
The fifth step is a method for providing performance content using augmented reality, characterized in that the position and size of the augmented reality content are adjusted according to the user's seat information and the marker information and synthesized with the real image.
KR1020180169499A 2018-12-26 2018-12-26 System for providing performance contents using augmented reality and Method for providing the same KR102143616B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169499A KR102143616B1 (en) 2018-12-26 2018-12-26 System for providing performance contents using augmented reality and Method for providing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169499A KR102143616B1 (en) 2018-12-26 2018-12-26 System for providing performance contents using augmented reality and Method for providing the same

Publications (2)

Publication Number Publication Date
KR20200079857A true KR20200079857A (en) 2020-07-06
KR102143616B1 KR102143616B1 (en) 2020-08-11

Family

ID=71571354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169499A KR102143616B1 (en) 2018-12-26 2018-12-26 System for providing performance contents using augmented reality and Method for providing the same

Country Status (1)

Country Link
KR (1) KR102143616B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102320214B1 (en) * 2020-09-07 2021-11-02 김소현 Apparatus and Method for Providing performance video Contents using augmented reality
WO2024136041A1 (en) * 2022-12-21 2024-06-27 (주)이머시브캐스트 Device and method for video production based on user movement records

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141319A (en) * 2013-05-31 2014-12-10 전자부품연구원 Augmented Reality Information Providing Apparatus and the Method
KR20150012322A (en) * 2013-07-10 2015-02-04 성균관대학교산학협력단 Apparatus and method for providing virtual reality of stage
KR101825600B1 (en) 2012-02-13 2018-02-05 주식회사 엔씨소프트 Apparatus and method of guiding designated seat based on augmented reality technique

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825600B1 (en) 2012-02-13 2018-02-05 주식회사 엔씨소프트 Apparatus and method of guiding designated seat based on augmented reality technique
KR20140141319A (en) * 2013-05-31 2014-12-10 전자부품연구원 Augmented Reality Information Providing Apparatus and the Method
KR20150012322A (en) * 2013-07-10 2015-02-04 성균관대학교산학협력단 Apparatus and method for providing virtual reality of stage

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102320214B1 (en) * 2020-09-07 2021-11-02 김소현 Apparatus and Method for Providing performance video Contents using augmented reality
WO2024136041A1 (en) * 2022-12-21 2024-06-27 (주)이머시브캐스트 Device and method for video production based on user movement records
KR20240098501A (en) * 2022-12-21 2024-06-28 (주)이머시브캐스트 Video production device and method based on user movement record

Also Published As

Publication number Publication date
KR102143616B1 (en) 2020-08-11

Similar Documents

Publication Publication Date Title
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
EP2613296B1 (en) Mixed reality display system, image providing server, display apparatus, and display program
JP5934368B2 (en) Portable device, virtual reality system and method
EP3166319A1 (en) Information processing device, information processing method, and program
EP2418621B1 (en) Apparatus and method for providing augmented reality information
CN110738737A (en) AR scene image processing method and device, electronic equipment and storage medium
WO2013035758A1 (en) Information display system, information display method, and storage medium
US9733896B2 (en) System, apparatus, and method for displaying virtual objects based on data received from another apparatus
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
CN105637529A (en) Image capture input and projection output
JP2011203984A (en) Navigation device, navigation image generation method, and program
CN111242704B (en) Method and electronic equipment for superposing live character images in real scene
CN106289263A (en) Indoor navigation method and device
US11334174B2 (en) Universal pointing and interacting device
KR102143616B1 (en) System for providing performance contents using augmented reality and Method for providing the same
US20200334396A1 (en) Method and system for providing mixed reality service
JP5664215B2 (en) Augmented reality display system, augmented reality display method used in the system, and augmented reality display program
KR101868855B1 (en) music content service providing method using augmented reality
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
WO2022176450A1 (en) Information processing device, information processing method, and program
US20200404163A1 (en) A System for Presenting and Identifying Markers of a Variable Geometrical Image
CN112581630B (en) User interaction method and system
KR20230122400A (en) Method of providing cultural content ar event using beacon
CN115004238A (en) Space recognition system, space recognition method, and information terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant