KR102483781B1 - Operating method of augmented reality glass for providing docent service - Google Patents

Operating method of augmented reality glass for providing docent service Download PDF

Info

Publication number
KR102483781B1
KR102483781B1 KR1020170173803A KR20170173803A KR102483781B1 KR 102483781 B1 KR102483781 B1 KR 102483781B1 KR 1020170173803 A KR1020170173803 A KR 1020170173803A KR 20170173803 A KR20170173803 A KR 20170173803A KR 102483781 B1 KR102483781 B1 KR 102483781B1
Authority
KR
South Korea
Prior art keywords
work
augmented reality
image
user
blurring
Prior art date
Application number
KR1020170173803A
Other languages
Korean (ko)
Other versions
KR20190072762A (en
Inventor
김지수
박순보
김태욱
곽성조
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020170173803A priority Critical patent/KR102483781B1/en
Publication of KR20190072762A publication Critical patent/KR20190072762A/en
Application granted granted Critical
Publication of KR102483781B1 publication Critical patent/KR102483781B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 증강현실 글래스의 동작 방법은, 홀로렌즈 카메라로부터 작품에 대한 영상을 수신하는 단계, 상기 작품에 대한 증강현실 레이어 이미지를 생성하는 단계, 사용자가 기준 시간 동안 상기 작품을 응시하는 지를 판별하는 단계, 및 상기 사용자가 상기 기준 시간 동안 상기 작품을 응시할 때, 상기 증강현실 레이어 이미지와 주변 이미지를 구분하는 단계를 포함할 수 있다.According to an embodiment of the present invention, an operating method of augmented reality glasses providing a user experience-based docent service includes receiving an image of a work from a hololens camera, generating an augmented reality layer image of the work, and a user It may include determining whether the user gazes at the work for a reference time period, and distinguishing the augmented reality layer image from surrounding images when the user gazes at the work for the reference time period.

Description

도슨트 서비스를 제공하는 증강 현실 글래스의 동작 방법{OPERATING METHOD OF AUGMENTED REALITY GLASS FOR PROVIDING DOCENT SERVICE}Operation method of augmented reality glasses providing docent service {OPERATING METHOD OF AUGMENTED REALITY GLASS FOR PROVIDING DOCENT SERVICE}

본 발명은 도슨트 서비스를 제공하는 증강 현실 글래스의 동작 방법에 관한 것이다.The present invention relates to a method of operating augmented reality glasses that provide a docent service.

증강 현실(augmented reality; AR)은 가상현실(virtual reality; VR)의 한 분야로 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 기존 미술관 전시에서 도슨트(Docent) 서비스는 제한된다. 정보(인구통계적 특성과 상황적 특성이 고려되어 있지 않거나, 사용자의 개별적 감성을 충족시킬 수 있는 시각적 예제나 다양한 해석 부재)만이 제공 되고 있는 현실이다. 기존의 도슨트 서비스 방식의 업그레이드 차원에서 미술작품의 정보를 관람자와 쉽게 전달할 수 있고, 공간적 제약성을 넘는 정보를 제공해줄 수 있는 AR(augmented reality) 글래스 기반의 인공지능 안내 시스템을 최초로 개발하여 점점 확대되고 있다.Augmented reality (AR) is a field of  virtual reality (VR), which is a  computer graphics technique that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment. In existing museum exhibitions, docent services are limited. It is a reality in which only information (demographic characteristics and situational characteristics are not considered, visual examples or various interpretations that can satisfy the individual emotions of users) is provided. In terms of upgrading the existing docent service method, it is the first to develop an AR (augmented reality) glass-based artificial intelligence guidance system that can easily convey art information to viewers and provide information that goes beyond spatial limitations. there is.

미국특허: US 9,599,821, 등록일: 2017년 03월 21일, 제목: Virtual reality system immersion in virtual space to consist with actual movement in actual space.US Patent: US 9,599,821, Registration Date: March 21, 2017, Title: Virtual reality system immersion in virtual space to consist with actual movement in actual space.

기존 미술관 전시에서 미술 작품 해설 서비스로 제공되는 인간 도슨트(docent), 오디오 가이드, 전자책 가이드 서비스는 일반적이고 제한된 정보만을 제공하는 단점이 존재한다. 이러한 단점을 극복할 수 있는 AR(증강현실) 기반의 사용자 감성 인지(AI) 도슨트 서비스를 제공하게 되면, 다수의 관람자가 시간적, 공간적 제약이 없이 미술작품에 관한 원하는 정보를 볼 수 있게 되어, 미술작품에 대한 새로운 경험을 할 수 있게 된다. 또한 AR 분야의 새로운 틈새시장을 개척할 수 있고 문화예술 산업의 경쟁력을 높일 수 있다.Human docents, audio guides, and e-book guide services provided as art commentary services in existing museum exhibitions have the disadvantage of providing only general and limited information. If AR (augmented reality)-based user emotion recognition (AI) docent service that can overcome these disadvantages is provided, a large number of viewers can view the desired information about art works without time and space constraints. You can have a new experience with your work. In addition, it can open up a new niche market in the AR field and enhance the competitiveness of the culture and arts industry.

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 증강현실 글래스의 동작 방법은: 홀로렌즈 카메라로부터 작품에 대한 영상을 수신하는 단계; 상기 작품에 대한 증강현실 레이어 이미지를 생성하는 단계; 사용자가 기준 시간 동안 상기 작품을 응시하는 지를 판별하는 단계; 및 상기 사용자가 상기 기준 시간 동안 상기 작품을 응시할 때, 상기 증강현실 레이어 이미지와 주변 이미지를 구분하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of operating an augmented reality glasses providing a docent service based on user experience includes: receiving an image of a work from a hololens camera; generating an augmented reality layer image for the work; determining whether the user gazes at the work for a reference period of time; and distinguishing the augmented reality layer image from surrounding images when the user gazes at the work during the reference time.

실시 예에 있어서, 작품 알고리즘 및 공간인식 알고리즘을 이용하여 감상 중인 상기 작품을 인식하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include recognizing the work being viewed using a work algorithm and a spatial recognition algorithm.

실시 예 있어서, 상기 주변 이미지를 구분하는 단계는, 상기 주변 이미지를 블러링 처리하는 단계를 포함할 수 있다.In an embodiment, the dividing of the surrounding image may include blurring the surrounding image.

실시 예에 있어서, 상기 주변을 블러링 처리하는 단계는, 상기 증강현실 레이어 이미지의 블러링을 조절하기 위한 슬라이더를 생성하는 단계; 및 상기 슬라이더를 위/아래로 움직이면서 블러링 값을 조절하는 단계를 더 포함할 수 있다.In an embodiment, the blurring of the surroundings may include generating a slider for adjusting the blurring of the augmented reality layer image; and adjusting the blurring value by moving the slider up/down.

실시 예에 있어서, 상기 주변을 블러링 처리하는 단계는, 상기 블러링 값에 따라 상기 증강현실 이미지에 블러링 농도를 조절하는 단계; 상기 조절된 증강현실 이미지와 상기 작품에 대한 홀로렌즈 카메라로부터 촬영된 동영상을 결합하는 단계; 및 상기 결합된 이미지를 상기 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the blurring of the surroundings may include adjusting a blurring density of the augmented reality image according to the blurring value; combining the adjusted augmented reality image with a video taken from a hololens camera for the work; and displaying the combined image to the user.

실시 예에 있어서, 몰입감을 증가시키는 단계를 더 포함할 수 있다.In an embodiment, a step of increasing immersion may be further included.

실시 예에 있어서, 상기 몰입감을 증가시키는 단계는, 상기 증강현실 레이어 이미지의 상기 조명 기능을 조절하기 위한 슬라이더를 생성하는 단계; 및 상기 슬라이더를 위/아래로 움직이면서 조명 값을 설정하는 단계를 포함할 수 있다.In an embodiment, the step of increasing the sense of immersion may include generating a slider for adjusting the lighting function of the augmented reality layer image; and setting an illumination value by moving the slider up/down.

실시 예에 있어서, 상기 몰입감을 증가시키는 단계는, 상기 조명 값에 따라 상기 증강현실 이미지의 조명을 조절하는 단계; 상기 조절된 증강현실 이미지와 상기 작품에 대한 홀로렌즈 카메라로부터 촬영된 동영상을 결합하는 단계; 및 상기 결합된 이미지를 상기 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the step of increasing the sense of immersion may include adjusting lighting of the augmented reality image according to the lighting value; combining the adjusted augmented reality image with a video taken from a hololens camera for the work; and displaying the combined image to the user.

실시 예에 있어서, 상기 작품의 일부를 선택 및 저장하는 단계를 더 포함할 수 있다.In an embodiment, the step of selecting and storing a part of the work may be further included.

실시 예에 있어서, 상기 작품의 일부를 선택 및 저장하는 단계는, 사용자의 손 제스처 기능에 의해 파악된 사각형의 시작 위치 및 끝위치를 판별함으로써 크로핑(cropping) 기능을 수행할 상기 작품의 일부를 선택하는 단계; 및 상기 크로핑 기능을 수행할 증강현실 레이어 이미지를 생성하는 단계를 포함할 수 있다.In an embodiment, the step of selecting and storing a part of the work may include determining a part of the work to perform a cropping function by determining the start and end positions of a rectangle identified by a user's hand gesture function. choosing; and generating an augmented reality layer image to perform the cropping function.

실시 예에 있어서, 상기 작품의 일부를 선택 및 저장하는 단계는, 상기 증강현실 레이어 이미지를 확대 시키는 단계; 및 상기 확대한 이미지를 저장하는 단계를 포함할 수 있다.In an embodiment, the selecting and storing a part of the work may include enlarging the augmented reality layer image; and storing the enlarged image.

실시 예에 있어서, 상기 확대한 이미지를 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include displaying the enlarged image to a user.

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 AR 글래스의 동작 방법은, 사용자의 작품에 대한 몰입감을 증대시키면서 작품의 일부를 선택 저장시킴으로써 사용자의 작품 감상에 대한 만족도를 효과를 극대화시킬 수 있다.According to an embodiment of the present invention, the method of operating AR glasses that provides a user experience-based docent service increases the user's sense of immersion in the work and maximizes the satisfaction of the user's appreciation of the work by selecting and storing a part of the work. can

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 사용자 경험 기반 AR 글래스(100)을 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 AR 글래스(100)의 사용자 사전 정보 동의 과정을 예시적으로 보여주는 도면이다.
도 3은 본 발명의 실시 예에 따른 AR 글래스(100)의 예외 상황 발생을 처리하는 과정을 예시적으로 보여주는 도면이다.
도 4는 본 발명의 실시 예에 따른 AR 글래스(100)의 대화형 감상 과정을 예시적으로 보여주는 도면이다.
도 5는 본 발명의 실시 예에 따른 AR 글래스(100)의 동작 방법을 예시적으로 보여주는 도면이다.
도 6은 도 5에 도시된 S110 단계를 좀 더 자세하게 설명하기 위한 도면이다.
도 7은 도 5에 도시된 S120 단계를 좀 더 자세하게 설명하기 위한 도면이다.
도 8은 도 5에 도시된 S130 단계를 좀 더 자세하게 설명하기 위한 도면이다.
The accompanying drawings are provided to aid understanding of the present embodiment, and provide examples along with detailed descriptions. However, the technical features of this embodiment are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to form a new embodiment.
1 is a diagram showing an AR glasses 100 based on user experience according to an embodiment of the present invention by way of example.
FIG. 2 is a diagram exemplarily showing a user prior information consent process of the AR glasses 100 according to an embodiment of the present invention.
3 is a diagram exemplarily illustrating a process of processing an occurrence of an exceptional situation in the AR glasses 100 according to an embodiment of the present invention.
4 is a diagram showing an interactive viewing process of the AR glasses 100 according to an embodiment of the present invention by way of example.
5 is a diagram exemplarily showing a method of operating the AR glasses 100 according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining step S110 shown in FIG. 5 in more detail.
FIG. 7 is a diagram for explaining step S120 shown in FIG. 5 in more detail.
FIG. 8 is a diagram for explaining step S130 shown in FIG. 5 in more detail.

아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.In the following, the content of the present invention will be described clearly and in detail to the extent that a person skilled in the art can easily implement the present invention using drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.Since the present invention can have various changes and various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific form disclosed, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.The terms may be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 혹은 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Other expressions describing the relationship between elements, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly. Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In this application, the terms "comprise" or "have" are intended to designate that there is an embodied feature, number, step, operation, component, part, or combination thereof, but one or more other features or numerals. However, it should be understood that it does not preclude the possibility of existence or addition of steps, operations, components, parts, or combinations thereof. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, they are not interpreted in an ideal or excessively formal meaning. .

본 발명의 실시 예에 따른 AR 글래스는 착용형 글래스 기반의 전시 콘텐츠 서비스, 전시물 감상 전용 제스처 인식 및 전시물 감상을 위한 개별적 감성 파악기술을 연동시키는 기술은 개발된 사례가 없음으로 기존의 방법에 비해서 기술적으로 뛰어나다. AR glass according to an embodiment of the present invention is technically superior to existing methods because there is no developed case of technology linking wearable glass-based exhibition content service, gesture recognition exclusively for viewing exhibits, and individual emotion recognition technology for viewing exhibits. excellent with

본 발명의 실시 예에 따른 사용자 경험 기반 AR 글래스는 차후 미술관 도슨트 서비스 이외에 몰입형 실감교육, 심리·재활치료, 테마파크 및 방송용 등 고부가가치 콘텐츠 생산이 가능할 것을 기대될 수 있다. 실내/외 전시에서 사용할 수 있도록 다양한 기술을 개발할 경우 새로운 부가가치의 창출과 글로벌 시장선점을 이룰 것으로 기대된다. AR 글래스 기반 최적화된 안내 서비스 개발확장으로 박물관, 과학관, STEAM, 관광산업 등 다양한 분야에 콘텐츠를 개발할 경우 새로운 부가가치의 창출과 글로벌 시장 선점을 이룰 것으로 예상된다.User experience-based AR glasses according to an embodiment of the present invention can be expected to be able to produce high value-added contents such as immersive sensory education, psychological/rehabilitation therapy, theme parks, and broadcasting in addition to museum docent service in the future. If various technologies are developed for use in indoor/outdoor exhibitions, it is expected to create new added value and preoccupy the global market. When developing contents in various fields such as museums, science museums, STEAM, and tourism industries by expanding the development of AR glass-based optimized guidance services, it is expected to create new added value and preoccupy the global market.

도 1은 본 발명의 실시 예에 따른 사용자 경험 기반 AR 글래스(100)을 예시적으로 보여주는 도면이다. 도 1을 참조하면, AR 글래스(1000는 적어도 하나의 프로세서(110), 적어도 하나의 메모리(120), 적어도 하나의 카메라(130), 적어도 하나의 센서(140), 및 디스플레이 장치(150)를 포함할 수 있다.1 is a diagram showing an AR glasses 100 based on user experience according to an embodiment of the present invention by way of example. Referring to FIG. 1 , AR glasses 1000 include at least one processor 110, at least one memory 120, at least one camera 130, at least one sensor 140, and a display device 150. can include

적어도 하나의 프로세서(110)는 AR 글래스(100)의 전반적인 동작을 제어하도록 구현될 수 있다. 실시 예에 있어서, 프로세서(110)는 외부와의 유/무선 통신을 제어할 수 있다. 예를 들어, 프로세서(110)는 어플리케이션 프로세서(application processor; AP), 통합 모뎀 어플리케이션 프로세서(ModAP) 등 일 수 있다. 통합 모뎀 어플리케이션 프로세서로써 프로세서(110)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 등을 포함할 수 있다. 하지만, 본 발명의 프로세서(110)의 기능이 여기에 제한되지 않는다고 이해되어야 할 것이다. AR 글래스(100)는 유무선 통신을 위한 별도의 프로세서를 더 구비할 수도 있다.At least one processor 110 may be implemented to control overall operations of the AR glasses 100. In an embodiment, the processor 110 may control wired/wireless communication with the outside. For example, the processor 110 may be an application processor (AP), integrated modem application processor (ModAP), or the like. As an integrated modem application processor, the processor 110 may include a broadcast reception module, a mobile communication module, a wireless Internet module, a short-distance communication module, and a location information module. However, it should be understood that the functionality of the processor 110 of the present invention is not limited thereto. The AR glasses 100 may further include a separate processor for wired/wireless communication.

적어도 하나의 메모리(120)는 휘발성 메모리 혹은 비휘발성 메모리로 구현될 수 있다. 실시 예에 있어서, 메모리(120)는 AR 글래스(100)의 처리 동작시 필요한 데이터를 임시로 저장하기 위한 버퍼 메모리를 포함할 수 있다. 예를 들어, 버퍼 메모리는 RAM(random access memory), DRAM(dynamic random access memory), SDRAM(synchronous DRAM), MRAM(Magnetoresistive random access memory), FeRAM(ferroelectric RAM), PRAM(phase change RAM; PCM) 중 적어도 하나를 포함할 수 있다. 또한, 실시 예에 있어서, 메모리(120)는 사용자 경험 기반의 도슨트 서비스(docent service)를 제공하는 프로그램(혹은, 알고리즘)을 저장하기 위한 저장 장치를 포함할 수 있다. 예를 들어, 저장 장치는 eMMC(embedded multimedia card), SSD(solid state drive), UFS(universal flash storage), NVDIMM(nonvolatile dual line memory module) 중 적어도 하나를 포함할 수 있다.At least one memory 120 may be implemented as a volatile memory or a non-volatile memory. In an embodiment, the memory 120 may include a buffer memory for temporarily storing data necessary for the processing operation of the AR glasses 100. For example, buffer memory includes random access memory (RAM), dynamic random access memory (DRAM), synchronous DRAM (SDRAM), magnetoresistive random access memory (MRAM), ferroelectric RAM (FeRAM), phase change RAM (PRAM) may include at least one of them. Also, according to an embodiment, the memory 120 may include a storage device for storing a program (or algorithm) for providing a user experience-based docent service. For example, the storage device may include at least one of an embedded multimedia card (eMMC), a solid state drive (SSD), a universal flash storage (UFS), and a nonvolatile dual line memory module (NVDIMM).

적어도 하나의 카메라(130)는 이미지/영상을 감지하도록 구현될 수 있다. 예를 들어, 카메라(130)는 At least one camera 130 may be implemented to detect images/videos. For example, camera 130 may

적어도 하나의 센서(140)는 사용자의 생체 정보를 감지하도록 구현될 수 있다.At least one sensor 140 may be implemented to detect user's biometric information.

디스플레이 장치(150)는 도슨트 서비스와 관련된 정보를 디스플레이 하도록 구현될 수 있다. 실시 예에 있어서, 디스플레이 장치(150)는 AR 글래스(100)의 안경 렌즈에 이미지를 디스플레이 하기 위한 투명 디스플레이 장치를 포함할 수 있다.The display device 150 may be implemented to display information related to the docent service. In an embodiment, the display device 150 may include a transparent display device for displaying images on the spectacle lenses of the AR glasses 100.

본 발명의 실시 예에 따른 AR 글래스(100)는, 사용자 경험 기반의 도슨트 서비스를 제공함으로써, 미술품 전시 효과를 극대화시킬 수 있다.The AR glasses 100 according to an embodiment of the present invention can maximize the effect of displaying artworks by providing a docent service based on user experience.

도 2는 본 발명의 실시 예에 따른 AR 글래스(100)의 사용자 사전 정보 동의 과정을 예시적으로 보여주는 도면이다. 도 2를 참조하면, 사용자가 AR 글래스(100)을 착용하면, 사용자 경험 기반 도슨트 서비스 사용 여부에 대한 선택 동작이 우선적으로 수행될 수 있다. 만일 사용자 기반 도슨트 서비스 제공이 선택된다면, 사용자의 미술 지식 수준에 대한 설정 동작이 수행될 수 있다. 이후, 사용자의 미술 지식 수준에 따른 맞춤형 도슨트 서비스가 제공될 수 있다. 또한, 관람 중인 미술품에 대하여 사용자의 인터렉티브 플레이(interactive play) 활동이 진행될 수 있다. 실시 예에 있어서, AR 글래스(100)는 카메라(130) 혹은 센서(140)을 통해 수집된 정보를 근거로 하여 사용자의 행동 패턴을 분석하여, 분석된 행동 패턴에 맞게 GUI(graphical user interface) 캐릭터를 발생하고, 사용자에 의해 GUI 캐릭터는 터치되거나 회전될 수 있다.2 is a diagram illustratively showing a user prior information consent process of the AR glasses 100 according to an embodiment of the present invention. Referring to FIG. 2 , when a user wears the AR glasses 100, a user experience-based selection operation on whether or not to use the docent service may be performed first. If user-based docent service provision is selected, a setting operation for the user's art knowledge level may be performed. Then, a docent service customized according to the user's art knowledge level may be provided. In addition, an interactive play activity of the user may be performed with respect to the artwork being viewed. In an embodiment, the AR glasses 100 analyzes a user's behavior pattern based on information collected through the camera 130 or the sensor 140, and generates a GUI (graphical user interface) character according to the analyzed behavior pattern. , and the GUI character can be touched or rotated by the user.

또한, 사용자에 의해 관람 중인 미술품의 이미지가 사용자의 저장 매체에 저장되거나, 사용자의 SNS(social networking service; facebook, instragram, kakaotalk 등)로 곧바로 업로딩 될 수 있다.In addition, the image of the artwork being viewed by the user may be stored in the user's storage medium or directly uploaded to the user's social networking service (facebook, instragram, kakaotalk, etc.).

반면에, 사용자 경험 기반 도슨트 서비스 제공이 선택되지 않는다면, 제한된 도슨트 서비스가 제공될 수 있다. 예를 들어, 제한된 도슨트 서비스는 관람 중인 작품에 대한 정보를 음성/문자/영상으로 제공하는 것을 포함할 수 있다. 예를 들어, 작품 감상 도중 GUI(graphical user interface) 캐릭터에게 손을 대는 순간에 작품 설명, 작가의 일대기 등이 텍스트 박스로 변신될 수 있다.On the other hand, if provision of the user experience-based docent service is not selected, a limited docent service may be provided. For example, the limited docent service may include providing information about a work being viewed in voice/text/video. For example, the description of the work, the biography of the artist, etc. can be transformed into a text box the moment you touch a GUI (graphical user interface) character while viewing the work.

도 3은 본 발명의 실시 예에 따른 AR 글래스(100)의 예외 상황 발생을 처리하는 과정을 예시적으로 보여주는 도면이다. 예외 상황으로 사용자가 AR 글래스(100)을 벗을 때가 있을 수 있다. 착용한 AR 글래스(100)이 불편해서 사용자가 벗었을 때, 벗기 전 상황부터 안내를 받게 될 수 있다. 이후, 사용자가 AR 글래스(100)을 다시 착용하게 되면, 데이터가 저장되고, 전시 동선이 재탐색 되고, 현재 위치가 안내 될 수 있다. 또한, 예외 상황으로 작품 감상 중 전화가 왔을 때, 블루투스를 통해 통화 가능할 수 있다.3 is a diagram exemplarily illustrating a process of processing an occurrence of an exceptional situation in the AR glasses 100 according to an embodiment of the present invention. As an exception, there may be times when the user takes off the AR glasses 100. When the worn AR glasses 100 are uncomfortable and the user takes them off, guidance may be received from the situation before taking them off. Then, when the user wears the AR glasses 100 again, the data is saved, the exhibition circulation is searched again, and the current location can be guided. In addition, in an exceptional situation, when a call is received while viewing a work, a call may be made through Bluetooth.

도 4는 본 발명의 실시 예에 따른 AR 글래스(100)의 대화형 감상 과정을 예시적으로 보여주는 도면이다. 실시 예에 있어서, 사용자는 '알려줘' 제스처를 통해 GUI 캐릭터에게 궁금한 내용을 물을 수 있다. 실시 예에 있어서, 사용자는 텍스트 박스를 이용하여 궁금한 내용을 질문할 수 도 있다.4 is a diagram showing an interactive viewing process of the AR glasses 100 according to an embodiment of the present invention by way of example. In an embodiment, the user may ask the GUI character questions through a 'tell me' gesture. In an embodiment, the user may ask questions using a text box.

실시 예에 있어서, 사용자는 '알려줘' 제스처를 통해, 관람 중인 작품에 관련된 정보를 제공 받을 수 있다. 이러한 정보는 예를 들어, 작가의 생애, 작가의 작품, 작가의 미술사적 위치, 자화성이 많은 이유, 최고가로 팔린 작품 등을 포함할 수 있다. 실시 예에 있어서, 사용자가 질문한 정보 외에도 이미지, 자료 영상이 함께 감상될 수 있다.In an embodiment, a user may be provided with information related to a work being watched through a 'tell me' gesture. Such information may include, for example, the life of the artist, the artist's work, the artist's art historical position, the reason for the high self-inflictedness, and the work sold at the highest price. In an embodiment, images and data videos may be viewed together in addition to information requested by the user.

도 5는 본 발명의 실시 예에 따른 AR 글래스(100)의 동작 방법을 예시적으로 보여주는 도면이다. 도 1 내지 도 5를 참조하면, AR 글래스(100)는 사용자 경험 기반의 도슨트 서비스를 제공하기 위한 동작을 아래와 같이 진행할 수 있다.5 is a diagram exemplarily showing a method of operating the AR glasses 100 according to an embodiment of the present invention. Referring to FIGS. 1 to 5 , the AR glasses 100 may perform an operation for providing a docent service based on user experience as follows.

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 증강현실 글래스의 동작 방법은, 홀로렌즈 카메라로부터 작품에 대한 영상을 수신하고, 작품에 대한 증강현실 레이어 이미지를 생성하고, 사용자가 기준 시간 동안 상기 작품을 응시하는 지를 판별하고, 및 사용자가 기준 시간 동안 상기 작품을 응시할 때, 증강현실 레이어 이미지와 주변 이미지를 구분하는 단계를 포함할 수 있다. 작품과 작품 주변을 구분하기 위한 이미지 처리 동작이 수행될 수 있다. 예를 들어, 사용자가 한 작품을 5초 이상 응시하면, 슈도 햅틱(pseudo haptic) 기술을 이용하여 주변이 블러링(blurring) 처리될 수 있다(S110). 이에 사용자가 작품에 집중할 수 있다. 한편, 주변의 블러링 처리가 반드시 슈도 햅틱 기술에 의해 수행될 필요가 없다고 이해되어야 할 것이다. An operating method of augmented reality glasses providing a user experience-based docent service according to an embodiment of the present invention includes receiving an image of a work from a hololens camera, generating an augmented reality layer image of the work, and providing a user with a reference time and determining whether the user gazes at the work for a reference period of time, and distinguishing between an augmented reality layer image and a surrounding image when the user gazes at the work for a reference time. An image processing operation may be performed to distinguish between the work and the surroundings of the work. For example, if a user gazes at a work for 5 seconds or more, the surrounding area may be blurred using pseudo haptic technology (S110). This allows the user to focus on the work. On the other hand, it should be understood that the peripheral blurring process does not necessarily need to be performed by pseudo haptic technology.

슈도 햅틱 기술 혹은 멀티 모달(multi-modal) 기술에 따른 조명 기능을 이용하여 선택한 작품에 대한 사용자의 몰입감이 증가될 수 있다(S120).The user's sense of immersion in the selected work may be increased by using a lighting function based on pseudo haptic technology or multi-modal technology (S120).

슈도 햅틱 기술 혹은 멀티 모달(multi-modal) 기술에 따른 작품 일부분 선택(눈 또는 손)을 하고, 선택된 작품의 이미지가 저장될 수 있다(S130). 선택한 작품은 손으로 드래그 및 확장(Drag + Expand)함으로써 감상 및 저장 가능하다.Part of the work (eye or hand) is selected according to the pseudo-haptic technology or multi-modal technology, and the image of the selected work can be saved (S130). Selected works can be viewed and saved by manually dragging and expanding (Drag + Expand).

본 발명에 따른 단계들 및/또는 동작들은 기술분야의 통상의 기술자에 의해 이해될 수 있는 것과 같이, 다른 순서로, 또는 병렬적으로, 또는 다른 에포크(epoch) 등을 위해 다른 실시 예들에서 동시에 일어날 수 있다.Steps and/or actions in accordance with the present invention may occur concurrently in different embodiments, in different orders, or in parallel, or for different epochs, etc., as would be understood by one skilled in the art. can

실시 예에 따라서는, 단계들 및/또는 동작들의 일부 또는 전부는 하나 이상의 비-일시적 컴퓨터-판독가능 매체에 저장된 명령, 프로그램, 상호작용 데이터 구조(interactive data structure), 클라이언트 및/또는 서버를 구동하는 하나 이상의 프로세서들을 사용하여 적어도 일부가 구현되거나 또는 수행될 수 있다. 하나 이상의 비-일시적 컴퓨터-판독가능 매체는 예시적으로 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합일 수 있다. 또한, 본 명세서에서 논의된 "모듈"의 기능은 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합으로 구현될 수 있다.In some embodiments, some or all of the steps and/or actions may include instructions, programs, interactive data structures, clients and/or servers stored on one or more non-transitory computer-readable media. At least some of them may be implemented or performed using one or more processors that do. The one or more non-transitory computer-readable media may illustratively be software, firmware, hardware, and/or any combination thereof. Additionally, the functions of a “module” discussed herein may be implemented in software, firmware, hardware, and/or any combination thereof.

본 발명의 실시 예들의 하나 이상의 동작들/단계들/모듈들을 구현/수행하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능 매체 및/또는 수단들은 ASICs(application-specific integrated circuits), 표준 집적 회로들, 마이크로 컨트롤러를 포함하는, 적절한 명령들을 수행하는 컨트롤러, 및/또는 임베디드 컨트롤러, FPGAs(field-programmable gate arrays), CPLDs(complex programmable logic devices), 및 그와 같은 것들을 포함할 수 있지만, 여기에 한정되지는 않는다. One or more non-transitory computer-readable media and/or means for implementing/performing one or more operations/steps/modules of the embodiments of the present invention may include application-specific integrated circuits (ASICs), standard integrated circuits, controllers that perform appropriate instructions, including microcontrollers, and/or embedded controllers, field-programmable gate arrays (FPGAs), complex programmable logic devices (CPLDs), and the like, but are not limited to does not

도 6은 도 5에 도시된 S110 단계를 좀 더 자세하게 설명하기 위한 도면이다. 도 6을 참조하면, 한 작품을 응시하면 주변을 Blur 처리 기능이 수행될 수 있다. 실행 방법은 작품을 정면으로 5초 이상 응시하면(gaze), 작품 주변을 Blur 처리 동작을 포함할 수 있다. 제약 조건으로는 작품과 관람자 사이 거리가 1.5m 이내에서만 실행(작품 응시 여부 판단) 가능하다. 실시 예에 있어서, 사용자의 작품 응시 여부 판단 동작은, 시선 추적 알고리즘에 의해 수행될 수 있다. 여기서 시선 추적 알고리즘은 사용자의 눈의 초점과 관련된 정보를 이용하여 작품의 응시 여부를 결정할 수 있다. 한편, 본 발명의 시선 추적 알고리즘이 여기에 제한되지 않는다고 이해되어야 할 것이다.FIG. 6 is a diagram for explaining step S110 shown in FIG. 5 in more detail. Referring to FIG. 6 , when one gazes at a work, a function of blurring the surroundings may be performed. The execution method may include a blur processing operation around the work when gaze at the work in front for 5 seconds or more. As a constraint condition, the distance between the work and the viewer is within 1.5m (determination of whether or not to stare at the work) is possible. In an embodiment, an operation of determining whether a user gazes at a work may be performed by a gaze tracking algorithm. Here, the gaze tracking algorithm may determine whether or not to gaze at the work by using information related to the focus of the user's eyes. Meanwhile, it should be understood that the gaze tracking algorithm of the present invention is not limited thereto.

실시 예에 있어서, 홀로렌즈 카메라로부터 들어오는 영상과 증강현실 이미지 레이어를 결합함으로써 Blur 처리 동작이 수행될 수 있다. 실시 예에 있어서, 효과 조절은 슬라이드바를 사용하여 단계를 포함할 수 있다. 아래와 같은 과정으로 주변에 대한 블러링 처리 동작이 수행될 수 있다. 사용자가 AR 글래스를 쓰고 원본 작품(2차원 그림, 조각품 등) 앞에 선다. AR 글래스 내의 작품인식 알고리즘과 공간인식 알고리즘에 의해서 현재 보고 있는 작품이 어떤 작품인지 인식된다. 3초 동안 눈앞의 작품(2차원 그림, 조각품 등)을 Gaze 한다. 이때 3초를 Gaze 하고 있는가가 판단된다. Blur 기능을 수행할 증강현실 레이어 이미지가 생성된다. 생성된 증강현실 레이어 이미지에 Blur를 조절할 수 있는 슬라이더가 화면 오른쪽에 생성된다. 관람자가 화면 오른쪽 허공에 떠 있는 슬라이더를 위 아래로 움직여서 Blur 값을 설정한다. 설정된 Blur 값이 시스템에 전달된다. 시스템에 전달된 Blur 값을 사용하여 증강현실 레이어 이미지에 Blur 농도가 조절된다. Blur 농도가 조절된 증강현실 레이어 이미지와 입력된 카메라 동영상(원본 작품)을 결합하여 관람자에게 디스플레이 된다. 조명 효과 기능을 더 수행하고 싶은 관람자는 3초 동안 눈앞의 작품(2차원 그림, 조각품 등)을 Gaze 한다. 이때 3초를 Gaze 하고 있는가를 판단하는 알고리즘이 작동한다. 조명기능을 수행하는 알고리즘이 실행된다. 이때 제어는 후술하는 조명 기능으로 옮겨간다. Blur 기능은 지금 보고 있는 작품(2차원 그림, 조각품 등)만 해당된다. Blur 기능 종료는 Blur 슬라이드 바를 두 번 터치하면 된다.In an embodiment, a blur processing operation may be performed by combining an image input from a hololens camera and an augmented reality image layer. In an embodiment, effect adjustment may include a step using a slide bar. Blurring operation for the surroundings may be performed through the following process. A user wears AR glasses and stands in front of an original work (2D painting, sculpture, etc.). The work you are currently viewing is recognized by the work recognition algorithm and space recognition algorithm in the AR glasses. Gaze at the work in front of you (2D painting, sculpture, etc.) for 3 seconds. At this time, it is judged whether the gaze is being performed for 3 seconds. An augmented reality layer image to perform the blur function is created. A slider that can adjust the blur is created on the right side of the screen in the created augmented reality layer image. The viewer sets the blur value by moving the slider floating in the air on the right side of the screen up and down. The set Blur value is transmitted to the system. The blur density is adjusted in the augmented reality layer image using the blur value transmitted to the system. The augmented reality layer image with adjusted blur density and the input camera video (original work) are combined and displayed to the viewer. Viewers who want to further perform the lighting effect function gaze at the work in front of them (2D painting, sculpture, etc.) for 3 seconds. At this time, the algorithm that determines whether you are gazed for 3 seconds works. Algorithms that perform lighting functions are executed. At this time, control is transferred to a lighting function to be described later. The Blur function only applies to works you are viewing (2D paintings, sculptures, etc.). To exit the Blur function, touch the Blur slide bar twice.

도 7은 도 5에 도시된 S120 단계를 좀 더 자세하게 설명하기 위한 도면이다. 도 7을 참조하면, 사용자는 조명 효과(light effect) 기능을 이용하여 선택 작품을 몰입감 있게 감상할 수 있다. 실행 방법은 Blur 처리 후 조명 기능을 실행하는 동작을 포함할 수 있다. 제약 조건은 작품과 관람자 사이 거리가 1.5m 이내에서만 실행(작품 응시 여부 판단)하는 것이다. 실시 예에 있어서, 홀로렌즈 카메라로부터 들어오는 영상과 증강현실 이미지 레이어를 결합하여 Blur 처리된다. 도 6에서 설명된 알고리즘에서 눈앞의 작품(2차원 그림, 조각품 등)에 Light effect 기능을 수행하고 싶은 관람자는 3초 동안 눈앞의 작품을 Gaze 한다. 이때 3초를 Gaze 하고 있는가를 판단한다. Light effect 기능을 수행할 증강현실 레이어 이미지가 생성된다. 생성된 증강현실 레이어 이미지에 Light effect 기능을 조절할 수 있는 슬라이더가 화면 아래에 생성된다. 관람자가 화면 아래 허공에 떠 있는 슬라이더를 위 아래로 움직여서 Light 값을 설정한다. 설정된 Light 값이 시스템에 전달된다. 시스템에 전달된 Light 값을 사용하여 증강현실 레이어 이미지에 Light effect가 조절된다. Light effect가 적용된 증강현실 레이어 이미지와 입력된 카메라 동영상(원본 작품)을 결합 하여 관람자에게 디스플레이 된다. Light effect 기능은 지금 보고 있는 작품(2차원 그림, 조각품 등)만 해당된다. Light effect 기능 종료는 Light effect 슬라이드 바를 두 번 터치하면 된다.FIG. 7 is a diagram for explaining step S120 shown in FIG. 5 in more detail. Referring to FIG. 7 , the user can enjoy the selected work in an immersive sense by using a light effect function. The execution method may include an operation of executing a lighting function after blur processing. The constraint condition is that the distance between the work and the viewer is within 1.5m (determination of whether or not to stare at the work). In an embodiment, blur processing is performed by combining an image input from a hololens camera and an augmented reality image layer. In the algorithm described in FIG. 6, a viewer who wants to perform a light effect function on the work in front of him (two-dimensional painting, sculpture, etc.) gazes at the work in front of him for 3 seconds. At this time, it is judged whether the gaze is being performed for 3 seconds. An augmented reality layer image to perform the light effect function is created. In the created augmented reality layer image, a slider that can adjust the light effect function is created at the bottom of the screen. The viewer sets the light value by moving the slider floating in the air below the screen up and down. The set Light value is transmitted to the system. The light effect is adjusted on the augmented reality layer image using the light value passed to the system. The augmented reality layer image with the light effect applied and the input camera video (original work) are combined and displayed to the viewer. The light effect function only applies to the work you are currently viewing (2D paintings, sculptures, etc.). To exit the light effect function, touch the light effect slide bar twice.

도 8은 도 5에 도시된 S130 단계를 좀 더 자세하게 설명하기 위한 도면이다. 도 8을 참조하면, 사용자는 작품 일부분 선택하여 손으로 Multi-Modal Expand 감상할 수 있다. 실행 방법은 양손과 눈을 사용하여 Crop 영역 지정하는 것을 포함할 수 있다. 제약 조건은 작품과 관람자 사이 거리가 1.3m 이내에서만 실행(작품 응시 여부 판단)하는 것이다. 실시 예에 있어서, 홀로렌즈 카메라로부터 들어오는 영상과 Crop 영역 이미지를 결합하여 결합된 이미지가 보여 줄 수 있다.FIG. 8 is a diagram for explaining step S130 shown in FIG. 5 in more detail. Referring to FIG. 8 , the user can select a part of the work and enjoy the Multi-Modal Expand by hand. The execution method may include designating the crop area using both hands and eyes. The constraint condition is that the distance between the work and the viewer is within 1.3m (determination of whether or not to stare at the work). In an embodiment, a combined image may be displayed by combining an image input from a hololens camera and a crop area image.

사용자는 AR 글래스를 쓰고 원본 작품(2차원 그림) 앞에 선다. AR 글래스 내의 작품인식 알고리즘과 공간인식 알고리즘에 의해서 현재 보고 있는 작품이 어떤 작품인지 인식한다. Crop 하고 싶은 작품 위치에 양손을 사용하여 위 왼쪽 사각 영역의 사각형 시작 좌표와 아래 오른쪽 사각 영역의 사각형 끝 좌표를 지정해준다. 이때 사각형 영역 내를 3초 동안 Gaze 한다. 제스처 인식기는 손의 제스처 모양을 판단하여 Crop을 수행하는가를 알아내면서 제스처 모양 내에 Gaze를 3초 동안 하고 있는 가를 판단한다. 손 제스처 기능에 의해서 파악된 사각형 시작위치와 끝위치를 파악하여 원본 작품 이미지에서 Crop 할 위치를 결정한다. Crop 기능을 수행할 증강현실 레이어 이미지가 생성된다. 증강현실 레이어 이미지에 보여줄 확대 이미지는 디지털 이미지로 저장되어 있다(4K급). 생성된 증강현실 레이어 이미지에 Crop 되어 확대된 디지털 이미지가 디스플레이 된다. Crop 기능은 지금 보고 있는 작품(2차원 그림)만 해당된다. Crop 기능 종료는 Crop 이미지를 터치하면 된다.The user wears AR glasses and stands in front of the original work (two-dimensional painting). The work you are currently viewing is recognized by the work recognition algorithm and space recognition algorithm in the AR glasses. Specify the coordinates of the start of the rectangle of the upper left rectangle and the end of the rectangle of the lower right rectangle using both hands at the location of the work you want to crop. At this time, gaze within the square area for 3 seconds. The gesture recognizer judges the shape of the gesture of the hand to find out whether or not to perform Crop, and determines whether Gaze is being held within the shape of the gesture for 3 seconds. Determine the position to be cropped from the original work image by grasping the start and end positions of the rectangle identified by the hand gesture function. An augmented reality layer image to perform the Crop function is created. The enlarged image to be shown on the augmented reality layer image is stored as a digital image (4K level). An enlarged digital image that is cropped to the created augmented reality layer image is displayed. The crop function only applies to the work you are currently viewing (2D picture). To end the Crop function, touch the Crop image.

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 AR 글래스(100)는 제스처 학습 기능, 작품 정보 제공 기능, 알려줘 기능, 지식레벨 수준 설정 기능, 예외 상황 처리 기능, 블러링 기능, 조명 기능, 인터렉티브 액티비티 기능, SND 업로드 및 저장 기능 등 다양한 기능을 포함할 수 있다.The AR glasses 100 providing a docent service based on user experience according to an embodiment of the present invention have a gesture learning function, a work information providing function, a tell me function, a knowledge level setting function, an exception handling function, a blurring function, and a lighting function. , interactive activity function, SND upload and storage function, etc. can be included.

본 발명의 실시 예에 따른 사용자 경험 기반 도슨트 서비스를 제공하는 증강현실 글래스의 동작 방법은: 사용자가 사전에 결정된 시간 이상으로 작품을 응시한다고 판단될 때, 상기 작품의 주변을 블러링 처리하는 단계; 조명 기능을 이용하여 상기 작품에 대한 몰입감을 증가시키는 단계; 및 상기 작품의 일부를 선택 및 저장하는 단계를 포함할 수 있다.According to an embodiment of the present invention, an operation method of augmented reality glasses for providing a docent service based on user experience includes: blurring the surroundings of the work when it is determined that the user gazes at the work for more than a predetermined period of time; Increasing a sense of immersion in the work by using a lighting function; and selecting and storing a part of the work.

실시 예에 있어서, 작품 알고리즘 및 공간인식 알고리즘을 이용하여 감상 중인 상기 작품을 인식하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include recognizing the work being viewed using a work algorithm and a spatial recognition algorithm.

실시 예에 있어서, 상기 주변을 블러링 처리하는 단계는, 블러링 기능을 수행할 증강현실 레이어 이미지를 생성하는 단계를 포함할 수 있다.In an embodiment, the blurring of the surroundings may include generating an augmented reality layer image to perform a blurring function.

실시 예에 있어서, 상기 주변을 블러링 처리하는 단계는, 상기 증강현실 레이어 이미지의 블러링을 조절하기 위한 슬라이더를 생성하는 단계; 및 상기 슬라이더를 위/아래로 움직이면서 블러링 값을 조절하는 단계를 더 포함할 수 있다.In an embodiment, the blurring of the surroundings may include generating a slider for adjusting the blurring of the augmented reality layer image; and adjusting the blurring value by moving the slider up/down.

실시 예에 있어서, 상기 주변을 블러링 처리하는 단계는, 상기 블러링 값에 따라 상기 증강현실 이미지에 블러링 농도를 조절하는 단계; 상기 조절된 증강현실 이미지와 상기 작품에 대한 홀로렌즈 카메라로부터 촬영된 동영상을 결합하는 단계; 및 상기 결합된 이미지를 상기 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the blurring of the surroundings may include adjusting a blurring density of the augmented reality image according to the blurring value; combining the adjusted augmented reality image with a video taken from a hololens camera for the work; and displaying the combined image to the user.

실시 예에 있어서, 상기 몰입감을 증가시키는 단계는, 상기 조명 기능을 수행할 증강현실 레이어 이미지를 생성하는 단계; 상기 증강현실 레이어 이미지의 상기 조명 기능을 조절하기 위한 슬라이더를 생성하는 단계; 및 상기 슬라이더를 위/아래로 움직이면서 조명 값을 설정하는 단계를 포함할 수 있다.In an embodiment, the step of increasing the sense of immersion may include generating an augmented reality layer image to perform the lighting function; generating a slider for adjusting the lighting function of the augmented reality layer image; and setting an illumination value by moving the slider up/down.

실시 예에 있어서, 상기 몰입감을 증가시키는 단계는, 상기 조명 값에 따라 상기 증강현실 이미지의 조명을 조절하는 단계; 상기 조절된 증강현실 이미지와 상기 작품에 대한 홀로렌즈 카메라로부터 촬영된 동영상을 결합하는 단계; 및 상기 결합된 이미지를 상기 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the step of increasing the sense of immersion may include adjusting lighting of the augmented reality image according to the lighting value; combining the adjusted augmented reality image with a video taken from a hololens camera for the work; and displaying the combined image to the user.

실시 예에 있어서, 상기 작품의 일부를 선택 및 저장하는 단계는, 사용자의 손 제스처 기능에 의해 파악된 사각형의 시작 위치 및 끝위치를 판별함으로써 크롭(crop) 기능을 수행할 상기 작품의 일부를 선택하는 단계; 및 상기 크롭 기능을 수행할 증강현실 레이어 이미지를 생성하는 단계를 포함할 수 있다.In an embodiment, the step of selecting and storing a part of the work may include selecting a part of the work to perform a cropping function by determining a starting position and an ending position of a rectangle grasped by a user's hand gesture function. doing; and generating an augmented reality layer image to perform the cropping function.

실시 예에 있어서, 상기 작품의 일부를 선택 및 저장하는 단계는, 상기 증강현실 레이어 이미지를 확대 시키는 단계; 및 상기 확대한 이미지를 저장하는 단계를 포함할 수 있다.In an embodiment, the selecting and storing a part of the work may include enlarging the augmented reality layer image; and storing the enlarged image.

실시 예에 있어서, 상기 확대한 이미지를 사용자에게 디스플레이 하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include displaying the enlarged image to a user.

본 발명의 실시 예에 따른 AR 글래스(100)의 동작 방법은 사용자별 개별적 감성 인지(artificial intelligence; AI) 도슨트 서비스(docent service)를 제공할 수 있다. 예를 들어, 미술작품 위에 다양한 정보(작가의 생애, 소속 예술사조, 제작배경 등을 관람자 선호도에 상응하게 제공)를 오버랩 시켜 감상할 수 있어, AR 글래스의 특성을 적극 고려한 최적화된 새로운 경험이 가능하다. AR 글래스를 이용한 증강현실 시장은 차세대 핵심 컴퓨팅 플랫폼으로 성장하고 있으며, 이와 관련된 전용 UX(user experience) 기술 개발 및 증강 현실 콘텐츠 및 서비스 수요가 급속도로 확장하고 있는 추세이다.The method of operating the AR glasses 100 according to an embodiment of the present invention may provide an artificial intelligence (AI) docent service for each user. For example, it is possible to enjoy a variety of information (providing the artist's life, affiliation art trend, production background, etc. according to the viewer's preference) on top of the work of art, allowing for a new, optimized experience that actively considers the characteristics of AR glasses. Do. The augmented reality market using AR glasses is growing as a next-generation core computing platform, and the demand for dedicated UX (user experience) technology development and augmented reality content and services related to it is rapidly expanding.

캐릭터를 이용한 증강현실 서비스는 그 노출빈도의 상승으로 상업적 활용도가 증가하고 있으며, 특히 미술관 등에서 관람자의 인구통계적 특성을 고려한 세분화된 캐릭터 제공은 공공전시 시설에서 그 필요성이 대두되어 왔다. 더욱이 과제 결과의 확산을 위해서는 현재까지 시도 되지 않았다는 장점이 있으며, 특히 AR 글래스를 활용한 기존 전시물 기반 인터랙션에 대한 연구는 미비하여, 기존 서비스를 대체 할 수 있는 AR 글래스 기반 서비스를 최초로 구현하는 것이 필요하다.The commercial use of augmented reality services using characters is increasing due to the increase in the frequency of exposure, and in particular, the need for providing subdivided characters considering the demographic characteristics of viewers in art galleries has emerged in public exhibition facilities. Moreover, there is an advantage that no attempt has been made to spread the results of the task so far. In particular, research on existing exhibition-based interactions using AR glasses is insufficient, so it is necessary to implement AR glasses-based services that can replace existing services for the first time. Do.

한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.On the other hand, the above-described content of the present invention is only specific embodiments for carrying out the invention. The present invention will include technical ideas, which are abstract and conceptual ideas that can be utilized as technology in the future, as well as concrete and practically usable means themselves.

100: AR 글래스
110: 프로세서
120: 메모리
130: 카메라
140: 센서
150: 디스플레이 장치
100: AR glass
110: processor
120: memory
130: camera
140: sensor
150: display device

Claims (12)

사용자 경험 기반 도슨트 서비스를 제공하는 증강현실 글래스의 동작 방법에 있어서:
홀로렌즈 카메라로부터 작품에 대한 영상을 수신하는 단계;
상기 작품에 대한 증강현실 레이어 이미지를 생성하는 단계;
사용자가 기준 시간 동안 상기 작품을 응시하는 지를 판별하는 단계;
상기 사용자가 상기 기준 시간 동안 상기 작품을 응시할 때, 상기 증강현실 레이어 이미지와 주변 이미지를 구분하는 단계; 및
몰입감을 증가시키는 단계;를 포함하고,
상기 주변 이미지를 구분하는 단계는, 상기 주변 이미지를 블러링 처리하는 단계를 포함하고,
상기 주변 이미지를 블러링 처리하는 단계는,
상기 증강현실 레이어 이미지의 블러링을 조절하기 위한 슬라이더를 생성하는 단계; 상기 블러링을 조절하기 위한 슬라이더를 움직이면서 블러링 값을 조절하는 단계; 및 상기 블러링 값에 따라 상기 증강현실 레이어 이미지에 블러링 농도를 조절하는 단계;를 포함하고,
상기 몰입감을 증가시키는 단계는,
상기 증강현실 레이어 이미지의 조명 기능을 조절하기 위한 슬라이더를 생성하는 단계; 상기 조명 기능을 조절하기 위한 슬라이더를 움직이면서 조명 값을 설정하는 단계; 및 상기 조명 값에 따라 상기 증강현실 레이어 이미지의 조명을 조절하는 단계;를 포함하고,
상기 블러링 농도와 상기 조명이 조절된 상기 증강현실 레이어 이미지와 상기 작품에 대한 홀로렌즈 카메라로부터 촬영된 동영상을 결합하는 단계;
및 상기 결합된 이미지를 상기 사용자에게 디스플레이 하는 단계;를 더 포함하는 것을 특징으로 하는 증강현실 글래스의 동작 방법.
In the operation method of augmented reality glasses providing docent service based on user experience:
Receiving an image of a work from a hololens camera;
generating an augmented reality layer image for the work;
determining whether the user gazes at the work for a reference period of time;
distinguishing the augmented reality layer image from surrounding images when the user gazes at the work during the reference time; and
Including; increasing the sense of immersion;
The step of distinguishing the surrounding image includes the step of blurring the surrounding image,
The step of blurring the surrounding image,
generating a slider for adjusting the blurring of the augmented reality layer image; adjusting a blurring value while moving a slider for adjusting the blurring; And adjusting the blurring density of the augmented reality layer image according to the blurring value;
The step of increasing the immersion is,
generating a slider for adjusting a lighting function of the augmented reality layer image; setting a lighting value while moving a slider for adjusting the lighting function; And adjusting the lighting of the augmented reality layer image according to the lighting value;
combining the augmented reality layer image of which the blurring density and the illumination are adjusted with a video taken from a hololens camera for the work;
and displaying the combined image to the user.
제 1 항에 있어서,
작품 알고리즘 및 공간인식 알고리즘을 이용하여 감상 중인 상기 작품을 인식하는 단계를 더 포함하는 방법.
According to claim 1,
The method further comprising the step of recognizing the work being viewed using a work algorithm and a spatial recognition algorithm.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 작품의 일부를 선택 및 저장하는 단계를 더 포함하는 방법.
According to claim 1,
The method further comprising selecting and saving a portion of the work.
제 9 항에 있어서,
상기 작품의 일부를 선택 및 저장하는 단계는,
사용자의 손 제스처 기능에 의해 파악된 사각형의 시작 위치 및 끝위치를 판별함으로써 크로핑(cropping) 기능을 수행할 상기 작품의 일부를 선택하는 단계; 및
상기 크로핑 기능을 수행할 증강현실 레이어 이미지를 생성하는 단계를 포함하는 방법.
According to claim 9,
The step of selecting and saving a part of the work,
selecting a part of the work to perform a cropping function by determining the start and end positions of the rectangle identified by the user's hand gesture function; and
And generating an augmented reality layer image to perform the cropping function.
제 10 항에 있어서,
상기 작품의 일부를 선택 및 저장하는 단계는,
상기 증강현실 레이어 이미지를 확대 시키는 단계; 및
상기 확대한 이미지를 저장하는 단계를 포함하는 방법.
According to claim 10,
The step of selecting and saving a part of the work,
enlarging the augmented reality layer image; and
and saving the enlarged image.
제 11 항에 있어서,
상기 확대한 이미지를 사용자에게 디스플레이 하는 단계를 더 포함하는 방법.
According to claim 11,
The method further comprising the step of displaying the enlarged image to a user.
KR1020170173803A 2017-12-18 2017-12-18 Operating method of augmented reality glass for providing docent service KR102483781B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170173803A KR102483781B1 (en) 2017-12-18 2017-12-18 Operating method of augmented reality glass for providing docent service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170173803A KR102483781B1 (en) 2017-12-18 2017-12-18 Operating method of augmented reality glass for providing docent service

Publications (2)

Publication Number Publication Date
KR20190072762A KR20190072762A (en) 2019-06-26
KR102483781B1 true KR102483781B1 (en) 2023-01-03

Family

ID=67105177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170173803A KR102483781B1 (en) 2017-12-18 2017-12-18 Operating method of augmented reality glass for providing docent service

Country Status (1)

Country Link
KR (1) KR102483781B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230135439A (en) * 2022-03-16 2023-09-25 삼성전자주식회사 An augmented reality device and a method for operating the same
KR102538255B1 (en) 2022-11-18 2023-05-31 주식회사 버킷트래블 Docent service platform system for non-face-to-face users method thererof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012257168A (en) * 2011-06-10 2012-12-27 Olympus Imaging Corp Imaging apparatus and imaging method
JP2017507400A (en) * 2013-12-31 2017-03-16 アイフルエンス, インコーポレイテッドEyefluence, Inc. System and method for media selection and editing by gaze

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467529B1 (en) * 2012-09-19 2014-12-05 유남구 Wearable system for providing information
KR20150041453A (en) * 2013-10-08 2015-04-16 엘지전자 주식회사 Wearable glass-type image display device and control method thereof
KR20160109443A (en) * 2015-03-11 2016-09-21 주식회사 비주얼캠프 Display apparatus using eye-tracking and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012257168A (en) * 2011-06-10 2012-12-27 Olympus Imaging Corp Imaging apparatus and imaging method
JP2017507400A (en) * 2013-12-31 2017-03-16 アイフルエンス, インコーポレイテッドEyefluence, Inc. System and method for media selection and editing by gaze

Also Published As

Publication number Publication date
KR20190072762A (en) 2019-06-26

Similar Documents

Publication Publication Date Title
CN110168618B (en) Augmented reality control system and method
US11650626B2 (en) Systems and methods for extending a keyboard to a surrounding surface using a wearable extended reality appliance
CN112219205B (en) Matching of content to a spatial 3D environment
US11809213B2 (en) Controlling duty cycle in wearable extended reality appliances
CN111133365A (en) Matching of content to a spatial 3D environment
Vainstein et al. Towards using mobile, head-worn displays in cultural heritage: user requirements and a research agenda
US20210150774A1 (en) Method, device, and system for delivering recommendations
US9766786B2 (en) Visual storytelling on a mobile media-consumption device
KR102483781B1 (en) Operating method of augmented reality glass for providing docent service
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334792A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20240185546A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
WO2023215637A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2024039885A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2024039887A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
CN118159935A (en) Apparatus, method and graphical user interface for content applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant