KR20220036016A - Solution for making of art gallery employing virtual reality - Google Patents

Solution for making of art gallery employing virtual reality Download PDF

Info

Publication number
KR20220036016A
KR20220036016A KR1020200118085A KR20200118085A KR20220036016A KR 20220036016 A KR20220036016 A KR 20220036016A KR 1020200118085 A KR1020200118085 A KR 1020200118085A KR 20200118085 A KR20200118085 A KR 20200118085A KR 20220036016 A KR20220036016 A KR 20220036016A
Authority
KR
South Korea
Prior art keywords
face
facial
virtual
gallery
virtual work
Prior art date
Application number
KR1020200118085A
Other languages
Korean (ko)
Other versions
KR102407493B1 (en
Inventor
박경민
Original Assignee
박경민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박경민 filed Critical 박경민
Priority to KR1020200118085A priority Critical patent/KR102407493B1/en
Publication of KR20220036016A publication Critical patent/KR20220036016A/en
Application granted granted Critical
Publication of KR102407493B1 publication Critical patent/KR102407493B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

실시예는 가상현실을 사용한 아트 갤러리 구현 솔루션에 관한 것이다.
구체적으로, 이러한 솔루션은 다수의 상이한 작가별로 가상작품영상을 입력받거나 직접 제작하여 공급하는 적어도 하나 이상의 작가 단말기를 포함한다. 그리고, 상기 솔루션은 상기 작가 단말기에 의해 공급된 각 가상작품영상을 통합적으로 제공받아 작가와 업체별로 중개해서 분류관리하고, 여러 위치에 분산된 각 업체별로 상이하게 분배하는 관리 정보처리장치를 포함한다.
또한, 상기 솔루션은 상기 관리 정보처리장치에 의해 분배된 가상작품영상을 개별적으로 수급받아 각 업체 내의 미리 등록된 디지털 액자에 가상현실화하여 전시하는 적어도 하나 이상의 업체 단말기를 포함하고 있다.
이러한 경우, 상기 관리 정보처리장치는 a) 다수의 상이한 작가의 가상작품영상이 적어도 하나씩 포함되도록 가상작품영상을 그룹화한다. 그리고, b) 각 가상작품영상이 업체에 판매되어 수익을 얻는다. c) 이때 상기 수익은 해당 가상작품영상의 작가에게 지급되는 제 1 수익, 상기 중개에 의해 지급되는 제 2 수익, 및 상기 제 1 수익과 제 2 수익을 제외한 제 3 수익으로 구분되고, 상기 제 3 수익에 대해서는 해당 작품그룹의 소속작가에게 배분하도록 정산하는 것을 특징으로 한다.
따라서, 이를 통해 미술 작품 등을 관람할 경우, 관람객의 작품에 대한 반응에 따라 그에 맞는 가상현실 영상을 제공함으로써, 미술 작품 등의 관람을 더욱 효과적으로 한다.
그리고, 이에 더하여 커피숍 또는 음식점 등에 가상현실 영상을 제공하고, 여기에서 이러한 VR을 디지털 액자를 통해 전시한다.
따라서, 이를 통해 더 나아가 VR 산업의 대부분이 게임산업에만 치중되어 있어서 경쟁이 치열한 반면 예술분야에서의 VR 등에 활용은 다소 저조함을 해결한다.
The embodiment relates to an art gallery implementation solution using virtual reality.
Specifically, this solution includes at least one artist terminal that receives virtual work videos from multiple different artists or directly produces and supplies them. In addition, the solution includes a management information processing device that receives each virtual work video provided by the artist terminal in an integrated manner, categorizes and manages each artist and company, and distributes them differently to each company distributed in various locations. .
In addition, the solution includes at least one company terminal that individually receives the virtual work images distributed by the management information processing device, virtualizes them, and displays them in a pre-registered digital picture frame within each company.
In this case, the management information processing device a) groups the virtual work images so that at least one virtual work image of a plurality of different authors is included. And, b) each virtual work video is sold to a company to earn profit. c) At this time, the profit is divided into the first profit paid to the author of the virtual work video, the second profit paid by the brokerage, and the third profit excluding the first profit and the second profit, and the third profit is The profit is settled to be distributed to the artists belonging to the relevant work group.
Therefore, when viewing a work of art, etc. through this, a virtual reality image corresponding to the viewer's reaction to the work is provided, making the viewing of the work of art more effective.
In addition, virtual reality images are provided to coffee shops or restaurants, where these VRs are displayed through digital frames.
Therefore, this further solves the problem that while most of the VR industry is focused only on the gaming industry and competition is fierce, the use of VR in the art field is somewhat low.

Description

가상현실을 사용한 아트 갤러리 구현 솔루션{Solution for making of art gallery employing virtual reality}Solution for making of art gallery employing virtual reality}

본 명세서에 개시된 내용은 가상현실을 적용한 기술분야에 관한 것으로, 보다 상세하게는 미술 작가 등이 가상작품영상을 제작하고, 미술관 또는, 커피숍이나 음식점 등에서 이러한 가상작품영상을 전시하는 기술에 관한 것이다.The content disclosed in this specification relates to the field of technology applying virtual reality, and more specifically, to technology in which artists, etc., produce virtual work videos and display these virtual work videos in art galleries, coffee shops, restaurants, etc. .

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and is not admitted to be prior art by inclusion in this section.

최근에, 인터넷 통신망과 컴퓨터의 보급이 급속도로 확산되면서 컴퓨터를 이용한 분야는 그 동안 기업전산화 작업에 머무르지 않고 전 산업 분야로 급속히 확대되어지고 있다. 이러한 정보혁명의 흐름은 문화적 측면에서도 예외일 수 없으며, 급기야는 방안에 앉아 인터넷을 통해서 세계 유수의 미술관을 온라인 방문하며 예술 작품을 감상 할 수 있게 되었다.Recently, as the spread of Internet communication networks and computers has rapidly spread, the field using computers is not limited to corporate computerization work but is rapidly expanding to all industrial fields. This trend of the information revolution is no exception in the cultural aspect, and it has become possible to visit the world's leading art museums online and enjoy works of art through the Internet while sitting in one's room.

한편, 최근 이슈화된 VR 산업은 이러한 예술분야에도 적용을 하기는 하나 대부분이 게임산업에만 치중되어 있어서 경쟁이 치열한 반면 예술분야에서의 VR 등에 활용은 다소 저조한 실정이다.Meanwhile, the VR industry, which has recently become an issue, is also applied to the art field, but most of it is focused only on the game industry, so competition is fierce, but the use of VR in the art field is somewhat low.

다른 한편으로, 일반적으로 전시 및 컨벤션 산업이 발전과, 다양한 문화적 욕구에 따라 많은 형태의 관람 전시회가 개최되고 있다. 일반적인 관람의 형태는 주최자의 의지대로 전시물이 단순 전시되고, 관람자는 수동적인 위치에서 관람하는 형식의 참여가 이루어졌다.On the other hand, as the exhibition and convention industry develops in general, many types of exhibitions are being held according to various cultural needs. The general form of viewing is that the exhibits are simply displayed according to the will of the organizer, and the audience participates in the form of viewing from a passive position.

그리고 다른 사람이 참관한 여러 형태의 전시 및 관람은 온라인 상에서 영상이나 음성 및 문자화된 정보 형태로 다양하게 공유되고 있고, 이는 일종의 간접 체험의 기능을 제공하고 있다.In addition, various types of exhibitions and viewings observed by others are shared online in various forms of video, audio, and written information, providing a type of indirect experience.

전시 컨벤션 산업의 발달과 다양한 문화적 욕구에 의해 다양한 산업 분야에서 다양한 형태의 컨텐츠를 보여주기 위하여 전시 및 박람회 등으로 개최하고 있다. 그리고 이를 이용하는 관람자는 개인적이 욕구의 충족은 물론이고 자녀 및 학생들의 참가 또는 체험형 학습을 목적으로 하여 그 이용이 날로 증가하고 있는 추세이다.Due to the development of the exhibition convention industry and diverse cultural needs, exhibitions and expositions are held to show various types of content in various industries. And the number of viewers who use it is increasing day by day, not only for the satisfaction of personal needs, but also for the participation or experiential learning of children and students.

그러나, 지금까지의 다양한 전시 박람회 등의 행사는 관람자가 단순히 피동적인 관람만 하는 방법으로 이루어졌다. 즉, 주최자가 전시 컨텐츠를 마음대로 진열하거나 전시 및 상영을 행하고, 관람자는 이를 일방적으로 수용하는 방법의 관람이었다.However, events such as various exhibitions and fairs so far have been conducted in such a way that viewers simply watch passively. In other words, it was a viewing method in which the organizer displayed or displayed and screened the exhibition content at will, and the viewer unilaterally accepted it.

따라서 전시 문화가 급격히 발전하고 있는 상황에서 관람자의 피동적인 관람 방법에서 벗어나, 관람자가 적극적으로 직접 컨텐츠를 생산하는 방식의 관람 방법이 시급히 요구되고 있다. 이는 관람자의 욕구 충족은 물론이고, 이에 의한 결과물인 UCC(User Created Contents)의 재활용에 따른 경제적 파급 효과가 막대하기 때문이다.Therefore, in a situation where exhibition culture is rapidly developing, there is an urgent need for a viewing method in which viewers actively produce content, moving away from the passive viewing method. This is because not only does it satisfy the needs of viewers, but the economic ripple effect from recycling the resulting UCC (User Created Contents) is enormous.

이러한 배경의 선행기술문헌은 아래의 특허문헌이다.The prior art document against this background is the patent document below.

(특허문헌 1) KR101317047 Y1(Patent Document 1) KR101317047 Y1

(특허문헌 2) KR101893431 Y1(Patent Document 2) KR101893431 Y1

참고적으로, 위의 특허문헌 1은 얼굴표정을 이용한 감정인식 기술에 관한 것이고, 특허문헌 2는 스마트기기를 이용한 체험형 미술관 운영 시스템에 관한 정도이다.For reference, Patent Document 1 above is about emotion recognition technology using facial expressions, and Patent Document 2 is about an experiential art museum operation system using smart devices.

개시된 내용은, VR 산업의 대부분이 게임산업에만 치중되어 있어서 경쟁이 치열한 반면 예술분야에서의 VR 등에 활용은 다소 저조함을 해결하고, 미술 작품 등의 관람을 더욱 효과적으로 하도록 하는 가상현실을 사용한 아트 갤러리 구현 솔루션을 제공하고자 한다.The disclosed content is an art gallery using virtual reality that solves the problem that most of the VR industry is focused only on the gaming industry, so competition is fierce, but the use of VR in the art field is somewhat low, and allows viewing of art works, etc. more effectively. We want to provide implementation solutions.

그리고, 부가적으로 그 솔루션이 다양한 형태로 개최되는 전시 컨벤션 행사를 단순 관람이 아니라, 관람자가 직접 컨텐츠를 생산하면서 체험하는 형태가 될 수 있도록 함으로써, 종래 피동적인 관람에서 탈피하여 관람자의 욕구 충족은 물론이고 생산된 UCC의 재활용에 따른 간접 경험의 컨텐츠 양산과, 이에 따른 경제적인 효과를 달성하도록 한다.Additionally, the solution allows visitors to experience exhibitions and convention events held in various forms by directly producing content rather than simply viewing them, thereby breaking away from the traditional passive viewing and satisfying the needs of viewers. Of course, we aim to mass produce indirect experiential content through recycling of the produced UCC and achieve economic effects accordingly.

또한, 상기 솔루션은 전술한 바대로 예술분야에서의 VR 등의 저조한 활용을 해결하여 커피숍 또는 음식점 등에 VR을 제공하고, 여기에서 이러한 VR을 디지털 액자를 통해 전시할 수 있도록 한다.In addition, as mentioned above, the solution solves the underutilization of VR in the art field and provides VR to coffee shops or restaurants, where such VR can be displayed through a digital picture frame.

실시예에 따른 가상현실을 사용한 아트 갤러리 구현 시스템은,An art gallery implementation system using virtual reality according to an embodiment is,

다수의 상이한 작가별로 가상작품영상 입력받거나 직접 제작하여 공급하는 작가 단말기;An artist terminal that receives virtual work videos from multiple different artists or produces and supplies them directly;

상기 작가 단말기에 의해 공급된 가상작품영상을 작가와 갤러리별로 중개하고, 상기 가상작품영상에 대해서는 다수의 상이한 감정 상태와 아트별로 매칭해서 상이한 갤러리별로 분배하는 관리 정보처리장치; 및a management information processing device that mediates the virtual work video supplied by the artist terminal for each artist and gallery, matches the virtual work video for each art with a plurality of different emotional states, and distributes the virtual work video to each different gallery; and

상기 관리 정보처리장치에 의해 분배된 가상작품영상을 각 갤러리에서 가상현실화하여 전시하는 갤러리 단말기; 를 포함하고 있으며,a gallery terminal that transforms the virtual work video distributed by the management information processing device into virtual reality and displays it in each gallery; It includes,

상기 갤러리 단말기는,The gallery terminal is,

a) 상기 다수의 상이한 아트마다 해당하는 작품의 관람시에, 관람객 얼굴을 연속적으로 인식하고,a) When viewing a work corresponding to each of the plurality of different works of art, the viewer's face is continuously recognized,

b) 상기 인식된 관람객 얼굴에서의 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출하고,b) detecting the visitor's emotional state matched to the change state of facial elements in the recognized visitor's face,

c) 상기 검출된 관람객 감정 상태별로 상이한 매칭된 가상작품영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출하며,c) A different matched virtual work video according to the detected emotional state of the visitor is produced around the corresponding work for each art,

상기 관람객 감정 상태를 검출하는 것(b))은,Detecting the emotional state of the visitor (b)),

b-1) 상기 인식된 관람객 얼굴에서 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하고,b-1) Extract metadata of each facial element from the recognized visitor's face for each facial element,

b-2) 상기 추출된 각 얼굴 요소의 메타데이터로부터 얼굴 요소의 크기와 위치를 추정하고,b-2) Estimate the size and location of the face element from the metadata of each extracted face element,

b-3) 상기 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출하며,b-3) Detecting the change state of facial elements by applying the size and position of each estimated facial element,

b-4) 상기 검출된 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출하는 것; 을 포함하는 것을 특징으로 한다.b-4) detecting a visitor emotional state matched to the detected facial element change state; It is characterized by including.

다른 실시예에 따른 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템은,A gallery implementation system using virtual work videos in a service company according to another embodiment,

다수의 상이한 작가별로 가상작품영상을 입력받거나 직접 제작하여 공급하는 적어도 하나 이상의 작가 단말기;At least one artist terminal that receives virtual work videos from multiple different artists or produces and supplies them directly;

상기 작가 단말기에 의해 공급된 각 가상작품영상을 통합적으로 제공받아 작가와 업체별로 중개해서 분류관리하고, 여러 위치에 분산된 각 업체별로 상이하게 분배하는 관리 정보처리장치; 및A management information processing device that receives each virtual work video provided by the artist terminal in an integrated manner, categorizes and manages them through mediation by artist and company, and distributes them differently to each company distributed in various locations; and

상기 관리 정보처리장치에 의해 분배된 가상작품영상을 개별적으로 수급받아 각 업체 내의 미리 등록된 디지털 액자에 가상현실화하여 전시하는 적어도 하나 이상의 업체 단말기; 를 포함하고 있으며,At least one company terminal that individually receives the virtual work images distributed by the management information processing device, virtualizes them and displays them in a pre-registered digital picture frame within each company; It includes,

상기 관리 정보처리장치는,The management information processing device,

a) 다수의 상이한 작가의 가상작품영상이 적어도 하나씩 포함되도록 가상작품영상을 그룹화하고,a) Group virtual work videos to include at least one virtual work video from multiple different artists,

b) 각 가상작품영상이 업체에 판매되어 수익을 얻고, 및b) Each virtual work video is sold to a company to earn profit, and

c) 상기 수익은 해당 가상작품영상의 작가에게 지급되는 제 1 수익, 상기 중개에 의해 지급되는 제 2 수익, 및 상기 제 1 수익과 제 2 수익을 제외한 제 3 수익으로 구분되고, 상기 제 3 수익에 대해서는 해당 작품그룹의 소속작가에게 배분하도록 정산하는 것을 특징으로 한다.c) The profit is divided into the first profit paid to the author of the virtual work video, the second profit paid by the brokerage, and the third profit excluding the first profit and the second profit, and the third profit It is characterized by settlement for distribution to the artists belonging to the relevant work group.

실시예들에 의하면, 미술 작품 등을 관람할 경우, 관람객의 작품에 대한 반응에 따라 그에 맞는 가상현실 영상을 제공함으로써, 미술 작품 등의 관람을 더욱 효과적으로 한다.According to embodiments, when viewing a work of art, etc., a virtual reality image corresponding to the viewer's reaction to the work is provided, making the viewing of the work of art more effective.

그리고, 이에 더하여 커피숍 또는 음식점 등에 가상현실 영상을 제공하고, 여기에서 이러한 VR을 디지털 액자를 통해 전시한다.In addition, virtual reality images are provided to coffee shops or restaurants, where these VRs are displayed through digital frames.

따라서, 이를 통해 더 나아가 VR 산업의 대부분이 게임산업에만 치중되어 있어서 경쟁이 치열한 반면 예술분야에서의 VR 등에 활용은 다소 저조함을 해결한다.Therefore, this further solves the problem that while most of the VR industry is focused only on the gaming industry and competition is fierce, the use of VR in the art field is somewhat low.

그리고, 이에 청년예술가들의 과학적 지원을 통해, 디지털시대 디지털 기술기반의 디지털아트 전시를 통해 예술과학융합문화를 쉽게 접할 수 있는 사회적 분위기를 조성한다.And, through scientific support for young artists, we create a social atmosphere in which art and science convergence culture can be easily accessed through digital art exhibitions based on digital technology in the digital era.

또한, 다양한 과학융합 분야 발굴을 통해 디지털문화 컨텐츠 활성화 및 융합컨텐츠 일자리를 창출한다.In addition, we will revitalize digital cultural content and create convergence content jobs by discovering various fields of scientific convergence.

그리고, 또한 VR 아트 전시 체험을 통해 디지털유목민으로 정의되는 청년들에게 디지털과 인간의 상호적 관계에 대한 융합적 사고를 증진한다.Additionally, through the VR art exhibition experience, convergent thinking about the interactive relationship between digital and humans is promoted among young people who are defined as digital nomads.

이에 더하여, 다양한 관람에 있어 관람자가 직접 참여하여 컨텐츠를 스스로 제작함으로써, 단순 관람이 아니라 실질적인 체험형 관람이 되어 직접 경험을 극대화할 수 있다. 그리고 전시 등의 주최측에서는 실질적인 관람자의 경험치를 높임으로써, 전시 홍보의 효과를 극대화시킬 수 있다. 또한 최종 생성된 UCC는 제3자를 위한 간접 경험 컨텐츠로의 활용이 가능하여 경제적인 효과를 가진다.In addition, in various viewings, viewers can participate directly and create their own content, thereby maximizing the direct experience by making it a practical experiential viewing rather than a simple viewing. And organizers of exhibitions can maximize the effectiveness of exhibition promotion by increasing the actual experience of viewers. Additionally, the final generated UCC can be used as indirect experience content for third parties, which has an economic effect.

도 1은 일실시예에 따른 가상현실을 사용한 아트 갤러리 구현 방법이 적용된 시스템을 개략적으로 도시한 도면
도 2는 도 1의 시스템에 적용된 전시회 서비스 제공 정보처리장치의 구성을 도시한 블록도
도 3a는 일실시예에 따른 가상현실을 사용한 아트 갤러리 구현 방법을 순서대로 도시한 플로우 차트
도 3b는 도 3a의 구현 방법에 적용된 3D 공간과 모델을 보여주는 도면
도 4는 다른 실시예에 따른 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템이 적용된 개념도
도 5는 도 4에서 설명한 시스템을 전체적으로 도시한 도면
1 is a diagram schematically showing a system to which a method for implementing an art gallery using virtual reality according to an embodiment is applied.
Figure 2 is a block diagram showing the configuration of an information processing device for providing exhibition services applied to the system of Figure 1.
FIG. 3A is a flow chart sequentially showing a method of implementing an art gallery using virtual reality according to an embodiment.
Figure 3b is a diagram showing the 3D space and model applied to the implementation method of Figure 3a
Figure 4 is a conceptual diagram of a gallery implementation system using virtual work videos in a service company according to another embodiment.
Figure 5 is a diagram illustrating the system described in Figure 4 as a whole.

도 1은 일실시예에 따른 가상현실을 사용한 아트 갤러리 구현 시스템을 개략적으로 설명하기 위한 도면이다.Figure 1 is a diagram schematically illustrating an art gallery implementation system using virtual reality according to an embodiment.

도 1에 도시된 바와 같이, 일실시예에 따른 시스템은 우선적으로 다양한 미술인들이 VR컨텐츠를 직접 제작하고, 이를 갤러리 등을 통해 여러 형태로 제공하고, 각 VR컨텐츠는 라이센스화하여 수익을 창출하는 사업모델과 관련된다.As shown in Figure 1, the system according to one embodiment is a business in which various artists directly produce VR content, provide it in various forms through galleries, etc., and license each VR content to generate profit. It is related to the model.

이러한 경우, 상기 VR컨텐츠는 예를 들어 아래와 같이 제작된다.In this case, the VR content is produced as follows, for example.

즉, 상기 VR컨텐츠는 미술인들이 직접 그린 그림에는 의미가 있으나 그 이상의 가치를 부여할 필요성이 있기에 요구된 것이다.In other words, the VR content is required because there is a need to give more value than the paintings drawn by artists themselves.

예컨대, VR(가상현실)과, AR(증강현실) 기술을 아트 컨텐츠 일예로서, 트릭아트 컨텐츠에 접목하여, HMD기기 등을 통하여 감상하도록 해서 동적이면서도 다이나믹한 표현이 가능하도록 한다. 또는, 미술인들이 직접 VR컨텐츠 저작도구를 사용하여 VR컨텐츠를 그리기도 한다.For example, VR (virtual reality) and AR (augmented reality) technologies, as examples of art content, are combined with trick art content to enable dynamic and dynamic expression by viewing it through HMD devices. Alternatively, artists may directly draw VR content using VR content authoring tools.

그래서, 일반 사람들은 현재 그림과 계산된 좌표에 3D 영상이 교합되어서 새로운 트릭아트컨텐츠 등을 통해 증강현실을 경험할 수 있도록 한다. So, ordinary people can experience augmented reality through new trick art content by combining 3D images with the current picture and calculated coordinates.

이러한 VR컨텐츠를 사용하는 모델은 예를 들어, 관람객이 갤러리 내의 미술작품 앞에 서면, 그 관람자의 얼굴을 인식하고 감정상태를 파악하여, 그에 어울리는 가상현실 영상을 연출하는 것이다.A model that uses such VR content is, for example, when a viewer stands in front of a work of art in a gallery, the viewer's face is recognized, their emotional state is identified, and a virtual reality image matching the viewer is produced.

그리고, 일실시예의 시스템은 이러한 가상현실 영상을 사용하여 영화 등의 컨텐츠를 제작한다. 이러한 경우, 상기 영화는 단순한 미술관의 수동적인 관람에서 나아가 체험형 컨텐츠로서 제공된다.And, the system of one embodiment produces content such as a movie using these virtual reality images. In this case, the movie is provided as experiential content beyond a simple passive viewing in an art museum.

이를 위해, 상기 시스템은 예를 들어 작가 단말기와, 관리 정보처리장치 및 갤러리 단말기를 포함한다.For this purpose, the system includes, for example, an artist terminal, a management information processing device, and a gallery terminal.

이러한 경우, 상기 작가 단말기는 다수의 상이한 작가별로 가상작품영상 입력받거나 직접 제작하여 공급하는 것이다.In this case, the artist terminal receives virtual work videos for each different artist or directly produces and supplies them.

그리고, 상기 관리 정보처리장치는 상기 작가 단말기에 의해 공급된 가상작품영상을 작가와 갤러리별로 중개하고, 상기 가상작품영상에 대해서는 다수의 상이한 감정 상태와 아트별로 매칭해서 상이한 갤러리별로 분배하는 것이다.In addition, the management information processing device mediates the virtual work video supplied by the artist terminal for each artist and gallery, and distributes the virtual work video to each different gallery by matching a number of different emotional states and art.

또한, 상기 갤러리 단말기는 상기 관리 정보처리장치에 의해 분배된 가상작품영상을 각 갤러리에서 가상현실화하여 전시한다.Additionally, the gallery terminal transforms the virtual work video distributed by the management information processing device into virtual reality in each gallery and displays it.

실질적인 예로는, 상기 관리 정보처리장치는 사용자 단말(100)과, 전시회 서비스 제공 정보처리장치(300), CCTV(400), 리더기(500), 출력장치(600), RFID 태그(700), 안내로봇(800), 및 비콘(900)을 포함한다.As a practical example, the management information processing device includes a user terminal 100, an exhibition service provision information processing device 300, a CCTV 400, a reader 500, an output device 600, an RFID tag 700, and a guide. Includes a robot 800 and a beacon 900.

도 1은 이러한 관리 정보처리장치를 보여주는 도면이다.Figure 1 is a diagram showing such a management information processing device.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 사용자 단말(100)은 네트워크(200)를 통하여 전시회 서비스 제공 정보처리장치(300)와 연결된다.At this time, each component of FIG. 1 is generally connected through a network (network, 200). For example, as shown in FIG. 1, the user terminal 100 is connected to the exhibition service providing information processing device 300 through the network 200.

그리고, 전시회 서비스 제공 정보처리장치(300)는, 네트워크(200)를 통하여 사용자 단말(100), CCTV(400), 리더기(500), 출력장치(600), RFID 태그(700), 안내로봇(800) 및 비콘(900)와 연결된다.In addition, the exhibition service provision information processing device 300 uses the user terminal 100, CCTV 400, reader 500, output device 600, RFID tag 700, and guide robot ( 800) and beacon 900.

또한, CCTV(400)는, 네트워크(200)를 통하여 전시회 서비스 제공 정보처리장치(300)와 연결되고, 리더기(500)도 네트워크(200)를 통하여 전시회 서비스 제공 서버(300)와 연결된다. 또한, 출력장치(600), RFID 태그(700), 안내로봇(800) 및 비콘(900) 또한 네트워크(200)를 통하여 전시회 서비스 제공 정보처리장치(300)와 연결될 수 있다.In addition, the CCTV 400 is connected to the exhibition service providing information processing device 300 through the network 200, and the reader 500 is also connected to the exhibition service providing server 300 through the network 200. Additionally, the output device 600, RFID tag 700, guide robot 800, and beacon 900 may also be connected to the exhibition service providing information processing device 300 through the network 200.

여기에서, 네트워크는 복수의 단말 및 정보처리장치들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE 네트워크, 5GPP(5rd Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷, LAN, Wireless LAN, WAN, PAN, 블루투스 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure that allows information exchange between each node, such as a plurality of terminals and information processing devices. Examples of such networks include RF, 3rd Generation Partnership Project (3GPP) network, LTE network, It includes 5GPP (5rd Generation Partnership Project) network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN, Wireless LAN, WAN, PAN, Bluetooth network, NFC network, satellite broadcasting network, analog broadcasting network, DMB network, etc. It is not limited to this.

보다 상세하게는, 상기 사용자 단말(100)은 예를 들어, 전시회 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 전시회를 관람하는 관람객의 단말이다. 그리고, 상기 사용자 단말(100)은 사용자 단말(100)의 GPS를 포함한 위치 데이터를 전시회 서비스 제공 정보처리장치(300)로 전송하고, 이에 대응하는 안내 멘트, 텍스트, 이미지, 동영상 등을 포함하는 컨텐츠를 출력하는 단말이다. 또한, 다른 예로서 사용자 단말(100)은 전시회 서비스 제공 정보처리장치(300)부터 실시간으로 스트리밍되는 AR 컨텐츠 또는 VR 컨텐츠를 직접 화면에 출력하거나 오버레이하는 단말이다. 또한, 사용자 단말(100)은 전시회 서비스 제공 정보처리장치(300)로 관람객의 정보를 제공하고, 이에 대응하는 안내 컨텐츠를 맞춤형으로 수신하여 출력하는 단말일 수 있다.More specifically, the user terminal 100 is, for example, a terminal of a visitor viewing an exhibition using an exhibition service-related web page, app page, program, or application. In addition, the user terminal 100 transmits location data including GPS of the user terminal 100 to the exhibition service providing information processing device 300, and provides content including guidance comments, text, images, videos, etc. corresponding thereto. It is a terminal that outputs. Additionally, as another example, the user terminal 100 is a terminal that directly outputs or overlays AR content or VR content streamed in real time from the exhibition service providing information processing device 300 on the screen. Additionally, the user terminal 100 may be a terminal that provides visitor information to the exhibition service provision information processing device 300 and receives and outputs customized guidance content corresponding thereto.

여기서, 사용자 단말(100)은 네트워크를 통하여 원격지의 정보처리장치나 단말에 접속할 수 있는 컴퓨터로 구현된다. 이때, 상기 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저가 탑재된 노트북, 데스크톱, 랩톱(Laptop) 등을 포함할 수 있다. 그리고, 사용자 단말(100)은 네트워크를 통해 원격지의 정보처리장치나 단말에 접속할 수 있는 단말로 구현된다. 또한, 사용자 단말(100)은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS, GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA, IMT(International Mobile Telecommunication)-2000, CDMA-2000, W-CDMA, Wibro 단말, 스마트폰, 스마트 패드(smartpad), 타블렛 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the user terminal 100 is implemented as a computer that can connect to a remote information processing device or terminal through a network. At this time, the computer may include, for example, a laptop, desktop, laptop, etc. equipped with a navigation system and a web browser. Additionally, the user terminal 100 is implemented as a terminal that can connect to a remote information processing device or terminal through a network. In addition, the user terminal 100 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, PCS, GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), Includes all types of handheld wireless communication devices such as PDA, IMT (International Mobile Telecommunication)-2000, CDMA-2000, W-CDMA, Wibro terminal, smartphone, smartpad, tablet PC, etc. can do.

상기 전시회 서비스 제공 정보처리장치(300)는 전시회 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 협의의 서버이다. 그리고, 상기 전시회 서비스 제공 정보처리장치(300)는 사용자 단말(100), CCTV(400), 리더기(500), 출력장치(600), RFID 태그(700), 안내로봇(800) 및 비콘(900)으로부터 출력되는 모니터링 및 감시하고, 이에 대응하는 제어 신호를 전송하여 각 구성요소들을 제어한다. 또한, 전시회 서비스 제공 정보처리장치(300)는 사용자 단말(100)로부터 수집되는 정보를 분석하고, 분석 결과에 대응하는 컨텐츠나 제어 신호를 전송한다. 그리고, 상기 전시회 서비스 제공 정보처리장치(300)는 관람자의 경로 안내를 위한 점등제어, 전시장에 배치된 적어도 하나의 부스 안내, 전시장 관리, 도난 방지 및 전시용 조명 제어를 실시한다. 또는, 상기 전시회 서비스 제공 정보처리장치(300)는 사용자 단말(100)의 위치를 GPS, RFID 태그 좌표, 비콘 신호 등을 통하여 수집한 후, 사용자 단말(100)로 전시안내 컨텐츠를 제공한다. 또한, 전시회 서비스 제공 정보처리장치(300)는 안내로봇(800)의 이동제어, 위치제어 및 안내제어를 모니터링받고, 오류가 발생한 경우 안내로봇(800)으로 회수 경로를 제공함으로써 관리자가 오류를 인지하고 안내로봇(800)의 오류를 고치도록 한다. 그리고, 전시회 서비스 제공 정보처리장치(300)는 CCTV(400)로부터 실시간으로 스트리밍된 적어도 하나의 프레임을 포함하는 영상을 분석하고, 분석된 영상과 기 저장된 이미지가 일치하는 경우 객체주적을 제어한다. 또한, 전시회 서비스 제공 정보처리장치(300)는 안내로봇(800)으로 입력된 질의를 수집하고, 질의가 수집된 영역에 위치한 적어도 하나의 부스 관리 단말(미도시)로 실시간으로 전송함으로써 질의에 대한 답변을 수집하도록 한다.The exhibition service providing information processing device 300 is a server that provides exhibition service web pages, app pages, programs, or applications. In addition, the exhibition service providing information processing device 300 includes a user terminal 100, CCTV 400, reader 500, output device 600, RFID tag 700, guidance robot 800, and beacon 900. ) monitors and supervises the output from ) and controls each component by transmitting the corresponding control signal. Additionally, the exhibition service provision information processing device 300 analyzes information collected from the user terminal 100 and transmits content or control signals corresponding to the analysis results. In addition, the exhibition service providing information processing device 300 performs lighting control for route guidance of viewers, guidance on at least one booth arranged in the exhibition hall, exhibition hall management, theft prevention, and exhibition lighting control. Alternatively, the exhibition service providing information processing device 300 collects the location of the user terminal 100 through GPS, RFID tag coordinates, beacon signals, etc., and then provides exhibition guide content to the user terminal 100. In addition, the exhibition service provision information processing device 300 monitors the movement control, position control, and guidance control of the guidance robot 800, and provides a recovery path to the guidance robot 800 when an error occurs, so that the manager recognizes the error. and correct the error of the guidance robot (800). In addition, the exhibition service providing information processing device 300 analyzes an image containing at least one frame streamed in real time from the CCTV 400, and controls object tracking when the analyzed image matches the previously stored image. In addition, the exhibition service provision information processing device 300 collects the inquiries entered by the guidance robot 800 and transmits them in real time to at least one booth management terminal (not shown) located in the area where the inquiries were collected. Collect answers.

여기서, 전시회 서비스 제공 정보처리장치(300)는 네트워크를 통하여 원격지의 정보처리장치나 단말에 접속할 수 있는 컴퓨터로 구현된다. 상기 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저가 탑재된 노트북, 데스크톱, 랩톱 등을 포함할 수 있다.Here, the exhibition service providing information processing device 300 is implemented as a computer that can connect to a remote information processing device or terminal through a network. The computer may include, for example, a laptop, desktop, or laptop equipped with a navigation system and a web browser.

도 2는 도 1의 관리 정보처리장치에 적용된 전시회 서비스 제공 정보처리장치의 구성을 도시한 블록도이다.FIG. 2 is a block diagram showing the configuration of an exhibition service providing information processing device applied to the management information processing device of FIG. 1.

도 2에 도시된 바와 같이, 일실시예에 따른 전시회 서비스 제공 정보처리장치(300)는 모션센서(301)와, 촬영 수단(302), 프로파일 데이터베이스부(303), 컨텐츠 데이터베이스부(304), 제어부(305), 디스플레이부(306) 및 출력 수단(307)을 포함한다.As shown in FIG. 2, the exhibition service provision information processing device 300 according to one embodiment includes a motion sensor 301, a photographing means 302, a profile database unit 303, a content database unit 304, It includes a control unit 305, a display unit 306, and output means 307.

여기에서, 상기 모션센서(301)는 관람객에 대한 깊이 이미지 정보를 생성하여 관람객을 인식하고 움직임을 측정한다. 구체적으로 모션센서(301)는 적외선 소스 모듈 및 CMOS 적외선 카메라 센서 모듈을 포함한다. 또한, CMOS 적외선 카메라 센서 모듈은 이미지 프로세서를 포함한다. 상기 적외선 소스 모듈은 박물관 관람객을 향해 적외선을 조사하고, CMOS 적외선 카메라 센서 모듈은 이에 반사되는 적외선을 수집하고 관람객과의 거리를 산출하여 관람객을 인식한다. 이 때 CMOS 적외선 카메라 센서 모듈은 관람객과의 거리 산출을 위한 이미지 프로세서를 포함하여 실시될 수 있다.Here, the motion sensor 301 generates depth image information about the visitor, recognizes the visitor, and measures movement. Specifically, the motion sensor 301 includes an infrared source module and a CMOS infrared camera sensor module. Additionally, the CMOS infrared camera sensor module includes an image processor. The infrared source module radiates infrared rays toward museum visitors, and the CMOS infrared camera sensor module collects the reflected infrared rays and calculates the distance to the visitor to recognize the visitor. At this time, the CMOS infrared camera sensor module may include an image processor for calculating the distance to the visitor.

상기 프로파일 데이터베이스부(303)는 관람객을 인식하기 위한 키 정보로 이루어진 프로파일을 저장한다. 구체적으로 프로파일 데이터베이스부(303)는 복수 개의 키 범위 정보로 이루어진 프로파일을 저장한다. 즉, 상기 모션센서(301)가 관람객을 인식하기 위해서는 관람객의 크기(키 범위)에 따라 소정의 시간이 필요하고 오차 범위도 크기 때문에 적절한 범위의 키 범위가 정해지고 이에 따라 모션센서(301)가 인식 과정을 수행하면 보다 정확하고 빠른 관람객 인식이 가능해진다. 이 때 프로파일 데이터베이스부(303)는 모션센서(301)가 관람객을 인식하기 위해 필요한 키 정보를 저장하고 필요에 따라 관련 정보를 제공할 수 있다. 구체적으로 모션센서(301)는 관람객에 의해 입력되는 키 범위에 대한 선택에 기초하여 관람객을 인식할 수 있고, 관람객에 의해 선택되는 키 범위에 대한 선택 과정은 소정의 입력 장치를 통해 관람객이 키 범위에 대한 선택 입력을 받을 수 있고 이러한 입력 정보(선택된 키 범위)에 기초하여 모션센서(301)가 관람객을 효과적으로 인식할 수 있다.The profile database unit 303 stores a profile consisting of key information for recognizing visitors. Specifically, the profile database unit 303 stores a profile consisting of a plurality of key range information. That is, in order for the motion sensor 301 to recognize the visitor, a certain amount of time is required depending on the size (key range) of the visitor, and the error range is also large, so an appropriate key range is determined and the motion sensor 301 is used accordingly. Performing the recognition process allows for more accurate and faster visitor recognition. At this time, the profile database unit 303 stores key information necessary for the motion sensor 301 to recognize the visitor and provides related information as needed. Specifically, the motion sensor 301 can recognize the visitor based on the selection of the key range input by the visitor, and the selection process for the key range selected by the visitor is performed by the visitor selecting the key range through a predetermined input device. A selection input can be received, and the motion sensor 301 can effectively recognize the visitor based on this input information (selected key range).

상기 컨텐츠 데이터베이스부(304)는 유적지 또는 유물 관련 VR 파노라마 컨텐츠 및 VR 오브젝트 컨텐츠를 저장한다. 즉, 상기 컨텐츠 데이터베이스부(304)는 관람객에게 제공할 유적지 또는 유물 등과 관련된 유적지 3차원 배경 컨텐츠, 유적지 파노라마 컨텐츠, 유적지 정보 컨텐츠, 유물 외형인 3차원 입체 형상 컨텐츠, 유물 정보 컨텐츠 등을 저장하고 필요에 따라 관련 정보를 제공할 수 있다.The content database unit 304 stores VR panorama content and VR object content related to historic sites or artifacts. That is, the content database unit 304 stores historical site 3D background content, historic site panorama content, historic site information content, 3D three-dimensional shape content of the external appearance of the relic, relic information content, etc. related to the historic site or relics to be provided to visitors, and provides necessary information. Relevant information may be provided accordingly.

상기 디스플레이부(306)는 컨텐츠 데이터베이스부(304)의 컨텐츠를 관람객이 볼 수 있도록 디스플레이한다. 구체적으로 디스플레이부(306)는 VR 컨텐츠를 효과적으로 제공할 수 있는 스크린 타입 또는 화상 디스플레이 타입으로 이루어질 수 있다.The display unit 306 displays the content of the content database unit 304 so that visitors can view it. Specifically, the display unit 306 may be of a screen type or image display type that can effectively provide VR content.

상기 제어부(305)는 프로파일 데이터베이스부(303)에 저장된 키 정보에 기초하여 모션센서(100)가 관람객을 인식하도록 제어한다. 그리고 제어부(305)는 관람객의 움직임에 따라 디스플레이부(306)가 컨텐츠 데이터베이스부(304)에 저장된 컨텐츠의 위치 및 내용을 변경하여 디스플레이하도록 제어한다. 또한, 상기 제어부(305)는 모션센서(301)를 통해 인식한 관람객의 움직임이 뷰 포인트에 대한 선택 동작인 경우에 뷰 포인트에 해당하는 상세 컨텐츠를 디스플레이부가 디스플레이하도록 제어할 수 있다. 즉, 제어부(305)는 기 제공된 가상 현실(VR) 파노라마 컨텐츠에서 모션센서(301)가 인식한 관람객의 움직임이 VR 컨텐츠 상에 특정된 부분인 뷰 포인트에 대한 선택 동작인 경우에 해당 뷰 포인트에 해당하는 상세 컨텐츠(확대 이미지 또는 설명 내용)를 디스플레이부가 디스플레이하도록 제어할 수 있다.The control unit 305 controls the motion sensor 100 to recognize the visitor based on key information stored in the profile database unit 303. And the control unit 305 controls the display unit 306 to change and display the location and content of the content stored in the content database unit 304 according to the movement of the viewer. Additionally, the control unit 305 may control the display unit to display detailed content corresponding to the view point when the movement of the visitor recognized through the motion sensor 301 is a selection motion for the view point. In other words, if the movement of the visitor recognized by the motion sensor 301 in the pre-provided virtual reality (VR) panoramic content is a selection motion for a view point that is a specific part of the VR content, the control unit 305 moves to the corresponding view point. The display unit can be controlled to display the corresponding detailed content (enlarged image or description content).

상기 촬영 수단(302)은 관람객 또는, 관람객의 얼굴을 촬영하여 영상 이미지를 생성하는데, 제어부(305)는 촬영 수단(302)을 통해 촬영한 영상을 디스플레이부(306)가 컨텐츠와 함께 디스플레이하도록 제어하고, 모션센서(301)를 통해 측정되는 관람객의 움직임(제스쳐)에 따라 컨텐츠와 촬영 영상의 위치가 변경되도록 제어할 수 있다. 즉, 제어부(305)는 관람객에게 기본적으로 제공되는 VR 컨텐츠 및 VR 오브젝트 컨텐츠 상에 촬영 수단(302)을 통해 얻어지는 관람객 영상 이미지를 나타내고, 관람객을 움직임을 모션센서(301)가 인식하고, 움직임이 해당 VR 컨텐츠 및 VR 오브젝트 컨텐츠에 대한 이동을 위한 움직임이거나 촬영 영상에 대한 이동인 경우에 각 움직임에 대응하는 디스플레이 상태를 변경시킬 수 있다.The photographing means 302 creates a video image by photographing the visitor or the visitor's face, and the control unit 305 controls the display unit 306 to display the image captured through the photographing means 302 together with the content. In addition, the position of the content and the captured image can be controlled to change according to the movement (gesture) of the visitor measured through the motion sensor 301. That is, the control unit 305 displays the visitor video image obtained through the photographing means 302 on the VR content and VR object content basically provided to the visitor, and the motion sensor 301 recognizes the visitor's movement, and detects the movement. In the case of movement for the corresponding VR content and VR object content or movement for the captured image, the display state corresponding to each movement can be changed.

상기 출력 수단(307)은 디스플레이부(306)가 표시하는 관련 컨텐츠 및 영상 이미지를 사진 등으로 출력한다. 즉, 출력 수단(307)은 제어부(305)의 제어 동작에 따라 관련 컨텐츠 및 촬영 영상을 이미지화 한 뒤 관람객의 선택이 있는 경우 해당 이미지를 사진 등으로 출력하여 관람객에게 제공할 수 있다. 이러한 과정을 통해 본 시스템을 제공받는 관람객들은 가상의 유적지 또는 유물이 표시된 상태에 자신의 모습을 적절히 넣어서 기념 촬영을 할 수 있고, 실재로 해당 유적지 등에 가지는 않았으나 마치 해당 유적지에 방문하여 기념 촬영을 한 것과 같은 효과를 제공받을 수 있다.The output means 307 outputs related content and video images displayed by the display unit 306 in the form of photos, etc. That is, the output means 307 converts the related content and the captured video into an image according to the control operation of the control unit 305, and then, if the viewer selects, outputs the image in the form of a photo or the like and provides it to the viewer. Through this process, visitors who are provided with this system can take a commemorative photo by appropriately placing their image in a state where a virtual historic site or relic is displayed, and can take a commemorative photo as if they had visited the relevant historical site, etc. You can receive the same effect.

부가적으로, 컨텐츠에 대한 설명 음성을 관람객에게 제공하기 위한 스피커와 관람객의 음성 정보를 수집하는 마이크를 더 포함할 수 있고, 제어부(305)는 모션센서(301)를 통해 측정되는 관람객의 움직임 또는 마이크를 통해 수집되는 음성 정보에 포함되는 키워드를 분석하고 이에 기초하여, 스피커를 통해 상세 설명 내용이 관람객에게 제공되도록 제어한다. 즉 제어부(305)는 마이크로부터 수집되는 관람객의 음성 정보를 키워드 별로 분석하여, 제공되고 있는 컨텐츠에 포함되는 유적지 또는 유물에 대한 질의 응답 또는 상세 설명 내용을, 디스플레이부(306) 상에 표시하는 것과 더불어 스피커를 통해 음성 정보로 제공될 수 있도록 제어할 수 있다.Additionally, it may further include a speaker for providing a description of the content to the visitor and a microphone for collecting the visitor's voice information, and the control unit 305 may be configured to control the visitor's movement or movement measured through the motion sensor 301. Keywords included in the voice information collected through the microphone are analyzed, and based on this, detailed explanations are controlled to be provided to the audience through the speaker. That is, the control unit 305 analyzes the visitor's voice information collected from the microphone by keyword and displays questions and answers or detailed explanations about the historic site or artifact included in the content being provided on the display unit 306. In addition, it can be controlled so that voice information is provided through a speaker.

도 3a와 도 3b는 일실시예에 따른 가상현실을 사용한 아트 갤러리 구현 시스템(전술한 VR컨텐츠를 사업모델화한 일예)을 설명하기 위한 도면이다.Figures 3a and 3b are diagrams for explaining an art gallery implementation system using virtual reality (an example of a business model of the above-described VR content) according to an embodiment.

구체적으로는, 도 3a는 일실시예에 따른 가상현실을 사용한 아트 갤러리 구현 시스템의 동작을 순서대로 도시한 플로우 차트이다. 그리고, 도 3b는 이러한 시스템에 적용된 3D 공간과 모델을 보여주는 도면이다.Specifically, FIG. 3A is a flow chart sequentially showing the operation of an art gallery implementation system using virtual reality according to an embodiment. And, Figure 3b is a diagram showing the 3D space and model applied to this system.

도 3a에 도시된 바와 같이, 일실시예에 따른 가상현실을 사용한 아트 갤러리 전시 시스템은 먼저 아래의 구성을 전제로 한다.As shown in FIG. 3A, the art gallery exhibition system using virtual reality according to one embodiment first assumes the following configuration.

즉, 상기 구성은 다수의 상이한 작가별로 가상작품영상 입력받거나 직접 제작하여 공급하는 작가 단말기와, 상기 작가 단말기에 의해 공급된 가상작품영상을 작가와 갤러리별로 중개하고, 상기 가상작품영상에 대해서는 다수의 상이한 감정 상태와 미술 등의 아트별로 매칭해서 상이한 갤러리별로 분배하는 관리 정보처리장치를 포함한다(S301).In other words, the above configuration includes an artist terminal that receives virtual work videos from a number of different artists or directly produces and supplies them, the virtual work videos supplied by the artist terminal are brokered by each artist and gallery, and a plurality of virtual work videos are provided for the virtual work videos. It includes a management information processing device that matches different emotional states and art such as art and distributes them to different galleries (S301).

이러한 경우, 예를 들어 상기 감정은 분노, 혐오, 두려움, 행복, 슬픔, 놀람, 무표정 총 7가지의 감정을 판단하며, 각각의 감정에 대한 세분화를 실시하여 하나의 감정에 높음, 보통, 낮음으로 판별함으로써 총 21가지의 감정을 판단한다.In this case, for example, a total of 7 emotions are judged: anger, disgust, fear, happiness, sadness, surprise, and expressionless, and each emotion is segmented into high, medium, and low emotions. A total of 21 emotions are judged through discrimination.

구체적인 예로는, 1차 안면이미지의 얼굴 표정 및 2차 안면이미지의 얼굴 표정의 변화값 예컨대 각각의 감정에 따라 변화량이 서로 다른 눈꼬리 및 입꼬리의 변화값을 비교 분석하여, 각각의 감정에 대한 높음, 보통, 낮음으로 판단한다.As a specific example, the change values of the facial expression of the first facial image and the facial expression of the second facial image, for example, the change values of the corners of the eyes and mouth, which have different amounts of change depending on each emotion, are compared and analyzed to determine the high, It is judged as average or low.

여기에서, 안면이미지의 표정 변화량은 1차 안면이미지 및 2차 안면이미지의 눈꼬리와 입꼬리를 각각 감지하고, 1차 안면이미지의 눈꼬리와 입꼬리 및 2차 안면이미지의 눈꼬치와 입꼬리를 각각 매칭시켜 변화값을 산출하며, 변화값이 일정이상이면 높음, 일정수준이면 보통, 일정이하면 낮음으로 판단한다.Here, the amount of expression change in the facial image is changed by detecting the corners of the eyes and mouth of the first and second facial images, respectively, and matching the corners of the eyes and mouth of the first facial image and the corners of the eyes and mouth of the second facial image, respectively. The value is calculated, and if the change value is above a certain level, it is judged as high, if it is within a certain level, it is judged as normal, and if it is below a certain level, it is judged as low.

그리고, 상기 구성은 상기 관리 정보처리장치에 의해 분배된 가상작품영상을 각 갤러리에서 가상현실화하여 전시하는 갤러리 단말기를 포함하고 있다.In addition, the configuration includes a gallery terminal that virtualizes the virtual work video distributed by the management information processing device and displays it in each gallery.

이러한 상태에서, 일실시예에 따른 시스템은 상기 다수의 상이한 아트마다 해당하는 작품의 관람시에, 관람객 얼굴을 연속적으로 인식한다(S302).In this state, the system according to one embodiment continuously recognizes the viewer's face when viewing the work corresponding to each of the plurality of different works of art (S302).

그리고 나서, 상기 인식된 관람객 얼굴에서의 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출한다(S303).Then, the visitor's emotional state matching the facial element change state in the recognized visitor's face is detected (S303).

그래서, 상기 검출된 관람객 감정 상태별로 상이한 매칭된 가상현실 영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출한다(도 3b 참조)(S304). 이때, 상기 가상현실 영상은 관람객의 감정 상태에 반응하는 AR 또는 VR 영상이다. 이러한 영상은 각 아트의 전시 주제 또는 아이템별로 맞게 제작된다.Therefore, different matched virtual reality images for each detected emotional state of the viewer are produced around the corresponding work of art (see FIG. 3b) (S304). At this time, the virtual reality image is an AR or VR image that responds to the emotional state of the viewer. These videos are produced to suit each art exhibition theme or item.

이러한 경우, 상기 감정 상태 검출(S303)은 아래의 동작으로 이루어진다.In this case, the emotional state detection (S303) consists of the following operations.

먼저 상기 인식된 관람객 얼굴에서 각 얼굴 요소의 메타데이터를 즉, 속성 값을 얼굴 요소별로 추출한다.First, the metadata of each facial element, that is, the attribute value, is extracted for each facial element from the recognized visitor's face.

다음, 이러한 각 얼굴 요소의 메타데이터로부터 예를 들어, YORO 포맷을 적용하여 얼굴 요소의 크기와 위치를 추정한다. 즉, 각 얼굴 요소의 메타데이터 바로 부분으로부터 전체적인 각 얼굴 요소의 크기와 위치를 추정하는 것이다.Next, the size and position of the face element are estimated from the metadata of each face element, for example, by applying the YORO format. In other words, the overall size and position of each facial element are estimated from the immediate metadata of each facial element.

그리고 나서, 이렇게 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출한다.Then, the change state of the face element is detected by applying the size and position of each face element estimated in this way.

그래서, 상기 검출된 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출한다.Therefore, the visitor's emotional state matching the detected facial element change state is detected.

따라서, 이를 통해 일실시예는 미술 작품 등을 관람할 경우, 관람객의 작품에 대한 반응에 따라 그에 맞는 가상현실 영상을 제공함으로써, 미술 작품 등의 관람을 더욱 효과적으로 한다.Accordingly, through this, in one embodiment, when viewing a work of art, etc., a virtual reality image corresponding to the viewer's reaction to the work is provided, making the viewing of the work of art more effective.

이상과 같이, 일실시예는 아래의 특징을 가진다.As above, one embodiment has the following features.

즉, 일실시예는,That is, in one embodiment,

다수의 상이한 작가별로 가상작품영상 입력받거나 직접 제작하여 공급하는 작가 단말기;An artist terminal that receives virtual work videos from multiple different artists or produces and supplies them directly;

상기 작가 단말기에 의해 공급된 가상작품영상을 작가와 갤러리별로 중개하고, 상기 가상작품영상에 대해서는 다수의 상이한 감정 상태와 아트별로 매칭해서 상이한 갤러리별로 분배하는 관리 정보처리장치; 및a management information processing device that mediates the virtual work video supplied by the artist terminal for each artist and gallery, matches the virtual work video for each art with a plurality of different emotional states, and distributes the virtual work video to each different gallery; and

상기 관리 정보처리장치에 의해 분배된 가상작품영상을 각 갤러리에서 가상현실화하여 전시하는 갤러리 단말기; 를 포함하고 있다.a gallery terminal that transforms the virtual work video distributed by the management information processing device into virtual reality and displays it in each gallery; It includes.

그리고, 이러한 경우 상기 갤러리 단말기는,And, in this case, the gallery terminal,

a) 상기 다수의 상이한 아트마다 해당하는 작품의 관람시에, 관람객 얼굴을 연속적으로 인식하고,a) When viewing a work corresponding to each of the plurality of different works of art, the viewer's face is continuously recognized,

b) 상기 인식된 관람객 얼굴에서의 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출하고,b) detecting the visitor's emotional state matched to the change state of facial elements in the recognized visitor's face,

c) 상기 검출된 관람객 감정 상태별로 상이한 매칭된 가상작품영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출하며,c) A different matched virtual work video according to the detected emotional state of the visitor is produced around the corresponding work for each art,

상기 관람객 감정 상태를 검출하는 것(b))은,Detecting the emotional state of the visitor (b)),

b-1) 상기 인식된 관람객 얼굴에서 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하고,b-1) Extract metadata of each facial element from the recognized visitor's face for each facial element,

b-2) 상기 추출된 각 얼굴 요소의 메타데이터로부터 얼굴 요소의 크기와 위치를 추정하고,b-2) Estimate the size and location of the face element from the metadata of each extracted face element,

b-3) 상기 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출하며,b-3) Detecting the change state of facial elements by applying the size and position of each estimated facial element,

b-4) 상기 검출된 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출한다.b-4) Detect the visitor emotional state matched to the detected facial element change state.

따라서, 이를 통해 일실시예는 미술 작품 등을 관람할 경우, 관람객의 작품에 대한 반응에 따라 그에 맞는 가상현실 영상을 제공함으로써, 미술 작품 등의 관람을 더욱 효과적으로 한다.Accordingly, through this, in one embodiment, when viewing a work of art, etc., a virtual reality image corresponding to the viewer's reaction to the work is provided, making the viewing of the work of art more effective.

따라서, 이에 따라 더 나아가 VR 산업의 대부분이 게임산업에만 치중되어 있어서 경쟁이 치열한 반면 예술분야에서의 VR 등에 활용은 다소 저조함을 해결한다.Therefore, this further solves the problem that most of the VR industry is focused only on the gaming industry, so competition is fierce, but the use of VR in the art field is somewhat low.

그리고, 이에 청년예술가들의 과학적 지원을 통해, 디지털시대 디지털 기술기반의And, through scientific support of young artists, digital technology-based

디지털아트 전시를 통해 예술과학융합문화를 쉽게 접할 수 있는 사회적 분위기를 조성한다.Through digital art exhibitions, we create a social atmosphere where art and science convergence culture can be easily accessed.

또한, 다양한 과학융합 분야 발굴을 통해 디지털문화 컨텐츠 활성화 및 융합In addition, the revitalization and convergence of digital cultural contents through the discovery of various fields of scientific convergence.

컨텐츠 일자리를 창출한다.Create content jobs.

그리고, 또한 VR 아트 전시 체험을 통해 디지털유목민으로 정의되는 청년들에게 디지털과 인간의 상호적 관계에 대한 융합적 사고를 증진한다.Additionally, through the VR art exhibition experience, convergent thinking about the interactive relationship between digital and humans is promoted among young people who are defined as digital nomads.

추가적으로, 이러한 실시예에 따른 시스템은 전술한 가상현실 영상 정보를 이용하여 영화를 예를 들어, 미술 작품의 관람에 대한 체험을 컨텐츠로 한 영화를 제작할 수 있도록 한다.Additionally, the system according to this embodiment allows the production of a movie using the above-described virtual reality image information, for example, a movie whose content is the experience of viewing a work of art.

이를 위해, 실시예에 따른 시스템은 아래의 구성을 구비한다.For this purpose, the system according to the embodiment has the following configuration.

즉, 상기 시스템은 사용자 단말기로부터 해당 모바일 앱을 통해 각 아트마다의 전시 주제별로 전시관 내에 각 인터랙티브 컨텐츠별 선택사양으로서 스토리의 발단과, 진행, 결론 상의 터닝 포인트 부분을 선택받는다.In other words, the system receives the turning point in the beginning, progression, and conclusion of the story as an option for each interactive content in the exhibition hall according to the exhibition theme of each art through the corresponding mobile app from the user terminal.

이러한 경우, 상기 인터랙티브 컨텐츠란 관람자 ID 및 관람자 정보 등록, 시나리오 선택, 동영상 또는 사진촬영, 전시관 내에 비치된 컴퓨터로 생산한 CG, 자신의 멘트, 폴리녹음 및 선택한 BGM 등의 사운드 등을 의미한다.In this case, the interactive content means registration of spectator ID and spectator information, scenario selection, video or photo shooting, CG produced by a computer installed in the exhibition hall, one's own comments, poly recording, and sounds such as selected BGM.

다음, 상기 선택된 결과를 조합하여 영화로서 시스템적으로 연결시킨다.Next, the selected results are combined and systematically connected as a movie.

그리고 나서, 상기 연출된 가상현실 영상 정보(관람객 얼굴과 가상현실 영상 포함)를 해당하는 터닝 포인트 부분에 채우거나 미리 설정된 음향을 녹음하여 영화를 제작한다.Then, the produced virtual reality image information (including the visitor's face and virtual reality image) is filled in the corresponding turning point or preset sound is recorded to produce the movie.

그래서, 실시예는 예를 들어, 전시관의 관람에 있어서 관람자가 수동적으로 전시되어 있는 전시물을 단순 관람토록 하는 것에 나아가, 관람자가 실제로 전시 주제와 관련된 영상 창작물을 직접생산하고 이를 주제별로 저장된 영상물과 상호교환하여 발전된 형태의 UCC를 만들어가도록 한다.So, for example, the embodiment goes beyond simply allowing the viewer to passively view the exhibits when viewing an exhibition hall, and allows the viewer to actually directly produce video creations related to the exhibition theme and interact with the video creations stored for each topic. Let's exchange them to create an advanced form of UCC.

예를 들어, 상기 영화 제작은 아래와 같이 이루어진다.For example, the production of the above film occurs as follows.

먼저 관람객이 자신의 스마트폰에 해당 모바일 앱을 다운받아 설치한다.First, visitors download and install the mobile app on their smartphones.

이러한 경우, 상기 모바일 앱은 전시관에 방문하기 전에 다운받는 것으로, 광고, 기사 등을 통해 정보를 입수한다. 그리고, 이러한 모바일 앱을 실행하여 전시관의 구성, 전시정보, 프로그램 등을 안내받는다.In this case, the mobile app is downloaded before visiting the exhibition hall, and information is obtained through advertisements, articles, etc. Then, by running this mobile app, you are guided through the exhibition hall structure, exhibition information, programs, etc.

다음, 현장에서 전술한 모바일 앱을 실행한다.Next, run the aforementioned mobile app on site.

그리고 나서, 전시관을 관람한다. 미술관에서 해당 관리 정보처리장치를 통해 특정 미술작품의 이해와, 미술작품의 역사, 미술작품의 원리 등의 코너를 관람하면서, 각각의 코너에 대한 정보를 얻기도 한다.Then, visit the exhibition hall. In an art museum, you can obtain information about each corner while viewing corners such as understanding of a specific work of art, the history of the work of art, and the principles of the work of art through the corresponding management information processing device.

그래서, 단순한 정보 획득의 방법으로 관람하는 경우이지만, 또 다른 방법으로는 필요시 적극적으로 관람자가 참여하고 스스로 컨텐츠를 생산하면서 관한하는 방법이 가능하다. 즉 직접체험형의 관람 형태가 된다. 구체적으로는, 영상 시나리오를 만들고 컨텐츠를 만들어 가는 것이다.So, it is a case of viewing as a simple method of obtaining information, but another method is possible for viewers to actively participate and produce content on their own when necessary. In other words, it becomes a direct experience type of viewing. Specifically, it involves creating video scenarios and creating content.

다음으로, 영상 시나리오를 만든다. 이를 위해, 관람자는 예를 들어 시나리오 존(zone)에 설치된 안내 그래픽, 안내 영상 및 스마트폰에 설치된 모바일 앱 안내 팝업창 등을 통해 자신이 제작할 영상에 대한 시나리오를 구성한다.Next, create a video scenario. To this end, the viewer constructs a scenario for the video he or she will produce through, for example, guidance graphics installed in the scenario zone, guidance videos, and mobile app guidance pop-up windows installed on smartphones.

이러한 경우, 상기 시나리오는 스토리의 발단, 진행(터닝 포인트 1부터 n까지), 결론으로 구성한다. 예를 들어 미술작품의 역사 탐방 주제의 영상을 제작 체험할 예정이라면 1) 스토리의 발단은 역사탐방 동행자 선택, 역사탐험지 선택에 따라 스토리의 진행은 다르게 전개되는 형식이다. 그리고 2) 스토리의 진행은 역사탐험지를 특정 지역으로 선택했다면 진행과정의 터닝포인트는 미술작품이 만들어진 시기와 장소, 상황 등의 선택 여하에 따라 스토리의 전개가 다르게 나타나다. 즉, 이와 같은 n의 경우의 수를 조합하여 스토리를 관람객이 자유롭게 선택하여 구성하도록 한다. 그리고 3) 스토리의 결론은 자신이 만든 영화에 대한 자신의 견해, 소감 등 삽입하는 것이다.In this case, the scenario consists of the beginning of the story, progress (turning points 1 to n), and conclusion. For example, if you are planning to create and experience a video on the subject of historical exploration of a work of art, 1) the story begins in a format where the story progresses differently depending on the choice of historical exploration companion and historical exploration site. And 2) If the historical exploration site is selected as a specific area, the turning point of the story unfolds differently depending on the selection of the time, place, and situation in which the artwork was created. In other words, the audience can freely select and construct a story by combining the number of n cases. And 3) The conclusion of the story is to insert your own opinions and impressions about the movie you made.

이렇게 구성된 시나리오는 영화로서 시스템적으로 연결된다. 이때 설치된 영상은 각각의 터닝포인트 별로 빈공간(Blank)이 있고, 관람자는 이 부분의 영상, 음향, 음성 등을 스스로 만들어 채워 영화를 완성하게 된다.The scenarios constructed in this way are systematically connected as a movie. At this time, the installed video has a blank space for each turning point, and the viewer creates and fills the video, sound, and audio for this part to complete the movie.

이때 음향 및 음악을 삽입할 수 있다. 자신이 선택한 시나리오상의 빈공간에 음악 또는 음향이 없는 부분이 있을 경우 이를 만들어 넣을 수 있다. 그리고 크로마키 촬영을 할 수 있다. 자신의 영화에 자신이 등장한다는 컨셉으로 자신이 선택한 시나리오상의 빈공간에 등장하는 특정장면에 자신이 주인공이 되어 등장하게 할 수 있다. 크로마키 촬영실은 블루스크린의 배경에 몇 가지의 소품이 설치되어 있으며 전문적인 촬영기사가 관람객들을 촬영하도록 구성된다.At this time, sounds and music can be inserted. If there is a part without music or sound in the empty space in the scenario you selected, you can create it. And you can do chromakey shooting. With the concept of appearing in your own movie, you can have yourself appear as the main character in a specific scene that appears in an empty space in the scenario you choose. The chromakey studio is equipped with several props against a blue screen background and has professional cinematographers filming visitors.

다음, 영화가 제작된 후에는 관람자의 스마트폰에 전송한다. 그리고, UCC 등에 올려 회원들과 작품을 공유한다.Next, after the movie is produced, it is transmitted to the viewer's smartphone. Then, share your work with members by uploading it to UCC, etc.

다른 한편, 실시예에 따른 시스템은 상기한 얼굴 요소를 추출하는 경우를 아래와 같이 수행함으로써, 보다 효과적으로 얼굴 요소의 추출이 이루어질 수 있도록 한다.On the other hand, the system according to the embodiment enables extraction of facial elements more effectively by performing the case of extracting facial elements as described above.

구체적으로는, 실시예에 따른 시스템은 먼저 각 얼굴 요소의 영역과, 시간 데이터를 포함한 각 얼굴 요소의 메타데이터에 의해 데이터 분포를 작성하고 영상 내에서 각 얼굴 요소의 활동영역을 특정화하여 감시 여부를 설정해서 빅데이터 패턴을 분석한다.Specifically, the system according to the embodiment first creates a data distribution based on the area of each facial element and the metadata of each facial element, including time data, and specifies the activity area of each facial element within the image to determine whether to monitor it. Set up and analyze big data patterns.

그리고 나서, 상기 빅데이터 패턴의 분석 결과로부터 미리 설정된 각 얼굴 요소의 형상특징을 적용하여 각 얼굴 요소를 분류한다.Then, each facial element is classified by applying the shape characteristics of each facial element preset from the analysis results of the big data pattern.

따라서, 이를 통해 전술한 실시예보다 효과적으로 얼굴 요소의 추출이 이루어진다. Therefore, through this, facial elements are extracted more effectively than in the above-described embodiment.

또 다른 한편으로, 실시예에 따른 시스템은 얼굴 정보를 인식함에 있어서 아래의 구성을 통해 보다 효과적으로 인식이 될 수 있도록 한다.On the other hand, the system according to the embodiment enables more effective recognition through the following configuration when recognizing face information.

이를 위해, 실시예에 따른 시스템은 아래의 구성을 가진다.For this purpose, the system according to the embodiment has the following configuration.

먼저, 상기 시스템은 상기 얼굴의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D얼굴 영역분할을 위한 딥러닝 학습을 통해 얼굴 영역에 관한 딥러닝 파라미터를 산출하여 얼굴2D영역분할 딥러닝 모델을 구축한다.First, before segmenting the face area, the system calculates deep learning parameters for the face area through deep learning learning for 2D face area segmentation from only a plurality of different RGB images in advance to create a deep learning model for face 2D area segmentation. Build.

이러한 경우, 상기 얼굴2D영역분할 딥러닝 모델은 미리 다수의 상이한 RGB영상으로부터의 2D얼굴 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D얼굴 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 얼굴2D영역분할 딥러닝 모델로 된다.In this case, the facial 2D region segmentation deep learning model generates a binary mask by extracting representative thresholds for each 2D face region through mask R-CNN type deep learning learning for 2D face region segmentation from multiple different RGB images in advance. By doing so, it becomes a mask R-CNN based facial 2D region segmentation deep learning model.

그리고, RGB-D카메라로부터의 RGB영상으로부터 얼굴2D영역분할을 상기 얼굴2D영역분할 딥러닝 모델에 의해 수행한다.Then, face 2D region segmentation is performed from the RGB image from the RGB-D camera using the face 2D region segmentation deep learning model.

다음, 상기 얼굴2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 얼굴의 깊이 정보를 획득한다.Next, depth information of the face is obtained by performing a logical AND between the face 2D segmentation result and the depth data from the RGB-D camera.

그리고 나서, 상기 얼굴의 깊이 정보에 원근변환을 적용하여 얼굴의 3D객체영역분할을 수행함으로써, 얼굴의 xyz와 RGB 정보를 획득할 수 있도록 한다.Then, perspective transformation is applied to the depth information of the face to perform 3D object region segmentation of the face, so that xyz and RGB information of the face can be obtained.

그래서, 상기 획득된 얼굴의 xyz와 RGB 정보를 적용하여 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출한다.Therefore, metadata of each facial element is extracted for each facial element by applying the xyz and RGB information of the acquired face.

한편, 실시예에 따른 전시 방법은 전술한 딥러닝 모델 구축을 아래와 같은 방법으로 구체화된다.Meanwhile, the display method according to the embodiment is specified by building the deep learning model described above in the following manner.

즉, 상기 전시 방법은 먼저 관람객에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집한다.That is, the above exhibition method first collects only RGB images of visitors through an RGB-D camera.

다음, 상기 RGB 영상 내의 얼굴 영역을 미리 정의하여 표시하고 그 얼굴의 종류를 지정함으로써, 학습용 데이터를 만든다.Next, learning data is created by pre-defining and displaying the face area in the RGB image and specifying the type of face.

그리고, 상기 학습용 데이터에 미리 설정된 얼굴분할 딥러닝 모델을 적용해서 얼굴의 영역만을 분할한다.Then, a preset face segmentation deep learning model is applied to the learning data to segment only the face area.

그리고 나서, 이러한 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D얼굴 영역분할을 위한 딥러닝 모델에 적용해서 학습한다.Then, the dataset resulting from these segmentation results is applied to a deep learning model for preset 2D face region segmentation and learned.

다음, 상기 학습 결과로부터 얼굴 영역에 관한 딥러닝 파라미터를 산출한다.Next, deep learning parameters for the face area are calculated from the learning results.

그래서, 이러한 얼굴 영역에 관한 딥러닝 파라미터로부터 얼굴2D영역분할 딥러닝 모델을 구축하는 것이다.So, a deep learning model for facial 2D region segmentation is constructed from deep learning parameters related to these facial regions.

따라서, 이를 통해 전술한 실시예보다 효과적으로 얼굴 인식이 이루어진다.Therefore, through this, face recognition is performed more effectively than in the above-described embodiment.

한편, 부연하여 이러한 시스템에 적용된 컨텐츠 제공 이용비용 처리 시스템을 예를 들어 설명한다.Meanwhile, the content provision usage cost processing system applied to this system will be explained as an example.

상기 시스템은 먼저 고객 카드가 VR컨텐츠 등을 이용하는 금액 등을 정산하기 위한 고객이 자신이 가입한 이동통신사 또는 기업체에서 제공되는 Point 적립 카드와 문화 공간 또는 관련된 사업 모델 내에서 사용 가능한 카드 및 RF 칩, IC 칩을 이용하여 정산 및 운영 시스템을 구축한다.The system first uses a point accumulation card provided by the mobile carrier or company to which the customer subscribes to settle the amount of use of VR content, etc., a card and RF chip that can be used in cultural spaces or related business models, Build a settlement and operation system using IC chips.

이러한 상태에서, 고객카드 등으로 사용금액 처리 요구를 운영 정보처리장치에 요구하면 사용금액을 처리하여 사용금액의 누적처리와 저장처리를 하여 고객카드에 사용금액을 저장하게 된다.In this state, when a request to process the usage amount using a customer card, etc. is made to the operating information processing device, the usage amount is processed, the usage amount is accumulated and stored, and the usage amount is stored in the customer card.

또한, VR컨텐츠 운영자는 사업 모델 또는 문화 공간 내 편의시설 단말기 등을 이용하여 매출액 조회를 요구하면 매출액 검색 후 제공한다.In addition, when VR content operators request sales inquiries using business models or convenience terminals in cultural spaces, the sales amount is searched and provided.

그리고, 매출액 조회기능을 제공하여 매출액 및 정산 처리 후 사업 모델 등의 관련된 단말기에 매출액 및 정산 처리 통보하여 매출액 확인 및 정산 승인을 할 수 있도록 한다.In addition, a sales inquiry function is provided to notify the sales amount and settlement process to terminals related to the business model after processing the sales amount and settlement so that the sales amount can be confirmed and settlement approval can be made.

그래서, 정산 처리된 자료를 가지고 문화공간 내 편의시설 운영자는 문화 공간 운영자에게 정산된 금액을 현금으로 받아 정산 처리를 완료한다.So, with the settled data, the operator of the convenience facility within the cultural space receives the settled amount in cash from the cultural space operator and completes the settlement process.

부가적으로, 이러한 시스템에 적용된 개인 투자 및 홍보를 위한 운영 시스템을 예를 들어 설명한다.Additionally, the operating system for personal investment and promotion applied to this system is explained as an example.

상기 운영 시스템은 먼저 고객 단말기로 운영 정보처리장치로 문화컨텐츠 홍보 정보 및 투자 정보를 제공하고, 투자, 홍보 정보를 저장한다. 그러면, 고객은 고객 단말기를 통하여 미술인들이 직접 제작한 VR컨텐츠 등의 문화 컨텐츠 정보를 확인하여 개인의 의사에 따라 투자금을 입금한다. 그래서, 운영 정보처리장치는 투자금 입금 확인 후 투자 확인 처리를 하고, 문화컨텐츠 DB에 투자자 정보 저장과 투자자에게 제공되는 입장권이나 쿠폰의 인증 번호 생성을 수행하도록 한다.The operating system first provides cultural content promotional information and investment information to the customer terminal through an operating information processing device, and stores the investment and promotional information. Then, the customer checks cultural content information such as VR content produced by artists through the customer terminal and deposits the investment according to the individual's will. Therefore, the operating information processing device processes the investment confirmation after confirming the investment deposit, stores the investor information in the cultural content DB, and generates an authentication number for the admission ticket or coupon provided to the investor.

그래서, 쿠폰 인증 번호 생성이 되면 쿠폰 인증 번호를 인증번호 DB에 저장하고, 입장권이나 쿠폰을 어플리케이션에 의해 고객 단말기를 통하여 제공 받고자 할때 제공하게 되고, 고객은 고객 단말기를 통하여 입장권이나 쿠폰을 확인하여 사용하게 된다.So, when a coupon authentication number is generated, the coupon authentication number is stored in the authentication number DB and is provided when an admission ticket or coupon is provided through the customer terminal by the application. The customer checks the admission ticket or coupon through the customer terminal. It will be used.

다음, 고객이 사용하게 되는 입장권이나 쿠폰은 편의시설 단말기 등을 이용하여 편의시설 운영자가 쿠폰 인증 번호 확인 요청을 하면, 운영 정보처리장치는 쿠폰 인증 번호 확인 요청 처리를 하고 인증번호를 확인 처리한다.Next, when the convenience facility operator requests confirmation of the coupon authentication number for the admission ticket or coupon to be used by the customer using a convenience facility terminal, etc., the operating information processing device processes the coupon authentication number confirmation request and verifies the authentication number.

그래서, 인증 번호가 확인 되면 확인 통보하여 편의시설 단말기에서 쿠폰 승인하고 입장권 또는 쿠폰은 사용처리하게 된다.So, when the authentication number is confirmed, a confirmation notification is sent, the coupon is approved at the convenience facility terminal, and the admission ticket or coupon is processed for use.

도 4는 다른 실시예에 따른 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템이 적용된 개념도이다.Figure 4 is a conceptual diagram of a gallery implementation system using virtual work videos in a service company according to another embodiment.

도 4에 도시된 바와 같이, 이러한 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템은 다수의 상이한 작가(예: 미술작가)(400-1, 400-2, ... )와, 관리 정보처리장치(410) 및 커피숍 등의 업체(420-1, 420-2, ... )를 포함한다.As shown in Figure 4, the gallery implementation system using virtual work videos in these service companies includes a number of different artists (e.g. art artists) (400-1, 400-2, ...) and management information processing. It includes a device 410 and businesses such as coffee shops (420-1, 420-2, ...).

여기에서, 상기 작가(400-1, 400-2, ... )는 가상작품유형 또는, 업체유형별로 상이하게 가상작품영상을 입력받거나 저작도구를 이용해 직접 제작하여 관리 정보처리장치에 공급한다.Here, the artist (400-1, 400-2, ...) receives virtual work videos differently for each virtual work type or company type, or produces them directly using an authoring tool and supplies them to the management information processing device.

그리고, 상기 관리 정보처리장치(410)는 각 작가별 가상작품영상을 통합적으로 제공받아 작가와 업체별로 중개해서 분류관리하고, 여러 위치에 분산된 각 업체별로 상이하게 분배한다. 그리고, 이러한 경우, 상기 관리 정보처리장치(410)는 업체에 분배하는 가상작품영상을 주기적으로 또는 업체의 요청 등에 따라 업데이트한다.In addition, the management information processing device 410 receives virtual work videos for each artist in an integrated manner, categorizes and manages them through the mediation of each artist and company, and distributes them differently to each company distributed in various locations. In this case, the management information processing device 410 updates the virtual work video distributed to the company periodically or according to the company's request.

또한, 상기 업체 단말기(420-1, 420-2, ... )는 커피숍 또는 레스토랑 등의 업체에 설치된 것으로, 상기 관리 정보처리장치(410)에 의해 분배된 가상작품영상을 개별적으로 수급받아 각 업체 내의 미리 등록된 디지털 액자에 가상현실화하여 전시한다.In addition, the business terminals (420-1, 420-2, ...) are installed in businesses such as coffee shops or restaurants, and individually receive virtual work videos distributed by the management information processing device 410. It is displayed in virtual reality in a pre-registered digital frame within each company.

이러한 경우, 상기 관리 정보처리장치(410)는 아래의 동작을 더 수행한다.In this case, the management information processing device 410 further performs the following operations.

즉, 상기 관리 정보처리장치(410)는,That is, the management information processing device 410,

a) 다수의 상이한 작가(400-1, 400-2, ... )의 가상작품영상이 적어도 하나씩 포함되도록 가상작품영상을 그룹화한다.a) Group virtual work videos so that they contain at least one virtual work video from multiple different artists (400-1, 400-2, ...).

b) 그리고, 각 가상작품영상이 업체에 판매되어 수익을 얻는다.b) Then, each virtual work video is sold to a company to make a profit.

c) 또한, 이때 상기 수익은 해당 가상작품영상의 작가(400-1, 400-2, ... )에게 지급되는 제 1 수익, 상기 중개에 의해 지급되는 제 2 수익, 및 상기 제 1 수익과 제 2 수익을 제외한 제 3 수익으로 구분되고, 상기 제 3 수익에 대해서는 해당 작품그룹의 소속작가에게 배분하도록 정산한다.c) In addition, at this time, the profit is the first profit paid to the author (400-1, 400-2, ...) of the virtual work video, the second profit paid by the brokerage, and the first profit It is divided into third revenue excluding second revenue, and the third revenue is settled to be distributed to the artists belonging to the relevant work group.

도 5는 도 4에서 설명한 시스템을 전체적으로 도시한 도면이다.FIG. 5 is a diagram illustrating the entire system described in FIG. 4.

도 5에 도시된 바와 같이, 상기 시스템은 자가망을 통해 상호 간에 연결되는 다수의 상이한 작가 단말기(500-1, 500-2, ... )와, 관리 정보처리장치(510) 및 업체 단말기(520-1, 520-2, ... )를 포함한다.As shown in Figure 5, the system includes a number of different writer terminals (500-1, 500-2, ...) connected to each other through a private network, a management information processing device 510, and a company terminal ( Includes 520-1, 520-2, ...).

이러한 경우, 상기 작가 단말기(500-1, 500-2, ... )는 다수의 상이한 작가별로 가상작품영상을 입력받거나 직접 제작하여 공급하는 적어도 하나 이상의 모바일단말기 또는 컴퓨터 등의 단말기이다.In this case, the artist terminals 500-1, 500-2, ... are at least one terminal such as a mobile terminal or computer that receives virtual work videos from a plurality of different artists or directly produces and supplies them.

그리고, 상기 관리 정보처리장치(510)는 상기 작가 단말기(500-1, 500-2, ... )에 의해 공급된 각 가상작품영상을 통합적으로 제공받아 작가와 업체별로 중개해서 분류관리하고, 여러 위치에 분산된 각 업체별로 상이하게 분배하는 것이다. 부가적으로, 상기 관리 정보처리장치(510)는 포털 사이트 등에 연결되어 각 가상작품영상을 게시하거나 블로그 등을 통해 서비스한다.In addition, the management information processing device 510 receives each virtual work video provided by the writer terminals (500-1, 500-2, ...) in an integrated manner and categorizes and manages them through mediation by writer and company, It is distributed differently for each company distributed in various locations. Additionally, the management information processing device 510 is connected to a portal site, etc. to post each virtual work video or service it through a blog.

또한, 상기 업체 단말기(520-1, 520-2, ... )는 상기 관리 정보처리장치(510)에 의해 분배된 가상작품영상을 개별적으로 수급받아 각 업체 내의 미리 등록된 디지털 액자에 가상현실화하여 전시하는 적어도 하나 이상의 컴퓨터 등의 단말기이다.In addition, the company terminals (520-1, 520-2, ...) individually receive the virtual work images distributed by the management information processing device 510 and transform them into virtual reality in a pre-registered digital picture frame within each company. It is a terminal such as at least one computer that is displayed.

한편, 추가적으로 상기 시스템은 이러한 미술작가 등의 가상작품영상을 커피숍 등에서 전시할 경우, 디지털 액자에서의 가상작품영상을 관람한 고객의 감정 상태에 따라 다른 가상작품영상을 주변에 연출함으로써, 흥미롭고 심취한 분위기를 느끼도록 한다.Meanwhile, additionally, when the system displays virtual work videos of such artists in coffee shops, etc., it creates interesting and engaging images by displaying different virtual work videos around the customer according to the emotional state of the customer who viewed the virtual work video in a digital frame. Make sure you feel the atmosphere.

이를 위해 상기 시스템은 아래의 구성을 구비한다.For this purpose, the system has the following configuration.

즉, 상기 관리 정보처리장치(510)는 먼저 상기 작가 단말기(500-1, 500-2, ... )에 의해 공급된 가상작품영상을 다수의 상이한 감정 상태와 아트별로 매칭한다.That is, the management information processing device 510 first matches the virtual work images supplied by the artist terminals 500-1, 500-2, ... to a plurality of different emotional states and art.

그리고, 이러한 상태에서 상기 업체 단말기(520-1, 520-2, ... )는 아래의 동작을 수행한다.And, in this state, the company terminals (520-1, 520-2, ...) perform the following operations.

a) 우선적으로 상기 디지털 액자에 의해 전시된 가상작품영상을 관람하는 고객의 얼굴을 연속적으로 인식한다.a) First, the face of the customer watching the virtual work video displayed by the digital frame is continuously recognized.

b) 그리고, 상기 인식된 고객얼굴에서의 얼굴 요소 변화 상태에 매칭된 고객 감정 상태를 검출한다.b) Then, the customer's emotional state matching the change state of facial elements in the recognized customer's face is detected.

c) 다음, 상기 검출된 고객 감정 상태별로 상이한 매칭된 가상작품영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출한다.c) Next, a different matched virtual work video according to the detected emotional state of the customer is displayed around the work that corresponds to each art.

이러한 경우, 상기 고객 감정 상태를 검출하는 것(b))은 아래와 같이 이루어진다.In this case, detecting (b)) the customer emotional state is accomplished as follows.

b-1) 먼저 상기 인식된 고객 얼굴에서 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출한다.b-1) First, metadata of each face element is extracted for each face element from the recognized customer face.

b-2) 그리고, 상기 추출된 각 얼굴 요소의 메타데이터로부터 얼굴 요소의 크기와 위치를 추정한다.b-2) Then, the size and position of the face element are estimated from the metadata of each extracted face element.

b-3) 다음, 상기 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출한다.b-3) Next, the change state of the facial element is detected by applying the size and position of each estimated facial element.

b-4) 그리고 나서, 상기 검출된 얼굴 요소 변화 상태에 매칭된 고객 감정 상태를 검출한다.b-4) Then, the customer emotional state matching the detected facial element change state is detected.

상기 얼굴 추출(b-1))은 예를 들어 아래와 같이 이루어진다.The face extraction (b-1)) is performed, for example, as follows.

b-1-1) 즉, 상기 얼굴 추출(b-1))은 먼저 각 얼굴 요소의 영역과, 시간 데이터를 포함한 각 얼굴 요소의 메타데이터에 의해 데이터 분포를 작성하고 영상 내에서 각 얼굴 요소의 활동영역을 특정화하여 감시 여부를 설정해서 빅데이터 패턴을 분석한다.b-1-1) That is, the face extraction (b-1)) first creates a data distribution based on the area of each face element and the metadata of each face element including time data, and then creates a data distribution of each face element in the image. Analyze big data patterns by specifying the activity area and setting whether to monitor it.

b-1-2) 그리고, 상기 빅데이터 패턴의 분석 결과로부터 미리 설정된 각 얼굴 요소의 형상특징을 적용하여 각 얼굴 요소를 분류한다.b-1-2) Then, each facial element is classified by applying the shape characteristics of each facial element preset from the analysis results of the big data pattern.

또는, 상기 얼굴 추출(b-1))은 다른 예로서 아래의 동작을 수행한다.Alternatively, the face extraction (b-1)) performs the following operation as another example.

b-1-1') 먼저 상기 얼굴 추출(b-1))은 상기 얼굴의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D얼굴 영역분할을 위한 딥러닝 학습을 통해 얼굴 영역에 관한 딥러닝 파라미터를 산출하여 얼굴2D영역분할 딥러닝 모델을 구축한다.b-1-1') First, the face extraction (b-1)) is performed on the face area through deep learning learning for 2D face area segmentation from only a plurality of different RGB images in advance before segmenting the face area. Calculate deep learning parameters to build a deep learning model for facial 2D region segmentation.

이러한 경우, 상기 얼굴2D영역분할 딥러닝 모델은 미리 다수의 상이한 RGB영상으로부터의 2D얼굴 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D얼굴 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 얼굴2D영역분할 딥러닝 모델로 된다.In this case, the facial 2D region segmentation deep learning model generates a binary mask by extracting representative thresholds for each 2D face region through mask R-CNN type deep learning learning for 2D face region segmentation from multiple different RGB images in advance. By doing so, it becomes a mask R-CNN based face 2D region segmentation deep learning model.

b-1-2') 그리고, RGB-D카메라로부터의 RGB영상으로부터 얼굴2D영역분할을 상기 얼굴2D영역분할 딥러닝 모델에 의해 수행한다.b-1-2') Then, face 2D region segmentation is performed from the RGB image from the RGB-D camera using the face 2D region segmentation deep learning model.

b-1-3') 다음, 상기 얼굴2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이데이터 간에 논리적 AND를 수행함으로써, 얼굴의 깊이 정보를 획득한다.b-1-3') Next, depth information of the face is obtained by performing a logical AND between the face 2D region segmentation result and the depth data from the RGB-D camera.

b-1-4') 그리고 나서, 상기 얼굴의 깊이 정보에 원근변환을 적용하여 얼굴의 3D객체영역분할을 수행함으로써, 얼굴의 xyz와 RGB 정보를 획득할 수 있도록 한다.b-1-4') Then, perspective transformation is applied to the depth information of the face to perform 3D object region segmentation of the face, so that xyz and RGB information of the face can be obtained.

b-1-5') 그래서, 상기 획득된 얼굴의 xyz와 RGB 정보를 적용하여 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출한다.b-1-5') Therefore, metadata of each face element is extracted for each face element by applying the xyz and RGB information of the obtained face.

부가적으로, 상기 얼굴2D영역분할 딥러닝 모델 구축(b-1-1')은 아래와 같이 이루어진다.Additionally, the facial 2D region segmentation deep learning model construction (b-1-1') is performed as follows.

b-1-1'-1) 먼저, 상기 얼굴2D영역분할 딥러닝 모델 구축(b-1-1')은 관람객에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집한다.b-1-1'-1) First, the facial 2D region segmentation deep learning model construction (b-1-1') collects only RGB images of visitors through an RGB-D camera.

b-1-1'-2) 그리고, 상기 RGB 영상 내의 얼굴 영역을 미리 정의하여 표시하고 그 얼굴의 종류를 지정함으로써, 학습용 데이터를 만든다.b-1-1'-2) Then, the face area in the RGB image is predefined and displayed, and the type of face is specified to create learning data.

b-1-1'-3) 다음, 상기 학습용 데이터에 미리 설정된 얼굴분할 딥러닝 모델을 적용해서 얼굴의 영역만을 분할한다.b-1-1'-3) Next, a preset face segmentation deep learning model is applied to the learning data to segment only the face area.

b-1-1'-4) 그리고 나서, 상기 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D얼굴 영역분할을 위한 딥러닝 모델에 적용해서 학습한다.b-1-1'-4) Then, the dataset resulting from the above segmentation results is applied to a deep learning model for preset 2D face region segmentation and learned.

b-1-1'-5) 그리고, 상기 학습 결과로부터 얼굴 영역에 관한 딥러닝 파라미터를 산출한다.b-1-1'-5) Then, deep learning parameters for the face area are calculated from the learning results.

b-1-1'-6) 그래서, 상기 얼굴 영역에 관한 딥러닝 파라미터로부터 얼굴2D영역분할 딥러닝 모델을 구축한다.b-1-1'-6) Therefore, a facial 2D region segmentation deep learning model is constructed from the deep learning parameters related to the face region.

300 : 전시회 서비스 제공 정보처리장치
301 : 모션센서 302 : 촬영 수단
303 : 프로파일 데이터베이스부 304 : 컨텐츠 데이터베이스부
305 : 제어부 306: 디스플레이부
307 : 출력 수단
400 : 작가 단말기
410, 510 : 관리 정보처리장치
420 : 업체
520 : 업체 단말기
300: Exhibition service provision information processing device
301: Motion sensor 302: Filming means
303: Profile database unit 304: Content database unit
305: control unit 306: display unit
307: output means
400: Writer terminal
410, 510: Management information processing device
420: Company
520: Company terminal

Claims (12)

다수의 상이한 작가별로 가상작품영상 입력받거나 직접 제작하여 공급하는 작가 단말기;
상기 작가 단말기에 의해 공급된 가상작품영상을 작가와 갤러리별로 중개하고, 상기 가상작품영상에 대해서는 다수의 상이한 감정 상태와 아트별로 매칭해서 상이한 갤러리별로 분배하는 관리 정보처리장치; 및
상기 관리 정보처리장치에 의해 분배된 가상작품영상을 각 갤러리에서 가상현실화하여 전시하는 갤러리 단말기; 를 포함하고 있으며,
상기 갤러리 단말기는,
a) 상기 다수의 상이한 아트마다 해당하는 작품의 관람시에, 관람객 얼굴을 연속적으로 인식하고,
b) 상기 인식된 관람객 얼굴에서의 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출하고,
c) 상기 검출된 관람객 감정 상태별로 상이한 매칭된 가상작품영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출하며,
상기 관람객 감정 상태를 검출하는 것(b))은,
b-1) 상기 인식된 관람객 얼굴에서 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하고,
b-2) 상기 추출된 각 얼굴 요소의 메타데이터로부터 얼굴 요소의 크기와 위치를 추정하고,
b-3) 상기 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출하며,
b-4) 상기 검출된 얼굴 요소 변화 상태에 매칭된 관람객 감정 상태를 검출하는 것; 을 포함하는 것을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템
An artist terminal that receives virtual work videos from multiple different artists or produces and supplies them directly;
a management information processing device that mediates the virtual work video supplied by the artist terminal for each artist and gallery, matches the virtual work video for each art with a plurality of different emotional states, and distributes the virtual work video to each different gallery; and
a gallery terminal that transforms the virtual work video distributed by the management information processing device into virtual reality and displays it in each gallery; It includes,
The gallery terminal is,
a) When viewing a work corresponding to each of the plurality of different works of art, the viewer's face is continuously recognized,
b) detecting the visitor's emotional state matched to the change state of facial elements in the recognized visitor's face,
c) A different matched virtual work video according to the detected emotional state of the visitor is produced around the corresponding work for each art,
Detecting the emotional state of the visitor (b)),
b-1) Extract metadata of each facial element from the recognized visitor's face for each facial element,
b-2) Estimate the size and location of the face element from the metadata of each extracted face element,
b-3) Detecting the change state of facial elements by applying the size and position of each estimated facial element,
b-4) detecting a visitor emotional state matched to the detected facial element change state; An art gallery implementation system using virtual reality, comprising:
청구항 1에 있어서,
상기 갤러리 단말기는,
d) 고객 단말기로부터 해당 모바일 앱을 통해 각 아트마다의 전시 주제별로 전시관 내에 각 인터랙티브 컨텐츠별 선택사양으로서 스토리의 발단과, 진행, 결론 상의 터닝 포인트 부분을 선택받고,
e) 상기 선택된 결과를 조합하여 영화로서 시스템적으로 연결시키고, 및
f) 상기 연출된 가상컨텐츠(관람객 얼굴과 가상컨텐츠 포함)를 해당하는 터닝 포인트 부분에 채우거나 미리 설정된 음향을 녹음하여 영화를 제작하는 것; 을 포함하는 것을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템.
In claim 1,
The gallery terminal is,
d) From the customer terminal, through the mobile app, the turning point in the beginning, progression, and conclusion of the story is selected as an option for each interactive content in the exhibition hall according to the exhibition theme of each art,
e) combining the selected results and systematically linking them into a movie, and
f) producing a movie by filling the corresponding turning point with the produced virtual content (including the audience's face and virtual content) or recording preset sound; An art gallery implementation system using virtual reality, comprising:
청구항 1에 있어서,
상기 b-1)은,
b-1-1) 각 얼굴 요소의 영역과, 시간 데이터를 포함한 각 얼굴 요소의 메타데이터에 의해 데이터 분포를 작성하고 영상 내에서 각 얼굴 요소의 활동영역을 특정화하여 감시 여부를 설정해서 빅데이터 패턴을 분석하고, 및
b-1-2) 상기 빅데이터 패턴의 분석 결과로부터 미리 설정된 각 얼굴 요소의 형상특징을 적용하여 각 얼굴 요소를 분류하는 것; 을 포함하는 것을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템.
In claim 1,
In b-1) above,
b-1-1) Create a data distribution based on the area of each facial element and the metadata of each facial element including time data, specify the activity area of each facial element within the video, and set whether to monitor it to create a big data pattern. Analyze and
b-1-2) classifying each facial element by applying the shape characteristics of each facial element preset from the analysis results of the big data pattern; An art gallery implementation system using virtual reality, comprising:
청구항 1에 있어서,
상기 b-1)은,
b-1-1') 상기 얼굴의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D얼굴 영역분할을 위한 딥러닝 학습을 통해 얼굴 영역에 관한 딥러닝 파라미터를 산출하여 얼굴2D영역분할 딥러닝 모델을 구축하고,
b-1-2') RGB-D카메라로부터의 RGB영상으로부터 얼굴2D영역분할을 상기 얼굴2D영역분할 딥러닝 모델에 의해 수행하고,
b-1-3') 상기 얼굴2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 얼굴의 깊이 정보를 획득하며,
b-1-4') 상기 얼굴의 깊이 정보에 원근변환을 적용하여 얼굴의 3D객체영역분할을 수행함으로써, 얼굴의 xyz와 RGB 정보를 획득할 수 있도록 하고, 및
b-1-5') 상기 획득된 얼굴의 xyz와 RGB 정보를 적용하여 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하는 것; 을 포함하는 것을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템.
In claim 1,
In b-1) above,
b-1-1') Before segmenting the face area, deep learning parameters for the face area are calculated through deep learning learning for 2D face area segmentation from only a number of different RGB images in advance, and deep facial 2D area segmentation is performed. Build a learning model,
b-1-2') Perform face 2D region segmentation from the RGB image from the RGB-D camera using the face 2D region segmentation deep learning model,
b-1-3') Obtaining face depth information by performing logical AND between the face 2D region segmentation result and depth data from the RGB-D camera,
b-1-4') By applying perspective transformation to the depth information of the face to perform 3D object region segmentation of the face, xyz and RGB information of the face can be obtained, and
b-1-5') extracting metadata of each facial element by applying the xyz and RGB information of the acquired face; An art gallery implementation system using virtual reality, comprising:
청구항 4에 있어서,
상기 얼굴2D영역분할 딥러닝 모델은,
미리 다수의 상이한 RGB영상으로부터의 2D얼굴 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D얼굴 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 얼굴2D영역분할 딥러닝 모델로 된 것; 을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템.
In claim 4,
The facial 2D region segmentation deep learning model is,
Mask R-CNN-based face 2D region segmentation by generating a binary mask by extracting representative thresholds for each 2D face region through mask R-CNN type deep learning learning for 2D face region segmentation from multiple different RGB images in advance. with deep learning models; An art gallery implementation system using virtual reality featuring:
청구항 4에 있어서,
상기 b-1-1')은
b-1-1'-1) 관람객에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집하고,
b-1-1'-2) 상기 RGB 영상 내의 얼굴 영역을 미리 정의하여 표시하고 그 얼굴의 종류를 지정함으로써, 학습용 데이터를 만들고,
b-1-1'-3) 상기 학습용 데이터에 미리 설정된 얼굴분할 딥러닝 모델을 적용해서 얼굴의 영역만을 분할하며,
b-1-1'-4) 상기 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D얼굴 영역분할을 위한 딥러닝 모델에 적용해서 학습하고,
b-1-1'-5) 상기 학습 결과로부터 얼굴 영역에 관한 딥러닝 파라미터를 산출하고, 및
b-1-1'-6) 상기 얼굴 영역에 관한 딥러닝 파라미터로부터 얼굴2D영역분할 딥러닝 모델을 구축하는 것; 을 포함하는 것을 특징으로 하는 가상현실을 사용한 아트 갤러리 구현 시스템.
In claim 4,
The above b-1-1') is
b-1-1'-1) Collect only RGB images of visitors through RGB-D cameras,
b-1-1'-2) Create learning data by pre-defining and displaying the face area in the RGB image and specifying the type of the face,
b-1-1'-3) Apply a preset face segmentation deep learning model to the learning data to segment only the face area,
b-1-1'-4) Apply and learn the dataset resulting from the above segmentation results to a deep learning model for preset 2D face region segmentation,
b-1-1'-5) Calculate deep learning parameters for the face area from the learning results, and
b-1-1'-6) Constructing a face 2D region segmentation deep learning model from deep learning parameters related to the face region; An art gallery implementation system using virtual reality, comprising:
다수의 상이한 작가별로 가상작품영상을 입력받거나 직접 제작하여 공급하는 적어도 하나 이상의 작가 단말기;
상기 작가 단말기에 의해 공급된 각 가상작품영상을 통합적으로 제공받아 작가와 업체별로 중개해서 분류관리하고, 여러 위치에 분산된 각 업체별로 상이하게 분배하는 관리 정보처리장치; 및
상기 관리 정보처리장치에 의해 분배된 가상작품영상을 개별적으로 수급받아 각 업체 내의 미리 등록된 디지털 액자에 가상현실화하여 전시하는 적어도 하나 이상의 업체 단말기; 를 포함하고 있으며,
상기 관리 정보처리장치는,
a) 다수의 상이한 작가의 가상작품영상이 적어도 하나씩 포함되도록 가상작품영상을 그룹화하고,
b) 각 가상작품영상이 업체에 판매되어 수익을 얻고, 및
c) 상기 수익은 해당 가상작품영상의 작가에게 지급되는 제 1 수익, 상기 중개에 의해 지급되는 제 2 수익, 및 상기 제 1 수익과 제 2 수익을 제외한 제 3 수익으로 구분되고, 상기 제 3 수익에 대해서는 해당 작품그룹의 소속작가에게 배분하도록 정산하는 것; 을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
At least one artist terminal that receives virtual work videos from multiple different artists or produces and supplies them directly;
A management information processing device that receives each virtual work video provided by the artist terminal in an integrated manner, categorizes and manages them through mediation by artist and company, and distributes them differently to each company distributed in various locations; and
At least one company terminal that individually receives the virtual work images distributed by the management information processing device, virtualizes them and displays them in a pre-registered digital picture frame within each company; It includes,
The management information processing device,
a) Group virtual work videos to include at least one virtual work video from multiple different artists,
b) Each virtual work video is sold to a company to earn profit, and
c) The profit is divided into the first profit paid to the author of the virtual work video, the second profit paid by the brokerage, and the third profit excluding the first profit and the second profit, and the third profit Settlement for distribution to artists belonging to the relevant work group; A gallery implementation system using virtual work videos in a service company featuring .
청구항 7에 있어서,
상기 관리 정보처리장치는,
상기 작가 단말기에 의해 공급된 가상작품영상을 다수의 상이한 감정 상태와 아트별로 매칭하고,
상기 업체 단말기는,
a) 상기 디지털 액자에 의해 전시된 가상작품영상을 관람하는 고객의 얼굴을 연속적으로 인식하고,
b) 상기 인식된 고객얼굴에서의 얼굴 요소 변화 상태에 매칭된 고객 감정 상태를 검출하고,
c) 상기 검출된 고객 감정 상태별로 상이한 매칭된 가상작품영상을 각각의 아트마다 상이하게 해당하는 작품 주변에 연출하며,
상기 고객 감정 상태를 검출하는 것(b))은,
b-1) 상기 인식된 고객 얼굴에서 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하고,
b-2) 상기 추출된 각 얼굴 요소의 메타데이터로부터 얼굴 요소의 크기와 위치를 추정하고,
b-3) 상기 추정된 각 얼굴 요소의 크기와 위치를 적용하여 얼굴 요소 변화 상태를 검출하며,
b-4) 상기 검출된 얼굴 요소 변화 상태에 매칭된 고객 감정 상태를 검출하는 것; 을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
In claim 7,
The management information processing device,
Matching the virtual work video supplied by the artist terminal to a number of different emotional states and art,
The company's terminal is,
a) Continuously recognize the face of the customer viewing the virtual work video displayed by the digital picture frame,
b) detecting the customer emotional state matched to the change state of facial elements in the recognized customer face,
c) Different matched virtual work videos for each detected emotional state of the customer are displayed around the corresponding work for each art,
Detecting the customer emotional state (b)) is,
b-1) Extract metadata of each face element from the recognized customer face for each face element,
b-2) Estimate the size and location of the face element from the metadata of each extracted face element,
b-3) Detecting the change state of facial elements by applying the size and position of each estimated facial element,
b-4) detecting a customer emotional state matched to the detected facial element change state; A gallery implementation system using virtual work videos in a service company featuring .
청구항 8에 있어서,
상기 b-1)은,
b-1-1) 각 얼굴 요소의 영역과, 시간 데이터를 포함한 각 얼굴 요소의 메타데이터에 의해 데이터 분포를 작성하고 영상 내에서 각 얼굴 요소의 활동영역을 특정화하여 감시 여부를 설정해서 빅데이터 패턴을 분석하고, 및
b-1-2) 상기 빅데이터 패턴의 분석 결과로부터 미리 설정된 각 얼굴 요소의 형상특징을 적용하여 각 얼굴 요소를 분류하는 것; 을 포함하는 것을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
In claim 8,
In b-1) above,
b-1-1) Create a data distribution based on the area of each facial element and the metadata of each facial element including time data, specify the activity area of each facial element within the video, and set whether to monitor it to create a big data pattern. Analyze and
b-1-2) classifying each facial element by applying the shape characteristics of each facial element preset from the analysis results of the big data pattern; A gallery implementation system using virtual work videos in a service company, comprising:
청구항 8에 있어서,
상기 b-1)은,
b-1-1') 상기 얼굴의 영역을 분할하기 전에 미리 다수의 상이한 RGB영상만으로부터의 2D얼굴 영역분할을 위한 딥러닝 학습을 통해 얼굴 영역에 관한 딥러닝 파라미터를 산출하여 얼굴2D영역분할 딥러닝 모델을 구축하고,
b-1-2') RGB-D카메라로부터의 RGB영상으로부터 얼굴2D영역분할을 상기 얼굴2D영역분할 딥러닝 모델에 의해 수행하고,
b-1-3') 상기 얼굴2D영역분할 결과와, 상기 RGB-D카메라로부터의 깊이(Depth)데이터 간에 논리적 AND를 수행함으로써, 얼굴의 깊이 정보를 획득하며,
b-1-4') 상기 얼굴의 깊이 정보에 원근변환을 적용하여 얼굴의 3D객체영역분할을 수행함으로써, 얼굴의 xyz와 RGB 정보를 획득할 수 있도록 하고, 및
b-1-5') 상기 획득된 얼굴의 xyz와 RGB 정보를 적용하여 각 얼굴 요소의 메타데이터를 얼굴 요소별로 추출하는 것; 을 포함하는 것을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
In claim 8,
In b-1) above,
b-1-1') Before segmenting the face area, deep learning parameters for the face area are calculated through deep learning learning for 2D face area segmentation from only a number of different RGB images in advance, and deep facial 2D area segmentation is performed. Build a learning model,
b-1-2') Perform face 2D region segmentation from the RGB image from the RGB-D camera using the face 2D region segmentation deep learning model,
b-1-3') Obtaining face depth information by performing logical AND between the face 2D region segmentation result and depth data from the RGB-D camera,
b-1-4') By applying perspective transformation to the depth information of the face to perform 3D object region segmentation of the face, xyz and RGB information of the face can be obtained, and
b-1-5') extracting metadata of each facial element by applying the xyz and RGB information of the acquired face; A gallery implementation system using virtual work videos in a service company, comprising:
청구항 10에 있어서,
상기 얼굴2D영역분할 딥러닝 모델은,
미리 다수의 상이한 RGB영상으로부터의 2D얼굴 영역분할을 위한 마스크 R-CNN형 딥러닝 학습을 통해 2D얼굴 영역별로 대표 임계값을 추출하여 이진 마스크를 생성함으로써, 마스크 R-CNN 기반의 얼굴2D영역분할 딥러닝 모델로 된 것; 을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
In claim 10,
The facial 2D region segmentation deep learning model is,
Mask R-CNN-based face 2D region segmentation by generating a binary mask by extracting representative thresholds for each 2D face region through mask R-CNN type deep learning learning for 2D face region segmentation from multiple different RGB images in advance. with deep learning models; A gallery implementation system using virtual work videos in a service company featuring .
청구항 10에 있어서,
상기 b-1-1')은
b-1-1'-1) 관람객에 대해 RGB-D 카메라를 통해 RGB 영상만을 수집하고,
b-1-1'-2) 상기 RGB 영상 내의 얼굴 영역을 미리 정의하여 표시하고 그 얼굴의 종류를 지정함으로써, 학습용 데이터를 만들고,
b-1-1'-3) 상기 학습용 데이터에 미리 설정된 얼굴분할 딥러닝 모델을 적용해서 얼굴의 영역만을 분할하며,
b-1-1'-4) 상기 분할 결과를 통해 나온 데이터셋을 미리 설정된 2D얼굴 영역분할을 위한 딥러닝 모델에 적용해서 학습하고,
b-1-1'-5) 상기 학습 결과로부터 얼굴 영역에 관한 딥러닝 파라미터를 산출하고, 및
b-1-1'-6) 상기 얼굴 영역에 관한 딥러닝 파라미터로부터 얼굴2D영역분할 딥러닝 모델을 구축하는 것; 을 특징으로 하는 서비스업체에서의 가상작품영상을 이용한 갤러리 구현 시스템.
In claim 10,
The above b-1-1') is
b-1-1'-1) Collect only RGB images of visitors through RGB-D cameras,
b-1-1'-2) Create learning data by pre-defining and displaying the face area in the RGB image and specifying the type of the face,
b-1-1'-3) Apply a preset face segmentation deep learning model to the learning data to segment only the face area,
b-1-1'-4) Apply and learn the dataset resulting from the above segmentation results to a deep learning model for preset 2D face region segmentation,
b-1-1'-5) Calculate deep learning parameters for the face area from the learning results, and
b-1-1'-6) Constructing a face 2D region segmentation deep learning model from deep learning parameters related to the face region; A gallery implementation system using virtual work videos in a service company featuring .
KR1020200118085A 2020-09-15 2020-09-15 Solution for making of art gallery employing virtual reality KR102407493B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200118085A KR102407493B1 (en) 2020-09-15 2020-09-15 Solution for making of art gallery employing virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200118085A KR102407493B1 (en) 2020-09-15 2020-09-15 Solution for making of art gallery employing virtual reality

Publications (2)

Publication Number Publication Date
KR20220036016A true KR20220036016A (en) 2022-03-22
KR102407493B1 KR102407493B1 (en) 2022-06-13

Family

ID=80991994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200118085A KR102407493B1 (en) 2020-09-15 2020-09-15 Solution for making of art gallery employing virtual reality

Country Status (1)

Country Link
KR (1) KR102407493B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116069166A (en) * 2023-02-17 2023-05-05 内蒙古工业大学 Mongolian embroidery display system based on virtual reality technology

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044206A (en) 2022-09-28 2024-04-04 배재대학교 산학협력단 Virtual reality-based adaptation performance content experience system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011108A (en) * 2012-07-17 2014-01-28 정소헌 Method for electronic commerce with profit distribution based on buying area
KR20140019544A (en) * 2012-08-06 2014-02-17 경희대학교 산학협력단 Method for providing interactive exhibit service
KR101867343B1 (en) * 2017-02-16 2018-07-23 김동욱 Online art work commerce platform system and operating method using onlie gallery
KR20200063292A (en) * 2018-11-16 2020-06-05 광운대학교 산학협력단 Emotional recognition system and method based on face images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011108A (en) * 2012-07-17 2014-01-28 정소헌 Method for electronic commerce with profit distribution based on buying area
KR20140019544A (en) * 2012-08-06 2014-02-17 경희대학교 산학협력단 Method for providing interactive exhibit service
KR101867343B1 (en) * 2017-02-16 2018-07-23 김동욱 Online art work commerce platform system and operating method using onlie gallery
KR20200063292A (en) * 2018-11-16 2020-06-05 광운대학교 산학협력단 Emotional recognition system and method based on face images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116069166A (en) * 2023-02-17 2023-05-05 内蒙古工业大学 Mongolian embroidery display system based on virtual reality technology

Also Published As

Publication number Publication date
KR102407493B1 (en) 2022-06-13

Similar Documents

Publication Publication Date Title
Pavlik et al. The emergence of augmented reality (AR) as a storytelling medium in journalism
CN103620600B (en) Method and apparatus for enabling virtual tags
WO2019171128A1 (en) In-media and with controls advertisement, ephemeral, actionable and multi page photo filters on photo, automated integration of external contents, automated feed scrolling, template based advertisement post and actions and reaction controls on recognized objects in photo or video
US20090327073A1 (en) Intelligent advertising display
US20140079281A1 (en) Augmented reality creation and consumption
CN110390048A (en) Information-pushing method, device, equipment and storage medium based on big data analysis
CN107924414A (en) Promote to carry out multimedia integration at computing device and the personal of story generation aids in
US20130188063A1 (en) Interactive photo booth and associated systems and methods
CN102893327A (en) Intuitive computing methods and systems
US20160035016A1 (en) Method for experiencing multi-dimensional content in a virtual reality environment
TWI795762B (en) Method and electronic equipment for superimposing live broadcast character images in real scenes
KR102407493B1 (en) Solution for making of art gallery employing virtual reality
CN110446093A (en) A kind of video progress bar display methods, device and storage medium
WO2024077909A1 (en) Video-based interaction method and apparatus, computer device, and storage medium
CN116319862A (en) System and method for intelligently matching digital libraries
KR102191788B1 (en) Cyber gallery system capable of the design of the exhibition space and the control method
KR102346137B1 (en) System for providing local cultural resources guidnace service using global positioning system based augmented reality contents
Styliaras et al. The MuseLearn platform: Personalized content for museum visitors assisted by vision-based recognition and 3D pose estimation of exhibits
JP7063264B2 (en) Information processing systems, recording media, information processing methods, and programs
Chen et al. [Retracted] Research on Museum Educational Display Based on Image Recognition Tracking
Bodini et al. Using immersive technologies to facilitate location scouting in audiovisual media production: a user requirements study and proposed framework
US20200175762A1 (en) Method for making a content sensitive video
Kutnicki Wayfinding media and neutralizing control at the shopping mall
KR102598321B1 (en) Digital exhibition platform system for social museum service
Alt A design space for pervasive advertising on public displays

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant