KR102529170B1 - Art wall system - Google Patents
Art wall system Download PDFInfo
- Publication number
- KR102529170B1 KR102529170B1 KR1020220142052A KR20220142052A KR102529170B1 KR 102529170 B1 KR102529170 B1 KR 102529170B1 KR 1020220142052 A KR1020220142052 A KR 1020220142052A KR 20220142052 A KR20220142052 A KR 20220142052A KR 102529170 B1 KR102529170 B1 KR 102529170B1
- Authority
- KR
- South Korea
- Prior art keywords
- projector
- image
- content
- control unit
- exhibition hall
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41415—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/458—Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4621—Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurosurgery (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명은 아트월 시스템에 관한 것으로, 더욱 상세하게는, 전시관의 아트월 종류에 따라 변환된 맞춤형 영상을 효율적으로 제공할 수 있는 아트월 시스템에 관한 것이다. 이를 위해, 아트월 시스템은 관리자로부터 전시관정보를 입력받는 입력부, 상기 전시관정보에 기초하여, 기수집된 복수의 오픈소스 영상들로부터 적어도 하나의 오픈소스 영상을 추출하는 추출부, 상기 적어도 하나의 오픈소스 영상을 이용하여, 아트월출력용 미디어파일을 생성하는 콘텐츠 생성부, 상기 전시관정보로부터 확인되는 아트월 사이즈에 기초하여, 상기 아트월출력용 미디어파일을 프로젝션 맵핑 프로그램을 통해 프로젝터용 콘텐츠로 변환하는 변환부 및 상기 전시관정보로부터 확인되는 전시관의 아트월 종류에 따라 배치된 복수개의 출력수단들을 통해 프로젝터용 콘텐츠를 음성 및 영상데이터로 분리하여 출력시키는 출력제어부를 포함한다.The present invention relates to an art wall system, and more particularly, to an art wall system capable of efficiently providing customized images converted according to the type of art wall of an exhibition hall. To this end, the art wall system includes an input unit for receiving exhibition hall information from a manager, an extraction unit for extracting at least one open source video from a plurality of pre-collected open source videos based on the exhibition hall information, and the at least one open source video. A content creation unit that generates a media file for art wall output using a source image, and conversion that converts the media file for art wall output into projector content through a projection mapping program based on the art wall size identified from the exhibition hall information. and an output control unit that separates and outputs projector content into audio and video data through a plurality of output means arranged according to the type of art wall of the exhibition hall identified from the exhibition hall information.
Description
본 발명은 아트월 시스템에 관한 것으로, 더욱 상세하게는, 전시관의 아트월 종류에 따라 변환된 맞춤형 영상을 효율적으로 제공할 수 있는 아트월 시스템에 관한 것이다.The present invention relates to an art wall system, and more particularly, to an art wall system capable of efficiently providing customized images converted according to the type of art wall of an exhibition hall.
일반적으로, 명화 등을 감상할 수 있는 미술관은 회화를 액자에 넣어 벽에 걸어 전시하여 관람객들이 전시된 회화를 감상할 수 있도록 하는 공간이다. 통상의 미술관은 회화에 집중 조명을 제공하거나, 최대한 조용한 환경을 제공하여 관람객들에게 미술 감상에 최적화된 환경을 제공하고 있다.In general, an art museum where famous paintings can be appreciated is a space where paintings are framed and hung on a wall to be displayed so that visitors can appreciate the displayed paintings. Ordinary art museums provide an environment optimized for art appreciation to visitors by providing intensive lighting to paintings or providing a quiet environment as much as possible.
나아가 최근에는 미술품 액자 형태가 아니라 미디어 아트 영상을 제공하는 미디어 아트 전시관이 이용되고 있다. 영상과 같은 미디어 아트는 프로그램에 의해 실시간으로 생성되는 다양한 그래픽적 요소를 실시간 렌더링을 통해서 생성시키는 형태로 만들어진다. 파티클, 이미지, 3D 모델 등 다양한 형태의 그래픽 소소를 수학적 계산에 의해서 새로운 형태의 그래픽으로 변환하는 과정을 거친다.Furthermore, recently, media art exhibition halls that provide media art images are being used instead of art frames. Media art such as video is created in the form of creating various graphic elements generated in real time by a program through real-time rendering. It goes through a process of converting various types of graphic elements such as particles, images, and 3D models into new types of graphics through mathematical calculations.
그런데 이와 같은 미디어 아트를 생성하기 위해 상당한 양의 계산이 요구되기 때문에 미디어 아트 생성 프로그램은 코딩 방식이 복잡하여 전문가 이외의 사용자는 그 사용이 어려워 미디어 아트에 쉽게 접근할 수 없는 문제점을 가진다.However, since a considerable amount of calculation is required to create such media art, the media art creation program has a complicated coding method, and users other than experts cannot easily access the media art because it is difficult to use it.
또한 기존의 미디어 아트 전시관의 경우, 어둡고 한정된 공간, 환경과 시간의 제약, 고가의 시스템, 비싼 전시 체험 가격, 어려운 접근성, 변형된 작품의 이질감, 취약한 대중성, 한정된 시장성이라는 단점을 가지고 있다.In addition, existing media art exhibition halls have disadvantages such as dark and limited space, environment and time constraints, expensive systems, expensive exhibition experience prices, difficult accessibility, heterogeneity of transformed works, weak popularity, and limited marketability.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 전시관의 아트월 종류 및 사이즈에 따라 변환된 맞춤형 영상을 효율적으로 출력할 수 있는 아트월 시스템을 제공하기 위한 것이다. The present invention is to solve the above problems, and an object of the present invention is to provide an art wall system capable of efficiently outputting customized images converted according to the type and size of the art wall of an exhibition hall.
또한, 관람객정보에 따라 프로젝터용 콘텐츠를 흥미유발 음향 및 영상으로 신속하게 교체할 수 있는 아트월 시스템을 제공하기 위한 것이다. In addition, it is to provide an art wall system that can quickly replace projector contents with interesting sound and image according to visitor information.
또한, 복수의 관람객들과 전시관의 아트월 간의 이격평균거리의 변화에 기초하여, 아트월에 출력되는 프로젝터용 콘텐츠에 대한 확대 및 축소 비율을 자동으로 조절할 수 있는 아트월 시스템을 제공하기 위한 것이다. In addition, based on a change in the average separation distance between a plurality of visitors and the art wall of the exhibition hall, it is to provide an art wall system capable of automatically adjusting the enlargement and reduction ratios for projector contents output on the art wall.
본 발명의 상기 및 다른 목적과 이점은 바람직한 실시예를 설명한 하기의 설명으로부터 분명해질 것이다.The above and other objects and advantages of the present invention will become apparent from the following description of preferred embodiments.
상기와 같은 목적을 달성하기 위한 본 발명의 일실시예에 따른 아트월 시스템은 관리자로부터 전시관정보를 입력받는 입력부, 상기 전시관정보에 기초하여, 기수집된 복수의 오픈소스 영상들로부터 적어도 하나의 오픈소스 영상을 추출하는 추출부, 상기 적어도 하나의 오픈소스 영상을 이용하여, 아트월출력용 미디어파일을 생성하는 콘텐츠 생성부, 상기 전시관정보로부터 확인되는 아트월 사이즈에 기초하여, 상기 아트월출력용 미디어파일을 프로젝션 맵핑 프로그램을 통해 프로젝터용 콘텐츠로 변환하는 변환부 및 상기 전시관정보로부터 확인되는 전시관의 아트월 종류에 따라 배치된 복수개의 출력수단들을 통해 프로젝터용 콘텐츠를 음성 및 영상데이터로 분리하여 출력시키는 출력제어부를 포함한다. In order to achieve the above object, the art wall system according to an embodiment of the present invention includes an input unit for receiving exhibition hall information from a manager, and at least one open source image from a plurality of pre-collected open source images based on the exhibition hall information. An extraction unit that extracts a source image, a content generator that generates a media file for art wall output using the at least one open source image, and a media file for art wall output based on the art wall size checked from the exhibition hall information. Output that separates and outputs the contents for the projector into audio and video data through a conversion unit that converts the contents for the projector through a projection mapping program and a plurality of output means arranged according to the type of the art wall of the exhibition hall identified from the exhibition hall information. includes a control unit.
실시예에 있어서, 상기 출력제어부에 연결되어 전시관 내에 배치되고, 상기 프로젝터용 콘텐츠를 관람하는 관람객을 주기적으로 촬영함에 따라 획득된 관람객이미지를 상기 출력제어부로 제공하는 카메라부를 더 포함하고, 상기 출력제어부는 상기 관람객이미지로부터 검출된 기설정된 관람객수에 따라, 상기 프로젝터용 콘텐츠를 일정시간 중지하는 동안 일정비율 이상의 객체정보에 대응되는 기등록된 흥미유발 음향 및 영상을 상기 출력수단들을 통해 출력시킨다. In an embodiment, a camera unit connected to the output control unit and disposed in an exhibition hall, and providing a visitor image obtained by periodically photographing a visitor viewing the contents for the projector to the output control unit, wherein the output control unit outputs pre-registered interest-inducing sound and image corresponding to object information of a certain ratio or more through the output means while the contents for the projector are stopped for a certain period of time according to the preset number of visitors detected from the visitor image.
실시예에 있어서, 상기 출력제어부는 상기 관람객이미지로부터 검출된 기설정된 관람객수에 따라, 상기 프로젝터용 콘텐츠에 대한 출력을 일정시간 중지하는 동안 일정비율 이상의 객체정보에 대응되는 기등록된 흥미유발 음향 및 영상을 출력시킨다. In an embodiment, the output control unit according to the preset number of visitors detected from the visitor image, pre-registered interest-inducing sound corresponding to object information of a certain ratio or more while stopping the output of the contents for the projector for a certain period of time, and output the video.
실시예에 있어서, 상기 출력제어부는 상기 관람객이미지로부터 확인된 일정영역에 위치한 특정 객체의 특정 동작에 기초하여, 상기 특정 동작에 대응되는 피드백 효과 음성을 프로젝터용 콘텐츠에 할당하여 출력시킨다. In an embodiment, the output control unit allocates and outputs a feedback effect sound corresponding to the specific motion to projector contents based on a specific motion of a specific object located in a certain area confirmed from the viewer image.
실시예에 있어서, 상기 출력제어부는 상기 관람객이미지로부터 확인된 복수의 관람객들과 전시관의 아트월 간의 이격평균거리의 변화에 기초하여, 상기 프로젝터용 콘텐츠에 대한 확대 및 축소 비율을 자동으로 조절한다. In an embodiment, the output control unit automatically adjusts the enlargement and reduction ratio of the contents for the projector based on the change in the average separation distance between the plurality of visitors identified from the visitor image and the art wall of the exhibition hall.
실시예에 있어서, 상기 출력제어부와 통신가능하게 연결되어 전시관에 일정거리마다 배치되고, 일정영역에 위치한 관람객의 생체신호를 측정하는 제1 복수의 센서들 및 상기 전시관에 일정거리마다 배치되어 상기 전시관의 환경 상태를 구역별로 센싱하는 제2 복수의 센서들을 더 포함하고, 상기 출력제어부는 상기 제1 복수의 센서들을 통해 측정된 생체신호에 기초하여, 상기 프로젝터용 콘텐츠의 파라미터를 자동으로 조절하고, 상기 파라미터는 컨텐츠의 볼륨, 음높낮이, 재생 속도, 소리의 풍성함, 깊이, 울림, 굵기, 떨림, 실감 효과, 서라운드 효과, 공간감, 화음, 코드 및 반주, 디스플레이에서의 표시 영역, 디스플레이의 색채, 채도, 명암, 대비, 투명도, 초점, 전원, 전력 소모량, 컨텐츠의 종류 중 적어도 하나를 포함한다. In the embodiment, the first plurality of sensors are communicatively connected to the output control unit, are disposed at regular distances in the exhibition hall, and measure the bio-signals of visitors located in a predetermined area, and are disposed at regular distances in the exhibition hall. Further comprising a second plurality of sensors for sensing the environmental state of each zone, wherein the output control unit automatically adjusts parameters of the content for the projector based on bio signals measured through the first plurality of sensors, The above parameters include content volume, pitch, playback speed, richness of sound, depth, resonance, thickness, vibration, immersive effect, surround effect, sense of space, chord, chord and accompaniment, display area on the display, color of the display, and saturation. , Contrast, transparency, focus, power, power consumption, and at least one of the type of content.
실시예에 있어서, 상기 생성부는 상기 아트월출력용 미디어파일을 생성할 때, 상기 적어도 하나의 오픈소스 영상의 특정 출력화면영역에서 분석되는 파라미터에 기초하여, 상기 적어도 하나의 오픈소스 영상에 대한 출력 순서를 순차적으로 정렬시킨다. In an embodiment, when the generating unit generates the media file for outputting the art wall, an output order of the at least one open source video is based on a parameter analyzed in a specific output screen area of the at least one open source video. sort sequentially.
실시예에 있어서, 상기 출력제어부는 해당 관람객의 생체신호가 기설정된 값 미만일 때, 상기 프로젝터용 콘텐츠에 할당되는 반응형 콘텐츠를 출력함에 따라 마이크를 통해 획득된 응답정보에 기초하여, 단계별 분위기 상태를 결정하고, 상기 단계별 분위기 상태가 기설정된 단계 미만인 경우, 상기 프로젝터용 콘텐츠를 일시정지시키고 심리안정을 유도하는 힐링 콘텐츠 영상을 대체하여 출력하며, 상기 단계별 분위기 상태가 기설정된 단계 이상인 경우, 상기 카메라부를 통해 촬영되는 관람객영상과 상기 마이크를 통해 인식된 음성을 프로젝터용 콘텐츠에 오버레이 형태로 합성하여 출력시킨다. In an embodiment, the output control unit outputs the responsive content assigned to the content for the projector when the biosignal of the viewer is less than a preset value, and based on response information obtained through the microphone, the atmosphere state for each stage. and, when the atmospheric condition for each level is less than a predetermined level, the contents for the projector are temporarily paused and a healing content image for inducing psychological stability is replaced and output, and when the atmospheric condition for each level is greater than or equal to a predetermined level, the camera unit The image of the viewer captured through the camera and the voice recognized through the microphone are synthesized and output in the form of an overlay on the contents for the projector.
실시예에 있어서, 저작권이 부여된 영상 콘텐츠와 유해 콘텐츠로부터 랜덤하게 추출되는 진단용 프레임들을 분류하여 수집하는 프레임수집부, 상기 진단용 프레임들을 머신러닝을 통해 학습하여 인공지능 기반의 제거영상 진단모델을 학습하는 학습부, 상기 프로젝터용 콘텐츠로부터 순차적으로 검출되는 오프소스 영상별 프레임들을 제거영상 진단모델에 적용함에 따라 도출되는 출력값에 기초하여, 각 오프소스 영상에 대한 제거 여부를 판단하는 판단부 및 각 오프소스 영상 중 어느 하나의 오픈소스 영상이 제거로 판단된 경우, 상기 프로젝터용 콘텐츠로부터 상기 어느 하나의 오픈소스 영상을 제거하는 동시에 상기 힐링 콘텐츠 영상을 상기 프로젝터용 콘텐츠에 삽입하는 전처리부를 포함한다. In an embodiment, a frame collection unit that classifies and collects diagnostic frames randomly extracted from copyrighted image content and harmful content, and learns the diagnostic frames through machine learning to learn an artificial intelligence-based diagnostic model for removed images. a learning unit that determines whether or not to remove each open-source image based on output values derived by applying the frames for each open-source image sequentially detected from the contents for the projector to the removed image diagnostic model; and When it is determined that any one open source image among the source images is to be removed, a pre-processing unit is included to remove the one open source image from the projector content and at the same time insert the healing content image into the projector content.
본 발명의 실시예에 따르면, 전시관의 아트월 종류 및 사이즈에 따라 변환된 맞춤형 영상을 효율적으로 출력함으로써, 다양한 전시관에서 디지털 아트영상을 용이하게 구현할 수 있게 한다. According to an embodiment of the present invention, it is possible to easily implement digital art images in various exhibition halls by efficiently outputting customized images converted according to the type and size of the art wall of the exhibition hall.
또한, 관람객정보에 따라 프로젝터용 콘텐츠를 흥미유발 음향 및 영상으로 신속하게 교체함으로써, 디지털 아트영상에 대한 흥미를 고조시킬 수 있다. In addition, interest in digital art images can be heightened by promptly replacing projector contents with interest-inducing sound and image according to visitor information.
또한, 프로젝터용 콘텐츠에 대한 확대 및 축소 비율을 자동으로 조절함으로써, 보다 쉽게 관람할 수 있는 환경을 제공할 수 있다. In addition, by automatically adjusting the enlargement and reduction ratios of the contents for the projector, it is possible to provide an environment in which users can view more easily.
도 1은 본 발명의 일실시예에 따른 아트월 시스템(1000)을 개략적으로 나타내는 도이다.
도 2(A)와 도 2(B)는 도 1의 아트월 시스템(1000)이 전시관에 실시된 예를 나타낸다.
도 3은 본 발명의 다른 실시예에 따른 아트월 시스템(1000_1)을 개략적으로 나타내는 도이다.
도 4는 본 발명의 또 다른 실시예에 따른 아트월 시스템(1000_2)을 개략적으로 나타내는 도이다.
도 5는 도 3의 출력제어부(500)를 구체적으로 나타내는 블록도이다. 1 is a diagram schematically illustrating an
2(A) and 2(B) show an example in which the
3 is a diagram schematically illustrating an art wall system 1000_1 according to another embodiment of the present invention.
4 is a diagram schematically illustrating an art wall system 1000_2 according to another embodiment of the present invention.
FIG. 5 is a block diagram showing the
이하, 본 발명의 실시예와 도면을 참조하여 본 발명을 상세히 설명한다. 이들 실시예는 오로지 본 발명을 보다 구체적으로 설명하기 위해 예시적으로 제시한 것일 뿐, 본 발명의 범위가 이들 실시예에 의해 제한되지 않는다는 것은 당업계에서 통상의 지식을 가지는 자에 있어서 자명할 것이다.Hereinafter, the present invention will be described in detail with reference to embodiments and drawings of the present invention. These examples are only presented as examples to explain the present invention in more detail, and it will be apparent to those skilled in the art that the scope of the present invention is not limited by these examples. .
또한, 달리 정의하지 않는 한, 본 명세서에서 사용되는 모든 기술적 및 과학적 용어는 본 발명이 속하는 기술 분야의 숙련자에 의해 통상적으로 이해되는 바와 동일한 의미를 가지며, 상충되는 경우에는, 정의를 포함하는 본 명세서의 기재가 우선할 것이다.In addition, unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of skill in the art to which this invention belongs, and in case of conflict, this specification including definitions of will take precedence.
도면에서 제안된 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 그리고, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에서 기술한 "부"란, 특정 기능을 수행하는 하나의 단위 또는 블록을 의미한다.In order to clearly explain the proposed invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification. And, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated. Also, a “unit” described in the specification means one unit or block that performs a specific function.
각 단계들에 있어 식별부호(제1, 제2, 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 실시될 수도 있고 실질적으로 동시에 실시될 수도 있으며 반대의 순서대로 실시될 수도 있다.In each step, the identification code (first, second, etc.) is used for convenience of description, and the identification code does not describe the order of each step, and each step does not clearly describe a specific order in context. It may be performed differently from the order specified above. That is, each step may be performed in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
도 1은 본 발명의 일실시예에 따른 아트월 시스템(1000)을 개략적으로 나타내는 도이고, 도 2(A)와 도 2(B)는 도 1의 아트월 시스템(1000)이 전시관에 실시된 예를 나타낸다. 1 is a diagram schematically showing an
도 1 내지 도 2(B)를 참조하여 설명하면, 아트월 시스템(1000)은 입력부(100), 추출부(200), 생성부(300), 변환부(400) 및 출력제어부(500)를 포함할 수 있다. 1 to 2(B), the
먼저, 입력부(100)는 관리자로부터 전시관정보를 입력받을 수 있다. First, the
여기서, 전시관정보는 시연장소와 시연시간을 포함한 운영정보와 아트월 사이즈나 형상을 포함한 설비정보를 포함할 수 있다.Here, the exhibition hall information may include operation information including a demonstration place and demonstration time, and facility information including an art wall size or shape.
실시예에 따라, 입력부(100)는 관리자단말(10)로부터 관리자 서비스를 통해 전시관정보를 이미지로 업로드받을 때, 이미지에서 텍스트를 인식하는 이미지-텍스트 인식 모듈을 더 포함할 수 있다. 예를 들면, 관리자 서비스는 기등록된 관리자단말(10)에 제공되어 설치된 앱 또는 프로그램일 수 있다. According to the embodiment, the
다음으로, 추출부(200)는 입력부(100)를 통해 입력받는 전시관정보에 기초하여, 기수집된 복수의 오픈소스 영상들로부터 적어도 하나의 오픈소스 영상을 추출할 수 있다.Next, the
이러한 추출부(200)는 복수의 오픈소스 영상들을 수집할 때, 전시관정보에 따라 카테고리별로 사전에 분류하여 저장장치에 저장 및 등록할 수 있다. When collecting a plurality of open source images, the
다음으로, 생성부(300)는 추출부(200)를 통해 추출된 적어도 하나의 오픈소스 영상을 이용하여, 아트월출력용 미디어파일을 생성할 수 있다. Next, the
여기서, 아트월출력용 미디어파일은 적어도 하나의 오픈소스 영상이 기설정된 해상도로 편집되고, 기설정된 프로젝트가 지원하는 파일포맷으로 변환된 영상콘텐츠일 수 있다. Here, the media file for art wall output may be video content in which at least one open source video is edited at a preset resolution and converted into a file format supported by a preset project.
실시예에 따라, 생성부(300)는 아트월출력용 미디어파일을 생성할 때, 추출부(200)를 통해 추출된 적어도 하나의 오픈소스 영상의 특정 출력화면영역에서 분석되는 파라미터에 기초하여, 적어도 하나의 오픈소스 영상에 대한 출력 순서를 순차적으로 정렬시킬 수 있다.Depending on the embodiment, when generating a media file for art wall output, the
여기서, 파라미터는 컨텐츠의 볼륨, 음높낮이, 재생 속도, 소리의 풍성함, 깊이, 울림, 굵기, 떨림, 실감 효과, 서라운드 효과, 공간감, 화음, 코드 및 반주, 디스플레이에서의 표시 영역, 디스플레이의 색채, 채도, 명암, 대비, 투명도, 초점, 전원, 전력 소모량, 컨텐츠의 종류 중 적어도 하나를 포함할 수 있다. Here, the parameters include content volume, pitch, playback speed, richness of sound, depth, echo, thickness, vibration, realistic effect, surround effect, sense of space, chord, chord and accompaniment, display area on the display, display color, It may include at least one of saturation, brightness, contrast, transparency, focus, power, power consumption, and type of content.
예를 들면, 생성부(300)는 추출부(200)를 통해 추출된 적어도 하나의 오픈소스 영상에서 분석되는 특정 출력화면영역에서 분석되는 명암값 크기에 따라, 적어도 하나의 오픈소스 영상에 대한 출력 순서를 순차적으로 정렬시킬 수 있다. For example, the
다음으로, 변환부(400)는 전시관정보로부터 확인되는 아트월 사이즈에 기초하여, 생성부(300)를 통해 생성되는 아트월출력용 미디어파일을 프로젝션 맵핑 프로그램을 통해 프로젝터용 콘텐츠로 변환할 수 있다. Next, the
여기서, 프로젝터용 콘텐츠는 아트월출력용 미디어파일과 다른 해상도와 다른 영상 포맷일 수 있다. 이때, 프로젝션 맵핑 프로그램은 매드매퍼일 수 있다. Here, the content for the projector may have a different resolution and an image format different from the media file for art wall output. In this case, the projection mapping program may be Mad Mapper.
예를 들면, 도 2(A)와 도 (B)에 도시된 바와 같이, 아트월(20)은 상담실, 수술 대기실, VIP 입원실, 산후 조리원, 시술실, 레스토랑 룸, VIP 클럽 하우스 등의 다양한 장소에 구비된 벽, 디지털 액자 또는 스크린을 의미하는 것으로, 아트월 사이즈는 전시관마다 서로 다른 사이즈와 형태로 형성될 수 있다. For example, as shown in FIG. 2(A) and FIG. It means a wall, digital picture frame or screen provided in, and the size of the art wall can be formed in different sizes and shapes for each exhibition hall.
다음으로, 출력제어부(500)는 전시관정보로부터 확인되는 전시관의 아트월 종류에 따라 배치된 복수개의 출력수단들(50_1~50_N)을 통해 프로젝터용 콘텐츠를 음성 및 영상으로 분리하여 출력시킬 수 있다. Next, the
예를 들면, 출력수단들(50_1~50_N)은 영상출력을 위한 프로젝터들, 음향출력을 위한 스피커들 및 보조 영상출력을 위한 조명들을 포함하고, 해당 전시관에 배치되어 아트월 시스템(1000)에 유선 또는 무선으로 연결될 수 있다. For example, the output means (50_1 to 50_N) include projectors for image output, speakers for sound output, and lights for auxiliary image output, and are disposed in the corresponding exhibition hall and wired to the
실시예에 따라, 출력제어부(500)는 프로젝터용 콘텐츠의 개수에 기초하여, 동영상 공유 플랫폼 예컨대, 유튜브, 데일리모션, 트위치, 아프리카TV, 틱톡, 키노라이츠 등에 공유되는 영상을 전송받아 복수개의 출력수단들(50_1~50_N)을 통해 출력시킬 수 있다. Depending on the embodiment, the
도 3은 본 발명의 다른 실시예에 따른 아트월 시스템(1000_1)을 개략적으로 나타내는 도이다. 3 is a diagram schematically illustrating an art wall system 1000_1 according to another embodiment of the present invention.
도 3을 참조하여 설명하면, 아트월 시스템(1000)은 입력부(100), 추출부(200), 생성부(300), 변환부(400), 출력제어부(500) 및 카메라부(600)를 포함할 수 있다. 이하, 도 1에서 설명된 동일한 부재번호의 입력부(100), 추출부(200), 생성부(300), 변환부(400) 및 출력제어부(500)에 대한 중복된 설명은 이하에서 생략될 것이다. Referring to FIG. 3, the
먼저, 카메라부(600)는 출력제어부(500)와 통신가능하게 연결되어 전시관 내에 이격 배치되고, 프로젝터용 콘텐츠를 관람하는 관람객을 주기적으로 촬영함에 따라 획득된 관람객이미지를 출력제어부(500)로 제공할 수 있다. First, the
이러한 카메라부(600)는 출력제어부(500)를 통해 전송받는 제어 신호에 따라, 촬영 방향이 조절되는 PTZ 카메라를 포함할 수 있다. The
실시예에 따라, 출력제어부(500)는 카메라부(600)를 통해 촬영된 관람객이미지로부터 검출된 기설정된 관람객수에 따라, 프로젝터용 콘텐츠를 일정시간 중지하는 동안 일정비율 이상의 객체정보에 대응되는 기등록된 흥미유발 음향 및 영상을 출력수단들(50_1~50_N)을 통해 출력시킬 수 있다. Depending on the embodiment, the
예를 들면, 일정비율 이상의 객체정보가 20대 남성인 경우, 출력제어부(500)는 프로젝터용 콘텐츠를 일정시간 중지하는 동안, 20대 남성이 선호하는 영상과 대중가요를 출력수단들(50_1~50_N)을 통해 일정시간 출력시킨 다음에 로젝터용 콘텐츠를 재출력시킬 수 있다. For example, if the object information of a certain percentage or more is a man in his twenties, the
일 실시예에 따라, 출력제어부(500)는 카메라부(600)를 통해 촬영된 관람객이미지로부터 확인된 일정영역에 위치한 특정 객체의 특정 동작에 기초하여, 특정 동작에 대응되는 피드백 효과 음성을 프로젝터용 콘텐츠에 할당하여 출력시킬 수 있다. According to an embodiment, the
다른 실시예에 따라, 출력제어부(500)는 카메라부(600)를 통해 촬영된 관람객이미지로부터 확인된 복수의 관람객들과 전시관의 아트월(20) 간의 이격평균거리의 변화에 기초하여, 프로젝터용 콘텐츠에 대한 확대 및 축소 비율을 자동으로 조절할 수 있다. According to another embodiment, the
예를 들면, 이격평균거리가 감소하는 경우, 출력제어부(500)는 이격평균거리가 감소되는 비율에 비례하여 프로젝터용 콘텐츠를 확대시킬 수 있다. 또한, 이격평균거리가 증가하는 경우, 출력제어부(500)는 이격평균거리가 증가되는 비율에 비례하여 프로젝터용 콘텐츠를 감소시킬 수 있다. For example, when the average separation distance decreases, the
또 다른 실시예에 따라, 출력제어부(500)는 프로젝터용 콘텐츠를 음성데이터 및 영상데이터로 분리하여 출력시킬 때, 카메라부(600)를 통해 일정시간 아트월을 향해 촬영되는 촬영영상과 변환부(400)를 통해 변환된 프로젝터용 콘텐츠 간의 음성 싱크차이를 비교하여 음성 및 영상데이터 간의 싱크를 조절할 수 있다. According to another embodiment, when the
또 다른 실시예에 따라, 출력제어부(500)는 카메라부(600)를 통해 촬영된 관람객이미지로부터 검출되는 외국인 관람객 객체에 기초하여, 프로젝터용 콘텐츠에서 제공되는 음성에 대한 영어 번역 자막을 출력시킬 수 있다. According to another embodiment, the
도 4는 본 발명의 또 다른 실시예에 따른 아트월 시스템(1000_2)을 개략적으로 나타내는 도이다. 4 is a diagram schematically illustrating an art wall system 1000_2 according to another embodiment of the present invention.
도 4를 참조하여 설명하면, 아트월 시스템(1000_2)은 입력부(100), 추출부(200), 생성부(300), 변환부(400), 출력제어부(500), 카메라부(600) 및 제1 및 제2 복수의 센서들(710_1~710_N, 720_1~720_N)을 포함할 수 있다. 이하, 도 1 내지 도 3에서 설명된 동일한 부재번호의 입력부(100), 추출부(200), 생성부(300), 변환부(400), 출력제어부(500) 및 카메라부(600)에 대한 중복된 설명은 이하에서 생략될 것이다. Referring to FIG. 4, the art wall system 1000_2 includes an
먼저, 제1 복수의 센서들(710_1~710_N)은 출력제어부(500)와 통신가능하게 연결되어 전시관에 일정거리마다 이격 배치되고, 일정영역에 위치한 관람객의 생체신호를 측정할 수 있다. 예를 들면, 제1 복수의 센서들(710_1~710_N)은 레이저 센서, 광센서, 초음파 센서들을 포함하여, 일정영역에 위치한 관람객의 생체신호를 측정할 수 있다. First, the plurality of first sensors 710_1 to 710_N are communicatively connected to the
다음으로, 제2 복수의 센서들(720_1~720_N)은 전시관에 일정거리마다 이격 배치되어, 전시관의 환경 상태를 센싱할 수 있다. 예를 들면, 제2 복수의 센서들(720_1~720_N)은 연기 감지센서, 일산화탄소 감지센서, 온도 감지센서, 동체 감지센서, 마그네틱 센서, 측정감지 모듈 및 감진 모듈을 포함할 수 있다.Next, the second plurality of sensors 720_1 to 720_N may be spaced apart from each other at predetermined distances in the exhibition hall to sense the environmental state of the exhibition hall. For example, the second plurality of sensors 720_1 to 720_N may include a smoke detection sensor, a carbon monoxide detection sensor, a temperature detection sensor, a motion detection sensor, a magnetic sensor, a measurement detection module, and a damping module.
실시예에 따라, 출력제어부(500)는 제1 복수의 센서들(710_1~710_N)을 통해 측정된 해당 관람객의 생체신호에 기초하여, 프로젝터용 콘텐츠의 파라미터를 자동으로 조절할 수 있다. Depending on the embodiment, the
일 실시예에 따라, 출력제어부(500)는 해당 관람객의 생체신호가 기설정된 값 미만일 때, 프로젝터용 콘텐츠에 할당되는 반응형 콘텐츠를 출력함에 따라 마이크(미도시)를 통해 획득된 응답정보에 기초하여, 단계별 분위기 상태를 결정할 수 있다. According to an embodiment, the
이때, 단계별 분위기 상태가 기설정된 단계 미만인 경우, 출력제어부(500)는 프로젝터용 콘텐츠를 일시정지시키고 심리안정을 유도하는 힐링 콘텐츠 영상을 대체하여 출력시킬 수 있다. At this time, when the atmosphere state by step is less than the predetermined level, the
한편, 단계별 분위기 상태가 기설정된 단계 이상인 경우, 출력제어부(500)는 카메라부(600)를 통해 촬영되는 관람객영상과 전시관에 구비된 마이크(미도시)를 통해 인식된 음성을 프로젝터용 콘텐츠에 오버레이 형태로 합성하여 출력시킬 수 있다. On the other hand, when the atmospheric condition for each stage is equal to or greater than the predetermined level, the
또한, 출력제어부(500)는 제2 복수의 센서들(720_1~720_N)을 통해 센싱된 전시관의 환경 상태가 지진이나 화재와 같은 기설정된 환경 상태인 경우, 프로젝터용 콘텐츠에 대한 출력을 중지하는 동시에 출력수단들(10_1~10_N)을 통해 대피로 안내와 더불어 경보 방송을 출력시킬 수 있다. In addition, when the environmental state of the exhibition hall sensed through the second plurality of sensors 720_1 to 720_N is a predetermined environmental state such as an earthquake or fire, the
도 5는 도 3의 출력제어부(500)를 구체적으로 나타내는 블록도이다. FIG. 5 is a block diagram showing the
도 3과 도 5를 참조하면, 출력제어부(500)는 프레임수집부(510), 학습부(520), 판단부(530) 및 전처리부(540)를 포함할 수 있다. Referring to FIGS. 3 and 5 , the
먼저, 프레임수집부(510)는 저작권이 부여된 영상 콘텐츠와 유해 콘텐츠로부터 랜덤하게 추출되는 진단용 프레임들을 분류하여 사전에 수집할 수 있다. First, the
다음으로, 학습부(520)는 진단용 프레임들을 머신러닝을 통해 학습하여 인공지능 기반의 제거영상 진단모델을 학습할 수 있다. Next, the
여기서, 인공지능 기반의 제거영상 진단모델은 진단용 프레임들을 입력으로 하고, 저작권이 부여된 영상 콘텐츠와 유해 콘텐츠에 대응되는 출력값을 출력으로 하여 머신러닝을 통해 학습된 인공 신경망(artificial neural network; ANN)일 수 있다. Here, the artificial intelligence-based removal image diagnosis model takes diagnostic frames as inputs, and outputs values corresponding to copyrighted image contents and harmful contents as outputs. An artificial neural network (ANN) learned through machine learning can be
즉, 이러한 인공지능 기반의 변형인자 도출 알고리짐은 인공 신경 회로망(Artificial Neural Network), SVM(Support Vector Machine), 의사 결정 트리(Decision Tree) 및 랜덤 포레스트(Random Forest) 중 어느 하나의 알고리즘일 수 있다. That is, the artificial intelligence-based transform factor derivation algorithm may be any one of an artificial neural network, a support vector machine (SVM), a decision tree, and a random forest. there is.
예를 들면, 인공 신경 회로망은 주로 딥러닝에서 사용되어 지고, 기계학습과 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘으로서, 특징 추출 신경망과 분류 신경망을 포함하는 컨볼루션 신경망일 수 있다. 이때, 컨볼루션 신경망은 시각적 이미지를 분석하는데 사용되는 깊고 피드포워드적인 인공 신경 회로망의 한종류로, 이미지의 특징을 추출하고 클래스를 분류하는 과정으로 나누어질 수 있고, 특정 이미지의 특징을 추출하고 추출된 특징을 기반으로 이미지를 인식할 수 있다. For example, an artificial neural network is a statistical learning algorithm that is mainly used in deep learning and is inspired by neural networks in machine learning and biology, and may be a convolutional neural network including a feature extraction neural network and a classification neural network. At this time, the convolutional neural network is a type of deep feed-forward artificial neural network used to analyze visual images, and can be divided into processes of extracting features of images and classifying them, and extracting and extracting features of specific images. Images can be recognized based on their features.
구체적으로, 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성 함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용할 수 있으나 이에 한정되지는 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정되지는 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.Specifically, the feature extraction neural network proceeds by sequentially stacking the convolution layer and the pooling layer on the input signal. The convolution layer contains convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function may generally use a ReLU function, a sigmoid function, a tanh function, and the like, but is not limited thereto. The pooling layer is a layer that reduces the matrix size of the input, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, and a 9X9 matrix is generally used. The convolutional layer and the pooling layer are alternately repeated until the corresponding input is sufficiently small while maintaining the difference.
또한, 분류 신경망은 은닉층과 출력층을 가지고 있다. 이러한 분류 신경망은 일반적으로 5개 이상의 은닉층을 포함하며, 각 은닉층의 노드는 80개로 지정할 수 있으나, 경우에 따라 그 이상으로 정하는 것도 가능하다. 은닉층의 활성 함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정되는 것은 아니다. Also, a classification neural network has a hidden layer and an output layer. Such a classification neural network generally includes 5 or more hidden layers, and the number of nodes in each hidden layer can be designated as 80, but it is possible to set more than 80 in some cases. The activation function of the hidden layer uses a ReLU function, a sigmoid function, a tanh function, and the like, but is not limited thereto.
다음으로, 판단부(530)는 변환부(400)를 통해 변환된 프로젝터용 콘텐츠로부터 순차적으로 검출되는 각 오프소스 영상별 프레임들을 제거영상 진단모델에 적용함에 따라 도출되는 출력값에 기초하여, 각 오프소스 영상에 대한 제거 여부를 판단할 수 있다. Next, the
다음으로, 전처리부(540)는 각 오프소스 영상 중 어느 하나의 오픈소스 영상이 제거로 판단된 경우, 출력수단들(50_1~50_N)을 통해 프로젝터용 콘텐츠를 출력시키기 이전에 프로젝터용 콘텐츠로부터 어느 하나의 오픈소스 영상을 제거하는 동시에 힐링 콘텐츠 영상을 프로젝터용 콘텐츠에 삽입할 수 있다. Next, the
본 명세서에서는 본 발명자들이 수행한 다양한 실시예 가운데 몇 개의 예만을 들어 설명하는 것이나 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고, 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. In this specification, only a few examples of various embodiments performed by the present inventors are described, but the technical spirit of the present invention is not limited or limited thereto, and can be modified and implemented in various ways by those skilled in the art, of course.
100: 입력부
200: 추출부
300: 생성부
400: 변환부
500: 출력제어부
1000: 아트월 시스템100: input unit
200: extraction unit
300: generating unit
400: conversion unit
500: output control unit
1000: art wall system
Claims (9)
상기 전시관정보에 기초하여, 기수집된 복수의 오픈소스 영상들로부터 적어도 하나의 오픈소스 영상을 추출하는 추출부;
상기 적어도 하나의 오픈소스 영상을 이용하여, 아트월출력용 미디어파일을 생성하는 콘텐츠 생성부;
상기 전시관정보로부터 확인되는 아트월 사이즈에 기초하여, 상기 아트월출력용 미디어파일을 프로젝션 맵핑 프로그램을 통해 프로젝터용 콘텐츠로 변환하는 변환부; 및
상기 전시관정보로부터 확인되는 전시관의 아트월 종류에 따라 배치된 복수개의 출력수단들을 통해 프로젝터용 콘텐츠를 음성 및 영상데이터로 분리하여 출력시키는 출력제어부를 포함하고,
상기 출력제어부에 연결되어 전시관 내에 배치되고, 상기 프로젝터용 콘텐츠를 관람하는 관람객을 주기적으로 촬영함에 따라 획득된 관람객이미지를 상기 출력제어부로 제공하는 카메라부를 더 포함하고,
상기 출력제어부는 상기 관람객이미지로부터 검출된 기설정된 관람객수에 따라, 상기 프로젝터용 콘텐츠를 일정시간 중지하는 동안 일정비율 이상의 객체정보에 대응되는 기등록된 흥미유발 음향 및 영상을 상기 출력수단들을 통해 출력시키며,
상기 출력제어부는 상기 관람객이미지로부터 확인된 일정영역에 위치한 특정 객체의 특정 동작에 기초하여, 상기 특정 동작에 대응되는 피드백 효과 음성을 프로젝터용 콘텐츠에 할당하여 출력시키고,
상기 출력제어부는 상기 관람객이미지로부터 확인된 복수의 관람객들과 전시관의 아트월 간의 이격평균거리의 변화에 기초하여, 상기 프로젝터용 콘텐츠에 대한 확대 및 축소 비율을 자동으로 조절하며,
상기 출력제어부와 통신가능하게 연결되어 전시관에 일정거리마다 배치되고, 일정영역에 위치한 관람객의 생체신호를 측정하는 제1 복수의 센서들; 및
상기 전시관에 일정거리마다 배치되어 상기 전시관의 환경 상태를 구역별로 센싱하는 제2 복수의 센서들을 더 포함하고,
상기 출력제어부는 상기 제1 복수의 센서들을 통해 측정된 생체신호에 기초하여, 상기 프로젝터용 콘텐츠의 파라미터를 자동으로 조절하고,
상기 파라미터는 컨텐츠의 볼륨, 음높낮이, 재생 속도, 소리의 풍성함, 깊이, 울림, 굵기, 떨림, 실감 효과, 서라운드 효과, 공간감, 화음, 코드 및 반주, 디스플레이에서의 표시 영역, 디스플레이의 색채, 채도, 명암, 대비, 투명도, 초점, 전원, 전력 소모량, 컨텐츠의 종류 중 적어도 하나를 포함하고,
상기 생성부는 상기 아트월출력용 미디어파일을 생성할 때, 상기 적어도 하나의 오픈소스 영상의 특정 출력화면영역에서 분석되는 파라미터에 기초하여, 상기 적어도 하나의 오픈소스 영상에 대한 출력 순서를 순차적으로 정렬시키며,
상기 출력제어부는, 해당 관람객의 생체신호가 기설정된 값 미만일 때, 상기 프로젝터용 콘텐츠에 할당되는 반응형 콘텐츠를 출력함에 따라 마이크를 통해 획득된 응답정보에 기초하여, 단계별 분위기 상태를 결정하고,
상기 단계별 분위기 상태가 기설정된 단계 미만인 경우, 상기 프로젝터용 콘텐츠를 일시정지시키고 심리안정을 유도하는 힐링 콘텐츠 영상을 대체하여 출력하며,
상기 단계별 분위기 상태가 기설정된 단계 이상인 경우, 상기 카메라부를 통해 촬영되는 관람객영상과 상기 마이크를 통해 인식된 음성을 프로젝터용 콘텐츠에 오버레이 형태로 합성하여 출력시키고,
상기 출력제어부는 저작권이 부여된 영상 콘텐츠와 유해 콘텐츠로부터 랜덤하게 추출되는 진단용 프레임들을 분류하여 수집하는 프레임수집부;
상기 진단용 프레임들을 머신러닝을 통해 학습하여 인공지능 기반의 제거영상 진단모델을 학습하는 학습부;
상기 프로젝터용 콘텐츠로부터 순차적으로 검출되는 오프소스 영상별 프레임들을 제거영상 진단모델에 적용함에 따라 도출되는 출력값에 기초하여, 각 오프소스 영상에 대한 제거 여부를 판단하는 판단부; 및
각 오프소스 영상 중 어느 하나의 오픈소스 영상이 제거로 판단된 경우, 상기 프로젝터용 콘텐츠로부터 상기 어느 하나의 오픈소스 영상을 제거하는 동시에 상기 힐링 콘텐츠 영상을 상기 프로젝터용 콘텐츠에 삽입하는 전처리부를 포함하며,
상기 출력제어부는 상기 프로젝터용 콘텐츠를 음성데이터 및 영상데이터로 분리하여 출력시킬 때, 상기 카메라부를 통해 일정시간 아트월을 향해 촬영되는 촬영영상과 상기 변환부를 통해 변환된 프로젝터용 콘텐츠 간의 음성 싱크차이를 비교하여 음성 및 영상데이터 간의 싱크를 조절하고,
상기 출력제어부는 상기 관람객이미지로부터 검출되는 외국인 관람객 객체에 기초하여, 상기 프로젝터용 콘텐츠에서 제공되는 음성에 대한 영어 번역 자막을 출력시키며,
상기 출력제어부는 상기 제2 복수의 센서들을 통해 센싱된 전시관의 환경 상태가 지진이나 화재와 같은 기설정된 환경 상태인 경우, 상기 프로젝터용 콘텐츠에 대한 출력을 중지하는 동시에 상기 출력수단들 통해 대피로 안내와 더불어 경보 방송을 출력시키고,
상기 출력제어부는 상기 프로젝터용 콘텐츠의 개수에 기초하여, 동영상 공유 플랫폼에 공유되는 영상을 전송받아 상기 복수개의 출력수단들을 통해 출력시키는, 아트월 시스템.
an input unit for receiving exhibition hall information from a manager;
an extractor extracting at least one open source image from a plurality of pre-collected open source images based on the exhibition hall information;
a content creation unit generating a media file for art wall output using the at least one open source video;
a conversion unit that converts the media file for outputting the art wall into contents for a projector through a projection mapping program, based on the size of the art wall identified from the exhibition hall information; and
An output control unit that separates and outputs projector content into audio and video data through a plurality of output means arranged according to the type of art wall of the exhibition hall identified from the exhibition hall information,
A camera unit connected to the output control unit and disposed in the exhibition hall, and providing a visitor image obtained by periodically photographing a visitor viewing the contents for the projector to the output control unit,
The output control unit outputs, through the output means, pre-registered interest-inducing sound and image corresponding to object information of a predetermined ratio or more while the contents for the projector are stopped for a predetermined period of time according to the predetermined number of visitors detected from the visitor image. make it,
The output control unit allocates and outputs a feedback effect sound corresponding to the specific operation to projector content based on a specific operation of a specific object located in a certain area identified from the viewer image,
The output control unit automatically adjusts the enlargement and reduction ratio of the contents for the projector based on the change in the average separation distance between the plurality of visitors identified from the visitor image and the art wall of the exhibition hall,
a first plurality of sensors communicatively connected to the output control unit, disposed at predetermined distances in the exhibition hall, and measuring bio-signals of visitors located in a predetermined area; and
Further comprising a second plurality of sensors disposed at predetermined distances in the exhibition hall to sense the environmental state of the exhibition hall for each zone;
The output control unit automatically adjusts parameters of the contents for the projector based on the biosignals measured through the first plurality of sensors,
The above parameters include content volume, pitch, playback speed, richness of sound, depth, resonance, thickness, vibration, immersive effect, surround effect, sense of space, chord, chord and accompaniment, display area on the display, color of the display, and saturation. , At least one of contrast, contrast, transparency, focus, power, power consumption, and type of content,
When the generating unit generates the media file for outputting the art wall, based on parameters analyzed in a specific output screen area of the at least one open source video, the output order of the at least one open source video is sequentially arranged, ,
The output control unit, when the bio-signal of the viewer is less than a predetermined value, outputs the responsive content assigned to the projector content, based on response information obtained through a microphone, determines the atmospheric state for each step,
When the atmospheric condition for each step is less than the preset level, the contents for the projector are paused and a healing content image for inducing psychological stability is replaced and output,
When the staged atmosphere is equal to or higher than the preset stage, the visitor image captured through the camera unit and the voice recognized through the microphone are synthesized and output in the form of an overlay to the content for the projector,
The output control unit includes a frame collection unit that classifies and collects frames for diagnosis randomly extracted from copyrighted image content and harmful content;
a learning unit that learns an artificial intelligence-based removal image diagnosis model by learning the diagnostic frames through machine learning;
a determination unit that determines whether to remove each open-source image based on an output value derived by applying frames of each open-source image sequentially detected from the contents for the projector to a removed image diagnosis model; and
When it is determined that any one open source image among the open source images is removed, a pre-processing unit for removing the one open source image from the projector content and at the same time inserting the healing content image into the projector content, ,
When the output control unit separates the contents for the projector into audio data and video data and outputs them, the audio sync difference between the captured image taken toward the art wall through the camera unit for a certain period of time and the contents for the projector converted through the conversion unit is determined. Compare and adjust the sync between audio and video data,
The output control unit outputs English translation subtitles for audio provided from the contents for the projector based on the foreign visitor object detected from the visitor image,
When the environmental state of the exhibition hall sensed through the second plurality of sensors is a preset environmental state such as an earthquake or fire, the output control unit stops outputting the content for the projector and simultaneously guides an evacuation route through the output means. and outputs an alarm broadcast,
The art wall system, wherein the output control unit receives an image shared on a video sharing platform based on the number of contents for the projector and outputs it through the plurality of output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142052A KR102529170B1 (en) | 2022-10-31 | 2022-10-31 | Art wall system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142052A KR102529170B1 (en) | 2022-10-31 | 2022-10-31 | Art wall system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102529170B1 true KR102529170B1 (en) | 2023-05-03 |
Family
ID=86380186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220142052A KR102529170B1 (en) | 2022-10-31 | 2022-10-31 | Art wall system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102529170B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090128195A (en) * | 2008-06-10 | 2009-12-15 | 엘지전자 주식회사 | Apparatus and method for converting data format of media files |
KR101430187B1 (en) * | 2013-03-19 | 2014-08-14 | 세종대학교산학협력단 | Controlling machine for multi display and method for providing contents |
KR101460794B1 (en) | 2014-02-25 | 2014-11-14 | (주)엑스오비스 | Method and system for generating media art contents |
KR20180137916A (en) * | 2017-06-20 | 2018-12-28 | (주)레드몽키픽처스 | Virtual reality image contents providing system and thereof providing method |
KR20210035619A (en) * | 2019-09-24 | 2021-04-01 | (주)지브이에스 | Interactive image system and method of driving the same |
KR20210100036A (en) * | 2020-02-05 | 2021-08-13 | 주식회사 씨제이라이브시티 | Space for experiencing content led by an audience, and method for providing an audience-led content experience service using the space |
KR20210133411A (en) * | 2020-04-29 | 2021-11-08 | 한국전자통신연구원 | Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning |
-
2022
- 2022-10-31 KR KR1020220142052A patent/KR102529170B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090128195A (en) * | 2008-06-10 | 2009-12-15 | 엘지전자 주식회사 | Apparatus and method for converting data format of media files |
KR101430187B1 (en) * | 2013-03-19 | 2014-08-14 | 세종대학교산학협력단 | Controlling machine for multi display and method for providing contents |
KR101460794B1 (en) | 2014-02-25 | 2014-11-14 | (주)엑스오비스 | Method and system for generating media art contents |
KR20180137916A (en) * | 2017-06-20 | 2018-12-28 | (주)레드몽키픽처스 | Virtual reality image contents providing system and thereof providing method |
KR20210035619A (en) * | 2019-09-24 | 2021-04-01 | (주)지브이에스 | Interactive image system and method of driving the same |
KR20210100036A (en) * | 2020-02-05 | 2021-08-13 | 주식회사 씨제이라이브시티 | Space for experiencing content led by an audience, and method for providing an audience-led content experience service using the space |
KR20210133411A (en) * | 2020-04-29 | 2021-11-08 | 한국전자통신연구원 | Method for Detecting Harmful Streaming Video in Smart Device, Smart Device and Terminal for Machine Learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8259992B2 (en) | Multiple audio/video data stream simulation method and system | |
US20160119553A1 (en) | Monitoring methods and devices | |
JP2011223287A (en) | Information processor, information processing method, and program | |
CN108268864A (en) | Face identification method, system, electronic equipment and computer program product | |
JPWO2008078736A1 (en) | Identity determining apparatus, identity determining method, and identity determining program | |
WO2007077713A1 (en) | Video generation device, video generation method, and video generation program | |
KR20090084563A (en) | Method and apparatus for generating the depth map of video image | |
JP2016076073A (en) | Data processing device, data processing method, and computer program | |
KR20190079047A (en) | A supporting system and method that assist partial inspections of suspicious objects in cctv video streams by using multi-level object recognition technology to reduce workload of human-eye based inspectors | |
KR20180037519A (en) | Method and apparatus for Machine Learning-based 4D Media Authoring | |
CN106027850A (en) | Cloud median filtering system | |
KR20170082025A (en) | Apparatus and Method for Identifying Video with Copyright using Recognizing Face based on Machine Learning | |
US20220345768A1 (en) | Systems and methods for providing media content for an exhibit or display | |
Zhou et al. | Now you shake me: Towards automatic 4D cinema | |
US20190188481A1 (en) | Motion picture distribution system | |
CN113297956A (en) | Gesture recognition method and system based on vision | |
CN110418148B (en) | Video generation method, video generation device and readable storage medium | |
KR102529170B1 (en) | Art wall system | |
CN112633179A (en) | Farmer market aisle object occupying channel detection method based on video analysis | |
CN112183235A (en) | Automatic control method for video acquisition aiming at sport places | |
WO2020234939A1 (en) | Information processing device, information processing method, and program | |
KR100742664B1 (en) | Interactive motion-graphics display system and method | |
KR20210064830A (en) | Image processing system | |
WO2021065694A1 (en) | Information processing system and method | |
CN111191620B (en) | Method for constructing human-object interaction detection data set |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |