KR102646876B1 - Multi-sided image output system for digital healthcare service space - Google Patents

Multi-sided image output system for digital healthcare service space Download PDF

Info

Publication number
KR102646876B1
KR102646876B1 KR1020230002635A KR20230002635A KR102646876B1 KR 102646876 B1 KR102646876 B1 KR 102646876B1 KR 1020230002635 A KR1020230002635 A KR 1020230002635A KR 20230002635 A KR20230002635 A KR 20230002635A KR 102646876 B1 KR102646876 B1 KR 102646876B1
Authority
KR
South Korea
Prior art keywords
output
video
content
image
video content
Prior art date
Application number
KR1020230002635A
Other languages
Korean (ko)
Inventor
최봉두
박호성
Original Assignee
(주)휴먼아이티솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴먼아이티솔루션 filed Critical (주)휴먼아이티솔루션
Priority to KR1020230002635A priority Critical patent/KR102646876B1/en
Application granted granted Critical
Publication of KR102646876B1 publication Critical patent/KR102646876B1/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Abstract

본 발명의 일 실시예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템으로서, 유저가 입실하여 디지털 헬스케어 서비스에 관련된 영상 컨텐츠를 이용한 훈련 서비스를 이용하기 위한 케어존 내의 복수의 영상 출력 영역에 출력되는 헬스케어 컨텐츠를 외부로부터 수신 시, 헬스케어 컨텐츠를 다면에 출력하기 위하여 다수의 영상 컨텐츠로 가공하고, 각 영상 컨텐츠가 영상 출력 장치를 통해 다면에 출력되도록 하는 영상 컨텐츠 가공부; 가공된 다수의 영상 컨텐츠가 복수의 영상 출력 영역에 정확히 매칭되도록 상기 영상 출력 장치의 영상 출력을 제어하는 출력 형태 제어부; 및 상기 각 영상 출력 장치를 통해 출력되는 영상 컨텐츠의 출력 타임을 동기화하는 영상 동기화부;를 포함하는 것을 특징으로 한다. 이 외에도 본 문서를 통해 파악되는 다양한 실시 예들이 가능하다.A multi-faceted image output system for a digital healthcare service provision space implemented by a computing device including one or more processors according to an embodiment of the present invention and one or more memories storing instructions executable by the processor, wherein the user enters the room and When receiving healthcare content from outside that is output to multiple video output areas in the care zone to use a training service using video content related to digital healthcare service, the healthcare content is processed into multiple video contents to be output on multiple surfaces. and a video content processing unit that allows each video content to be output on multiple surfaces through a video output device; an output type control unit that controls video output of the video output device so that a plurality of processed video contents are accurately matched to a plurality of video output areas; and a video synchronization unit that synchronizes the output time of video content output through each video output device. In addition, various embodiments identified through this document are possible.

Description

디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템{MULTI-SIDED IMAGE OUTPUT SYSTEM FOR DIGITAL HEALTHCARE SERVICE SPACE}{MULTI-SIDED IMAGE OUTPUT SYSTEM FOR DIGITAL HEALTHCARE SERVICE SPACE}

본 발명은 사용자에게 디지털 헬스케어 서비스를 제공하는 공간에 대한 다면 영상 출력 시스템 기술에 관한 것으로, 구체적으로는 사용자가 디지털 헬스케어 컨텐츠를 이용하기 위해 케어존에 입실하면, 케어존 내에 출력되는 컨텐츠를 다면에 출력하기 위해 다수의 영상 컨텐츠로 가공하여 출력되도록 하고, 가공된 영상이 복수의 영상 출력 영역에 정확히 매칭되도록 영상 출력을 제어하며, 출력되는 영상 컨텐츠의 출력 타임을 동기화함으로써 각 부분 이미지들이 영상 출력 영역의 경계면 상에 정확하게 일치되도록 출력할 수 있어 사용자가 효과적으로 디지털 헬스케어 컨텐츠를 이용하는 것에 도움을 줄 수 있는 기술에 관한 것이다.The present invention relates to a multi-faceted image output system technology for a space that provides digital healthcare services to users. Specifically, when a user enters a care zone to use digital healthcare content, the content output within the care zone is displayed on a multi-faceted screen. In order to output, multiple video contents are processed and output, video output is controlled so that the processed images are accurately matched to multiple video output areas, and the output time of the output video content is synchronized so that each partial image is displayed in the video output area. It is about a technology that can help users effectively use digital healthcare content by being able to output it to match the boundary exactly.

"디지털 헬스케어"(혹은 스마트 헬스케어)는 개인의 건강과 의료에 관한 정보, 기기, 시스템, 플랫폼을 다루는 산업분야로서 건강관련서비스와 의료 IT가 융합된 종합의료서비스로서, 개인맞춤형 건강관리서비스를 제공하며 개인이 소유한 휴대형, 착용형 기기나 클라우드 병원정보시스템 등에서 확보된 생활습관, 신체검진, 의료이용정보, 인공지능, 가상현실, 유전체 정보 등의 분석을 바탕으로 제공되는 개인중심의 건강관리 생태계이다.“Digital healthcare” (or smart healthcare) is an industrial field that deals with information, devices, systems, and platforms related to personal health and medical care. It is a comprehensive medical service that combines health-related services and medical IT, and provides personalized health management services. Provides individual-centered health based on analysis of lifestyle habits, physical examination, medical use information, artificial intelligence, virtual reality, and genomic information obtained from individually owned portable and wearable devices or cloud hospital information systems. It is a management ecosystem.

현대 사회를 살아가는 현대인에게 있어서 건강에 대한 관심도가 점차 높아지고 있다. 특히 최근 안정된 삶을 살고 있는 고령 인구의 증가와 보다 나은 삶의 질을 추구하는 인구의 수가 증가함에 따라 디지털 헬스케어에 대한 관심도가 높아지고 있는 실정이다. 빅데이터의 기술 발전에 따라 지금까지의 헬스케어에서 의사와 의료기관을 중심으로 이끌어져 왔던 것과 달리 언제 어디서나 보건 의료 서비스를 제공할 수 있다. 이에 따라 빅데이터를 기반으로 한 디지털 헬스케어가 미래 헬스케어의 핵심으로 떠오르고 있다.For modern people living in modern society, interest in health is gradually increasing. In particular, interest in digital healthcare is increasing as the number of elderly people living stable lives increases and the number of people seeking a better quality of life increases. Due to the technological advancement of big data, health care services can be provided anytime, anywhere, unlike in the past where healthcare has been centered on doctors and medical institutions. Accordingly, digital healthcare based on big data is emerging as the core of future healthcare.

일 예로서, 한국등록특허 10-2022-0060054(스마트 헬스케어 서비스 제공 방법 및 그를 위한 장치)에는 스마트 헬스케어 서비스 어플리케이션이 실행된 단말로부터 카메라 센서를 통해 촬영된 개인 의료 건강 정보가 포함된 이미지 데이터를 수신하여 관심영역을 설정하고, 설정된 관심영역에 대하여 데이터를 추출하여 미리 정의된 서비스 카테고리에 따라 분류하여 저장한 뒤에 저장한 데이터를 학습을 통해 생성된 학습 모델에 적용하여 헬스케어 서비스 데이터를 생성하고 생성된 헬스케어 서비스 데이터가 단말 화면을 통해 출력되는 기술이 개시되어 있다.As an example, Korean Patent No. 10-2022-0060054 (Method for providing smart healthcare services and device therefor) includes image data containing personal medical health information captured through a camera sensor from a terminal running a smart healthcare service application. Receive and set an area of interest, extract data for the set area of interest, classify and store it according to predefined service categories, and apply the saved data to a learning model created through learning to generate healthcare service data. A technology is disclosed in which the generated healthcare service data is output through the terminal screen.

그러나, 상술한 선행기술에서는 스마트 헬스케어 어플리케이션을 통해 사용자의 개인 의료 건강 정보에 기반한 헬스케어 서비스를 제공하는 기술만이 개시되어 있을 뿐, 사용자가 디지털 헬스케어 컨텐츠를 이용하기 위해 케어존에 입실 시, 케어존 내에 출력되는 컨텐츠를 케어존 내부 영역들인 다면에 출력하기 위해 다수의 영상 컨텐츠로 가공하여 출력되도록 하고, 이 때, 사용자 눈부심 방지 보정 방법 중 적어도 한 방식을 이용하여 영상 컨텐츠를 가공하여 출력되도록 하며, 가공된 영상이 복수의 영상 출력 영역에 정확히 매칭되도록 영상 출력을 제어하며, 출력되는 영상 컨텐츠의 출력 시간을 동기화함으로써 사용자가 좀 더 몰입감 있게 디지털 헬스케어 컨텐츠를 이용하게 하는 기술은 개시되어 있지 않아, 이를 해결할 수 잇는 기술의 필요성이 대두되고 있다.However, the above-mentioned prior art only discloses technology for providing healthcare services based on the user's personal medical health information through a smart healthcare application. When the user enters the care zone to use digital healthcare content, The content output within the care zone is processed and output into multiple image contents to be output on multiple surfaces inside the care zone. At this time, the image content is processed and output using at least one of the user anti-glare correction methods, There is no technology disclosed that allows users to use digital healthcare content in a more immersive way by controlling the video output so that the processed image is accurately matched to multiple video output areas and synchronizing the output time of the output video content. The need for technology that can solve this problem is emerging.

이에 본 발명은, 사용자에게 디지털 헬스케어 서비스를 제공하는 공간에 대한 다면 영상 출력 시스템을 통해 사용자가 디지털 헬스케어 컨텐츠를 이용하기 위해 케어존에 입실 시, 케어존 내에 출력되는 컨텐츠를 케어존 내부 영역들인 다면에 출력하기 위해 다수의 영상 컨텐츠로 가공하여 출력되도록 하고, 이 때, 사용자 눈부심 방지 보정 방법 중 적어도 한 방식을 이용하여 영상 컨텐츠를 가공하여 출력되도록 하며, 가공된 영상이 복수의 영상 출력 영역에 정확히 매칭되도록 영상 출력을 제어하며, 출력되는 영상 컨텐츠의 출력 시간을 동기화함으로써 각 부분 이미지들이 영상 출력 영역의 경계면 상에 정확하게 일치되도록 출력할 수 있어 사용자가 좀 더 몰입감 있게 디지털 헬스케어 컨텐츠를 이용하는 데에 도움을 주는 것에 그 목적이 있다.Accordingly, the present invention provides a multi-faceted image output system for a space that provides digital healthcare services to users, so that when a user enters the care zone to use digital healthcare content, the content output within the care zone is displayed on the multi-faceted areas inside the care zone. For output, a plurality of video contents are processed and output. At this time, the image content is processed and output using at least one of the user anti-glare correction methods, and the processed images are accurately matched to the plurality of image output areas. By controlling the video output as much as possible and synchronizing the output time of the output video content, each partial image can be output to exactly match the boundary of the video output area, helping users use digital healthcare content with a more immersive experience. The purpose is to give.

본 발명의 일 실시예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템으로서, 유저가 입실하여 디지털 헬스케어 서비스에 관련된 영상 컨텐츠를 이용한 훈련 서비스를 이용하기 위한 케어존 내의 복수의 영상 출력 영역에 출력되는 헬스케어 컨텐츠를 외부로부터 수신 시, 헬스케어 컨텐츠를 다면에 출력하기 위하여 다수의 영상 컨텐츠로 가공하고, 각 영상 컨텐츠가 영상 출력 장치를 통해 다면에 출력되도록 하는 영상 컨텐츠 가공부; 가공된 다수의 영상 컨텐츠가 복수의 영상 출력 영역에 정확히 매칭되도록 상기 영상 출력 장치의 영상 출력을 제어하는 출력 형태 제어부; 및 상기 각 영상 출력 장치를 통해 출력되는 영상 컨텐츠의 출력 타임을 동기화하는 영상 동기화부;를 포함하는 것을 특징으로 한다.A multi-faceted image output system for a digital healthcare service provision space implemented by a computing device including one or more processors according to an embodiment of the present invention and one or more memories storing instructions executable by the processor, wherein the user enters the room and When receiving healthcare content from outside that is output to multiple video output areas in the care zone to use a training service using video content related to digital healthcare service, the healthcare content is processed into multiple video contents to be output on multiple surfaces. and a video content processing unit that allows each video content to be output on multiple surfaces through a video output device; an output type control unit that controls video output of the video output device so that a plurality of processed video contents are accurately matched to a plurality of video output areas; and a video synchronization unit that synchronizes the output time of video content output through each video output device.

본 발명인 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템은 케어존 내부의 다수의 영상 출력 영역에 헬스케어 영상 컨텐츠를 제공하며, 출력되는 영상 컨텐츠의 출력 시간을 동기화함으로써 각 부분 이미지들이 영상 출력 영역의 경계면 상에 정확하게 일치되도록 출력할 수 있기 때문에 헬스케어 컨텐츠에 대한 유저의 몰입감을 높일 수 있으며 좀 더 높은 집중력을 발휘하게 할 수 있다.The present invention's multi-faceted video output system for a digital healthcare service provision space provides healthcare video content to multiple video output areas within the care zone, and synchronizes the output time of the output video content so that each partial image is displayed in the video output area. Because it can be printed to match the boundary exactly, users can increase their sense of immersion in healthcare content and achieve greater concentration.

또한, 바닥면에 대응되는 영상 컨텐츠에는 유저의 위치를 표시하고 동작 방향과 이동 방향을 유도하는 반응형 브랜드 아이콘이 포함된 UI 요소가 포함되기 때문에 남녀노소 누구나 헬스케어 컨텐츠를 쉽게 이용할 수 있으며, 동시에 홍보 효과도 누릴 수 있다.In addition, the video content corresponding to the floor includes UI elements that include responsive brand icons that display the user's location and guide the direction of motion and movement, allowing anyone of any age or gender to easily use healthcare content. You can also enjoy promotional effects.

도 1은 본 발명의 일 실시 예에 따른 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템의 블록도.
도 2는 본 발명의 일 실시예에 따른 헬스케어 컨텐츠를 제공하기 위한 케어존 내부를 개략적으로 도시한 예.
도 3은 본 발명의 일 실시예에 따른 영상 출력 영역의 경계와 영상 컨텐츠의 출력 경계면이 정확히 위치되는지에 대한 여부를 판단하는 예.
도 4는 본 발명의 일 실시예에 따른 케어존 내의 영역 중에서 세 면이 만나는 포인트와 영상 컨텐츠의 출력 경계면이 만나는 경계점이 일치하는지를 판단하는 예.
도 5는 본 발명의 일 실시예에 따른 케어존 내부의 평면도.
도 6은 본 발명의 일 실시예에 따른 유저의 눈부심을 방지하기 위해 영상 컨텐츠를 보정하는 예.
도 7은 본 발명의 일 실시예에 따른 영상을 동기화하기 위한 다면 영상 출력 시스템의 영상 동기화부를 설명하는 예.
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예.
1 is a block diagram of a multi-faceted image output system for a digital healthcare service provision space according to an embodiment of the present invention.
Figure 2 is an example schematically showing the inside of a care zone for providing healthcare content according to an embodiment of the present invention.
Figure 3 is an example of determining whether the boundary of an image output area and the output boundary of image content are accurately located according to an embodiment of the present invention.
Figure 4 is an example of determining whether the point where three sides meet among the areas in the care zone according to an embodiment of the present invention coincides with the boundary point where the output boundary of video content meets.
Figure 5 is a plan view of the inside of the care zone according to an embodiment of the present invention.
Figure 6 is an example of correcting image content to prevent glare for the user according to an embodiment of the present invention.
Figure 7 is an example illustrating an image synchronization unit of a multi-faceted image output system for synchronizing images according to an embodiment of the present invention.
8 is an example of the internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.BRIEF DESCRIPTION OF THE DRAWINGS Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that this aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain example aspects of one or more aspects. However, these aspects are illustrative and some of the various methods in the principles of the various aspects may be utilized, and the written description is intended to encompass all such aspects and their equivalents.

본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.As used herein, “embodiment,” “example,” “aspect,” “example,” etc. may not be construed to mean that any aspect or design described is better or advantageous than other aspects or designs. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, the terms "comprise" and/or "comprising" mean that the feature and/or element is present, but exclude the presence or addition of one or more other features, elements and/or groups thereof. It should be understood as not doing so.

또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Additionally, terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may be referred to as a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. It has the same meaning. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the embodiments of the present invention, have an ideal or excessively formal meaning. It is not interpreted as

도 1은 본 발명의 일 실시 예에 따른 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템의 블록도이다.1 is a block diagram of a multi-faceted image output system for a digital healthcare service provision space according to an embodiment of the present invention.

도 1을 참조하면, 상기 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템(10)(이하, 다면 영상 출력 시스템으로 칭함)은 영상 컨텐츠 가공부(11), 출력 형태 제어부(12) 및 영상 동기화부(13)를 포함할 수 있다.Referring to FIG. 1, the multi-faceted image output system 10 (hereinafter referred to as the multi-faceted image output system) for the digital healthcare service provision space includes an image content processing unit 11, an output form control unit 12, and an image synchronization unit. It may include part 13.

일 실시예에 따르면, 상기 영상 컨텐츠 가공부(11)는 유저가 입실하여 디지털 헬스케어 서비스에 관련된 영상 컨텐츠를 이용한 훈련 서비스를 이용하기 위한 케어존 내의 복수의 영상 출력 영역에 출력되는 헬스케어 컨텐츠를 외부로부터 수신 시, 헬스케어 컨텐츠를 다면에 출력하기 위하여 다수의 영상 컨텐츠로 가공하고, 각 영상 컨텐츠가 영상 출력 장치를 통해 다면에 출력되도록 할 수 있다.According to one embodiment, the video content processing unit 11 sends healthcare content output to a plurality of video output areas in a care zone for a user to enter the room and use a training service using video content related to a digital healthcare service. When receiving from , the healthcare content can be processed into multiple video contents to be output on multiple pages, and each video content can be output on multiple pages through a video output device.

일 실시예에 따르면, 상기 케어존은 사용자가 훈련 서비스를 이용하기 위한 실내 공간으로서, 사용자의 헬스케어를 수행할 수 있는 스마트 운동 센터나 스마트 재활 센터 등으로 이해될 수 있을 것이다.According to one embodiment, the care zone is an indoor space for users to use training services, and may be understood as a smart exercise center or smart rehabilitation center where users can perform healthcare.

일 실시예에 따르면, 본 발명의 헬스케어 컨텐츠는 디지털 헬스케어 서비스에 관련된 영상으로서, 사용자의 운동 능력을 향상시키기 위한 컨텐츠, 사용자 건강이나 관절 가동 범위를 관리하기 위한 컨텐츠 및 게임과 결합시킨 운동 컨텐츠 등을 포함할 수 있다.According to one embodiment, the healthcare content of the present invention is an image related to a digital healthcare service, including content for improving the user's exercise ability, content for managing the user's health or joint range of motion, and exercise content combined with a game. It may include etc.

또한, 상기 영상 컨텐츠는 헬스케어 전문가 등의 유저 단말의 영상 촬영 장치로 촬영된 컨텐츠이거나 컴퓨터 그래픽으로 만들어진 영상 컨텐츠를 포함하는 것으로, 실시간 영상 데이터, 녹화되거나 사전 제작된 영상 데이터 모두를 포함하는 개념으로 이해될 수 있다.In addition, the video content includes content captured with a video capture device of a user terminal such as a healthcare professional or video content created with computer graphics, and is a concept that includes both real-time video data and recorded or pre-produced video data. It can be understood.

일 실시예에 따르면, 상기 영상 컨텐츠 가공부(11)에서 수신하는 헬스케어 컨텐츠들은 데이터베이스(40)에 저장되어 있는 것으로서, 자체 데이터베이스에 저장되어 있거나 외부 데이터베이스에 저장되어 불러올 수 있으며 본 발명의 영상 출력 장치(20)를 통해 출력될 때 추후 다양한 형태로 가공되어 출력될 수 있다.According to one embodiment, the healthcare contents received by the video content processing unit 11 are stored in the database 40, and can be stored in the internal database or stored in an external database and retrieved, and the video output of the present invention When output through the device 20, it can be later processed and output in various forms.

일 실시예에 따르면, 상기 영상 컨텐츠가 출력되는 영상 출력 장치(20)는 디스플레이에서 출력되거나 빔 프로젝트를 통해서 출력될 수도 있으며 본 발명은 이에 제한을 두지 않는다.According to one embodiment, the video output device 20 through which the video content is output may be output on a display or through a beam projector, and the present invention is not limited thereto.

일 실시예에 따르면, 추후 상술할 출력 형태 제어부(12)와 영상 동기화부(13)의 동작 수행에 대해서 다양한 센서(30)가 이용될 수 있으며 바람직하게는 모션 센서와 라이다 센서가 포함될 수 있다.According to one embodiment, various sensors 30 may be used to perform the operations of the output form control unit 12 and the image synchronization unit 13, which will be described in detail later, and preferably include a motion sensor and a lidar sensor. .

도 2는 본 발명의 일 실시예에 따른 헬스케어 컨텐츠를 제공하기 위한 케어존 내부를 개략적으로 도시한다.Figure 2 schematically shows the inside of a care zone for providing healthcare content according to an embodiment of the present invention.

일 실시예에 따르면, 영상 컨텐츠 가공부(11)는 상술한 바와 같이 헬스케어 컨텐츠를 다면에 출력하기 위해 다수의 영상 컨텐츠로 가공하는데 도 2를 참조하면, 케어존에서 영상을 출력하려는 영역이 천장 영역인 A2, 벽면 영역인 A1, A4, A5, 바닥 영역인 A3으로 총 5면일 경우에 영역별로 5개의 영역으로 구역을 분할하여 가공하거나, 수신한 영상을 투상도로 변환하여 가공할 수 있다.According to one embodiment, the video content processing unit 11 processes the healthcare content into a plurality of video contents to output the healthcare content on multiple surfaces as described above. Referring to FIG. 2, the area where the image is to be output in the care zone is the ceiling area. If there are a total of 5 sides, including A2, the wall area A1, A4, and A5, and the floor area A3, the area can be divided into 5 areas and processed, or the received image can be converted into a projection view and processed.

일 실시예에 따르면, 상기 출력 형태 제어부(12)는 가공된 다수의 영상 컨텐츠가 복수의 영상 출력 영역에 정확히 매칭되도록 상기 영상 출력 장치의 영상 출력을 제어할 수 있다.According to one embodiment, the output form control unit 12 may control video output of the video output device so that a plurality of processed video contents are accurately matched to a plurality of video output areas.

일 실시예에 따르면, 상기 복수의 영상 출력 영역은 케어존 내의 천장, 바닥 및 벽면에 해당할 수 있으며 도 2를 참조하면, 케어존 내의 천장, 바닥 및 벽면을 모두 포함하는 복수의 영상 출력 영역이 총 5면이라고 한다면, 천장에 출력되어야 하는 영상 컨텐츠가 케어존 내의 복수의 영상 출력 영역 중에서 천장 영역인 A2에 정확히 매칭되도록 영상 출력을 제어할 수 있다.According to one embodiment, the plurality of image output areas may correspond to the ceiling, floor, and walls within the care zone. Referring to Figure 2, a total of 5 image output areas include the ceiling, floor, and walls within the care zone. Speaking of surfaces, the video output can be controlled so that the video content to be output on the ceiling exactly matches the ceiling area A2 among the plurality of video output areas in the care zone.

또한, 상기 출력 형태 제어부(12)는 각 영상 컨텐츠의 출력 경계면이 각 영상 출력 영역의 경계에 정확히 위치되도록 영상 컨텐츠의 출력 각도 및 크기를 제어할 수 있다. 예를 들어, 도 2를 참조하면, 즉 천장 영역에 출력되어야 하는 영상 컨텐츠의 출력 경계면이 A2의 경계에 정확히 위치하지 않고 A2 영역에 대해서 120%의 화면 배율로 45도 돌아간 상태로 출력이 되고 있다면 이를 정확히 위치하기 위해서 화면 배율이 100%가 되고, A2 영역에 대해서 0도 돌아가게 하여 정확히 위치하도록 제어할 수 있다는 것을 말하며 즉, 천장 영역에 출력되어야 하는 영상 컨텐츠의 출력 경계면이 A2의 경계에 정확히 위치하도록 제어할 수 있다는 것을 의미한다.Additionally, the output form control unit 12 can control the output angle and size of the video content so that the output boundary surface of each video content is accurately positioned at the border of each video output area. For example, referring to Figure 2, if the output boundary of the video content that should be output to the ceiling area is not exactly located at the border of A2 and is output rotated 45 degrees at a screen magnification of 120% with respect to the A2 area. In order to accurately position this, the screen magnification is set to 100%, and it can be controlled to be positioned accurately by rotating it by 0 degrees with respect to the A2 area. In other words, the output boundary of the video content that should be output to the ceiling area is exactly at the border of A2. This means that the position can be controlled.

도 3은 본 발명의 일 실시예에 따른 영상 출력 영역의 경계와 영상 컨텐츠의 출력 경계면이 정확히 위치되는지에 대한 여부를 판단하는 예를 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating an example of determining whether the boundary of an image output area and the output boundary of image content are accurately located according to an embodiment of the present invention.

일 실시예에 따르면, 상기 출력 형태 제어부(12)는 상술한 동작을 수행하기 위해서 출력 감지부와 출력 제어부를 포함할 수 있다.According to one embodiment, the output type control unit 12 may include an output detection unit and an output control unit to perform the above-described operations.

일 실시예에 따르면, 상기 출력 감지부는 각 영상 컨텐츠의 출력 경계면이 각 영상 출력 영역의 경계에 위치되는지 여부를 판단할 수 있으며 상기 출력 제어부는 상기 출력 감지부의 판단 결과에 따라서 영상 컨텐츠의 출력 각도 및 크기를 제어할 수 있다.According to one embodiment, the output detection unit may determine whether the output boundary of each video content is located at the boundary of each video output area, and the output control unit may determine the output angle and output angle of the video content according to the determination result of the output detection unit. You can control the size.

일 실시예에 따르면, 상기 출력 감지부는 유저의 모션을 감지하는 모션 센서(31) 및 라이다 센서(32) 중 적어도 하나가 상기 영상 출력 영역의 경계를 촬영한 결과를 바탕으로 상기 영상 출력 영역의 경계에 영상 컨텐츠의 출력 경계면이 정확히 위치되는지 여부를 판단할 수 있다.According to one embodiment, the output detection unit determines the image output area based on a result of at least one of the motion sensor 31 and the lidar sensor 32, which detects the user's motion, photographing the boundary of the image output area. It can be determined whether the output boundary surface of the video content is accurately located at the boundary.

모션 센서는 주로 사람과 같은 움직이는 물체를 감지하는 것처럼 단순한 반응에서부터 인간의 섬세한 표정까지 인식하는 전자 장치로서 모션 센서는 선택한 감지 각도 영역(약 90~120도)에서 움직임을 감지하고 이에 따라 반응한다. 이는 일반적으로 사람의 이동과 같은 큰 동작을 감지하는데 적합하게 설계되었다. 따라서 스마트 홈과 같은 일상적인 상황에서 가장 많이 사용하며 현관, 복도 등과 같이 사람이 이동하는 공간에 매우 적합하다.A motion sensor is an electronic device that recognizes everything from simple reactions, such as detecting moving objects such as people, to detailed human facial expressions. The motion sensor detects movement in a selected detection angle range (about 90 to 120 degrees) and reacts accordingly. It is generally designed to detect large movements such as human movement. Therefore, it is most often used in everyday situations such as smart homes, and is very suitable for spaces where people move, such as entrances and hallways.

라이다 센서(LIDAR Sensor)는 Light Detection And Ranging의 약자로서 레이저 스캐너 혹은 레이저 레이더 등으로 불리기도 한다. 이는 이름에서도 알 수 있듯이 레이저를 목표물에 비춤으로써 물체를 감지한 뒤 사물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있는 기술을 이용한 센서를 말한다. 라이다 센서는 레이저 신호의 변조 방법에 따라 TOF 방식과 Phase-shift 방식으로 구분할 수 있다. TOF 방식은 레이저가 펄스 신호를 방출하여 측정 범위 내에 있는 물체로부터의 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써 거리를 측정하는 것이 가능하다. Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체로부터 반사되어 되돌아 오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다. 최근에는 라이다 센서가 3D 기술 및 미래 자율주행자동차에 요구되는 핵심 기술로 활용되면서 그 중요성이 점차 증가하고 있다.LIDAR Sensor is an abbreviation for Light Detection And Ranging and is also called a laser scanner or laser radar. As the name suggests, this refers to a sensor using technology that can detect an object by shining a laser on the target and then detect the distance, direction, speed, temperature, material distribution, and concentration characteristics to the object. LiDAR sensors can be divided into TOF and Phase-shift methods depending on the modulation method of the laser signal. The TOF method is capable of measuring distance by measuring the time when a laser emits a pulse signal and the reflected pulse signals from objects within the measurement range arrive at the receiver. The phase-shift method calculates time and distance by emitting a laser beam that is continuously modulated with a specific frequency and measuring the amount of phase change in the signal reflected back from an object within the measurement range. Recently, the importance of LiDAR sensors is gradually increasing as they are used as a core technology required for 3D technology and future self-driving cars.

일 실시예에 따르면, 도 3을 참조하면 상기 모션 센서(31) 및 라이다 센서(32)중 적어도 하나가 영상 출력 영역인 I1, I2, I3, I4를 촬영하고, 이 결과를 통해서 영상 컨텐츠의 출력 경계면은 실선 경계와 일치해야 한다는 정보를 얻을 수 있다. 이때 I1과 I4에서 출력되는 영상 컨텐츠의 출력 경계면이 실선에 위치하면 정확히 위치된다고 판단할 수 있으며, 만약 출력 경계면이 점선에 위치하면 정확히 위치하지 않는다고 판단하여 실선에 출력 경계면이 위치할 수 있도록 C1만큼 영상의 각도 및 크기 등을 보정할 수 있다.According to one embodiment, referring to FIG. 3, at least one of the motion sensor 31 and the lidar sensor 32 captures the image output areas I1, I2, I3, and I4, and through these results, the image content We can get the information that the output boundary must match the solid boundary. At this time, if the output boundary of the video content output from I1 and I4 is located on the solid line, it can be judged to be located correctly. If the output boundary is located on the dotted line, it can be judged that it is not located correctly, so that the output boundary is located on the solid line by C1. You can correct the angle and size of the image.

도 4는 본 발명의 일 실시예에 따른 케어존 내의 영역 중에서 세 면이 만나는 포인트와 영상 컨텐츠의 출력 경계면이 만나는 경계점이 일치하는지를 판단하는 예를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an example of determining whether the point where three sides of an area in a care zone meet and the boundary point where the output boundary of video content meet coincides with each other, according to an embodiment of the present invention.

일 실시예에 따르면 상기 출력 감지부는 케어존 내의 천장, 바닥 및 벽면 중 세 면이 만나는 포인트들에 영상 컨텐츠의 출력 경계면이 만나는 경계점이 정확히 위치되는지 여부를 이용하여 상기 영상 출력 영역의 경계에 영상 컨텐츠의 출력 경계면이 정확히 위치되는지 여부를 판단할 수 있다.According to one embodiment, the output detection unit uses whether the boundary point where the output boundary surface of the image content meets is accurately located at the points where three sides of the ceiling, floor, and wall in the care zone meet, and displays the image content at the boundary of the image output area. It can be determined whether the output boundary is accurately located.

일 실시예에 따르면 도 4를 참조하면, 케어존 내의 천장, 바닥 및 벽면 중 세 면이 만나는 포인트들은 P1, P2, P3, P4이고, 케어존 내의 천장과 벽면이 만나는 포인트는 P5 등이 있다.According to one embodiment, referring to FIG. 4, the points where three surfaces of the ceiling, floor, and wall in the care zone meet are P1, P2, P3, and P4, and the point where the ceiling and the wall in the care zone meet is P5.

일 실시예에 따르면, 상기 출력 감지부는 천장, 벽면 영역의 영상 컨텐츠의 출력 경계면이 만나는 경계점인 포인트가 케어존 내의 천장 영역의 영상 출력 영역인 I2, 왼쪽 벽면 영역의 영상 출력 영역인 I4, 가운데 벽면 영역의 영상 출력 영역인 I1이 만나는 포인트인 P1과 일치하는지에 대한 여부를 통해 올바른 위치에서 영상 컨텐츠가 출력되고 있는지에 대한 여부를 판단할 수 있으며, 이를 통해 관리자가 일일이 확인해야 하는 번거로움 없이도 영상 컨텐츠가 올바르게 출력되고 있는지를 판단함으로써 사용자가 컨텐츠를 몰입감있게 즐기는데 도움을 주는 효과가 있다.According to one embodiment, the output detection unit has a point that is a boundary point where the output boundaries of the video contents of the ceiling and wall areas meet, such as I2, which is the video output area of the ceiling area in the care zone, I4, which is the image output area of the left wall area, and I4, which is the video output area of the left wall area. It is possible to determine whether the video content is being output at the correct location by checking whether I1, the video output area of , matches P1, the meeting point, and through this, the video content can be displayed without the administrator having to check it one by one. It has the effect of helping users enjoy content in an immersive way by determining whether it is being output correctly.

일 실시예에 따르면, 상기 출력 제어부는 기설정된 주기마다 출력 감지부의 판단 결과를 수신하는 제1 조건 및 케어존 내의 유지 및 보수를 위한 점검 및 청소가 이루어진 이후 출력 감지부의 판단 결과를 수신하는 제2 조건 중 어느 한 조건을 만족하는 시점에 상기 출력 감지부의 판단 결과를 수신할 수 있다.According to one embodiment, the output control unit sets a first condition for receiving the determination result of the output detection unit at a preset period and a second condition for receiving the determination result from the output detection unit after inspection and cleaning for maintenance and repair in the care zone are performed. The judgment result of the output detection unit can be received at the point when any one of the conditions is satisfied.

일 실시예에 따르면, 상기 출력 제어부는 기설정된 주기(예: 7일)가 되면 제1 조건을 만족하여 출력 감지부의 판단 결과를 수신하게 되고, 케어존 내의 유지 및 보수를 위한 점검 및 청소가 이루어진 이후에는 제2 조건을 만족하여 출력 감지부의 판단 결과를 수신할 수 있다. 또한 기설정된 주기(예: 7일)에 케어존 내를 점검 및 청소를 수행해도 마찬가지로 제1 조건과 제2 조건을 만족하여 출력 감지부의 판단 결과를 수신할 수 있다.According to one embodiment, the output control unit satisfies the first condition at a preset period (e.g., 7 days) and receives the judgment result of the output detection unit, and after inspection and cleaning for maintenance and repair within the care zone are performed. The second condition is satisfied and the judgment result of the output detection unit can be received. In addition, even if the care zone is inspected and cleaned at a preset period (e.g., 7 days), the first condition and the second condition can be satisfied and the judgment result of the output detector can be received.

일 실시예에 따르면, 상기 출력 제어부의 수행에서 제1 조건은 영상 출력 장치(20)가 시간이 지남에 따라 설정된 위치가 변화할 수 있으므로 주기적인 보정을 통해서 정확한 위치에 영상 컨텐츠를 출력하게 하는 효과가 있다.According to one embodiment, the first condition in the performance of the output control unit is that the set position of the video output device 20 may change over time, so the effect of outputting video content at an accurate position through periodic correction. There is.

일 실시예에 따르면, 상기 출력 제어부의 수행에서 제2 조건은 관리자가 유지, 보수를 위한 점검 시 영상 출력 장치(20)가 초기화될 수 있으며, 청소 작업 이후에는 영상 출력 장치(20)가 틀어질 가능성이 크기 때문에 이러한 것을 보정하는 효과를 얻을 수 있다.According to one embodiment, the second condition in the performance of the output control unit is that the video output device 20 may be initialized when the manager inspects for maintenance and repair, and the video output device 20 may be turned on after the cleaning operation. Since the possibility is high, the effect of correcting this can be obtained.

도 5는 본 발명의 일 실시예에 따른 케어존 내부의 평면도로서, 바닥면의 영상에 케어존의 브랜드 아이콘이 포함된 UI 요소가 포함되어 있는 예를 설명하기 위한 도면이다.Figure 5 is a plan view of the inside of a care zone according to an embodiment of the present invention, and is a diagram to explain an example in which a UI element including a brand icon of the care zone is included in an image of the floor.

일 실시예에 따르면, 상기 영상 컨텐츠 가공부(11)에 의하여 가공되는 다수의 영상 컨텐츠들 중, 바닥면에 대응되는 영상 출력 영역에 출력되는 영상 컨텐츠에는, 적어도 유저가 헬스케어 컨텐츠를 이용하기 위하여 지정되는 위치로서, 벽면에 출력되는 영상 컨텐츠의 이용 및 유저의 동작을 인식하기 위한 모션 센서(31) 또는 라이다 센서(32)의 인식을 위하여 기설정되는 위치인 유저 위치를 표시하거나, 유저가 다면의 영상 컨텐츠 중 어느 한 컨텐츠를 바라보도록 유도하거나, 유저가 이동해야 하는 방향을 유도하기 위한 UI 요소로서, 적어도 케어존의 브랜드가 포함된 반응형 브랜드 아이콘이 포함될 수 있다.According to one embodiment, among the plurality of video contents processed by the video content processing unit 11, the video content output to the video output area corresponding to the floor includes at least the video content in order for the user to use the healthcare content. As a designated location, it displays the user location, which is a preset location for the use of video content output on the wall and recognition of the motion sensor 31 or LiDAR sensor 32 for recognizing the user's movements, or when the user As a UI element to guide the user to look at one of the multi-faceted video contents or guide the direction in which the user should move, a responsive brand icon containing at least Care Zone's brand may be included.

일 실시예에 따르면, 도 5의 (a)를 참조하면 바닥면에 대응되는 영상 컨텐츠에는 사용자가 헬스케어 컨텐츠 중에서 홈트레이닝에 대한 컨텐츠를 이용할 때 바닥면에 대응되는 영상 출력 영역인 I3에서 출력되는 영상 컨텐츠에는 가운데 벽면의 영상 출력 영역인 I1에 출력되는 영상 컨텐츠의 이용과 모션 센서(31)와 라이다 센서(32)로 유저의 동작을 인식하기 위해 지정되는 위치(101)가 포함되어 표시될 수 있다. 따라서 표시되어 있는 101은 사용자가 헬스케어 컨텐츠 이용을 위해서 유저가 서있어야 하는 위치를 의미하는 UI 요소일 수 있다.According to one embodiment, referring to (a) of FIG. 5, the image content corresponding to the floor includes the image content output from I3, which is the image output area corresponding to the floor, when the user uses content about home training among healthcare contents. The video content will be displayed including the use of the video content output to I1, the video output area on the center wall, and a location (101) designated to recognize the user's motion using the motion sensor 31 and the LiDAR sensor 32. You can. Therefore, the displayed 101 may be a UI element indicating the position where the user should stand in order to use healthcare content.

일 실시예에 따르면, 도 5의 (b)를 참조하면 바닥면에 대응되는 영상 컨텐츠에는 사용자가 헬스케어 컨텐츠 중에서 홈트레이닝에 대한 컨텐츠를 이용할 때 바닥면에 대응되는 영상 출력 영역인 I3에서 출력되는 영상 컨텐츠에는 다면의 영상 컨텐츠 중에서 왼쪽 벽면의 영상 출력 영역(I4)과 가운데 벽면의 영상 출력 영역(I1) 사이에 출력되는 영상 컨텐츠를 바라보도록 유도하기 위해서 102처럼 유저의 동작을 인식하기 위해 지정되는 위치가 대각선으로 이동되어 표시될 수 있다. 따라서 표시되어 있는 102는 사용자가 헬스케어 컨텐츠 이용을 위해서 유저가 바라봐야 하는 방향을 유도하는 UI 요소일 수 있다.According to one embodiment, referring to (b) of FIG. 5, the image content corresponding to the floor includes the image content output from I3, which is the image output area corresponding to the floor, when the user uses content about home training among healthcare contents. Among the multi-faceted video contents, a number is designated to recognize the user's actions, such as 102, in order to encourage the user to look at the video content displayed between the video output area (I4) on the left wall and the video output area (I1) on the center wall. The position may be displayed by moving diagonally. Therefore, the displayed 102 may be a UI element that guides the direction the user should look in order to use healthcare content.

일 실시예에 따르면, 도 5의 (c)를 참조하면 바닥면에 대응되는 영상 컨텐츠에는 사용자가 헬스케어 컨텐츠 중에서 홈트레이닝에 대한 컨텐츠를 이용할 때 바닥면에 대응되는 영상 출력 영역인 I3에서 출력되는 영상 컨텐츠에는 유저가 이동해야 하는 방향을 유도하기 위한 UI 요소가 포함되어 표시될 수 있다.According to one embodiment, referring to (c) of FIG. 5, the image content corresponding to the floor includes the image content output from I3, which is the image output area corresponding to the floor, when the user uses content about home training among healthcare contents. Video content may be displayed including UI elements to guide the user in the direction in which he or she should move.

'반응형 아이콘'은 벡터형 아이콘과 반응형 웹 디자인이 결합한 결과물이다. 반응형 웹은 디바이스의 종류에 따라 웹페이지의 크기가 자동적으로 재조정 되는 것을 말한다. 즉, 반응형 웹은 어떠한 환경에서도 그에 맞게 사이즈가 변화되어 사용자가 보기 편리하게 하는 웹이다.‘Responsive icons’ are the result of combining vector icons and responsive web design. Responsive web refers to the automatic resizing of web pages depending on the type of device. In other words, a responsive web is a web that changes size to suit any environment, making it easier for users to view.

일 실시예에 따르면, 상기 케어존의 브랜드가 포함된 반응형 브랜드 아이콘은 사용자의 움직임에 따라 함께 이동할 수 있으며 크기나 형태도 그에 맞게 변화할 수 있다. 또한 상술한 반응형 브랜드 아이콘에는 케어존의 브랜드가 포함되어 디지털 헬스케어 서비스 제공 공간을 이용할 때 사용자들에게 케어존의 브랜드를 각인시키고 홍보하는 효과가 있다.According to one embodiment, the responsive brand icon containing the brand of the care zone can move along with the user's movement and its size or shape can change accordingly. In addition, the above-mentioned responsive brand icon includes Care Zone's brand, which has the effect of imprinting and promoting Care Zone's brand to users when using the digital healthcare service provision space.

도 6은 본 발명의 일 실시예에 따른 유저의 눈부심을 방지하기 위해 영상 컨텐츠를 보정하는 예를 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating an example of correcting image content to prevent glare for a user according to an embodiment of the present invention.

일 실시예에 따르면, 상기 영상 컨텐츠 가공부(11)는 상기 다수의 영상 컨텐츠를 가공 시, 유저의 눈부심을 방지하기 위하여 영상 컨텐츠를 보정할 수 있다.According to one embodiment, the video content processing unit 11 may correct the video content to prevent glare for the user when processing the plurality of video contents.

보다 자세하게, 상기 영상 컨텐츠 가공부(11)는 다수의 영상 컨텐츠의 밝기를 기설정된 조도값 미만으로 가공하는 제1 방식, 다수의 영상 컨텐츠에 포함된 객체 및 배경 이미지 이외의 색을 블랙으로 변환하는 제2 방식, 다수의 영상 컨텐츠에 포함된 객체 사이의 경계선을 블랙으로 처리하는 제3 방식 중 적어도 한 방식을 이용하여 유저의 눈부심을 방지하도록 영상 컨텐츠를 보정할 수 있다.In more detail, the video content processing unit 11 uses a first method of processing the brightness of a plurality of video contents to be less than a preset illuminance value, and a method of converting colors other than objects and background images included in the plurality of video contents to black. The image content can be corrected to prevent glare for the user by using at least one method among the second method and the third method in which boundaries between objects included in a plurality of video contents are turned black.

일 실시예에 따르면, 도 6을 참조하면 상기 영상 컨텐츠 가공부(11)에서 보정하기 전의 영상 컨텐츠(110)에 포함되어 있는 요소들의 예는 각각 객체(01), 경계선(111)으로, 이후 상기 영상 컨텐츠 가공부(11)에 의해 가공되어 영상 출력 영역 I2에서 출력될 수 있다.According to one embodiment, referring to FIG. 6, examples of elements included in the image content 110 before correction in the image content processing unit 11 are an object 01 and a boundary line 111, respectively. It may be processed by the video content processing unit 11 and output in the video output area I2.

일 실시예에 따르면, 도 6을 참조하면 상기 영상 컨텐츠 가공부(11)가 다수의 영상 컨텐츠의 밝기를 기설정된 조도값 미만으로 가공하는 제1 방식으로 가공하면 I2의 전체적인 밝기가 기설정된 조도값(예: 60% 미만)으로 감소할 수 있으며, 상기 영상 컨텐츠 가공부(11)가 다수의 영상 컨텐츠에 포함된 객체 및 배경 이미지 이외의 색을 블랙으로 변환하는 제2 방식으로 가공하면 객체(01) 이외의 색(113)이 블랙으로 변환되어 출력될 수 있으며, 상기 영상 컨텐츠 가공부(11)가 다수의 영상 컨텐츠에 포함된 객체 사이의 경계선을 블랙으로 처리하는 제3 방식으로 가공하면 객체 사이의 경계선(112)이 블랙으로 처리되어 출력될 수 있다.According to one embodiment, referring to FIG. 6, when the video content processing unit 11 processes the brightness of the plurality of video contents to be less than the preset illuminance value in the first method, the overall brightness of I2 is less than the preset illuminance value. (e.g., less than 60%), and when the video content processing unit 11 processes colors other than objects and background images included in a plurality of video contents in a second method to black, the object (01 ) Colors 113 other than black can be converted to black and output, and when the video content processing unit 11 processes the boundaries between objects included in a plurality of video contents in a third way to black, the The border line 112 may be processed and output as black.

도 7은 본 발명의 일 실시예에 따른 영상을 동기화하기 위한 다면 영상 출력 시스템의 영상 동기화부(13)를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating the image synchronization unit 13 of a multi-faceted image output system for synchronizing images according to an embodiment of the present invention.

도 7을 참조하면 예를 들어, T(I1, P1)은 I1에서 이미지 P1이 출력될 때의 시간이며, T(I2, P1)은 I2에서 이미지 P1이 출력될 때의 시간이며, T(I4, P1)은 I4에서 이미지 P1이 출력될 때의 시간을 의미한다.Referring to Figure 7, for example, T(I1, P1) is the time when image P1 is output from I1, T(I2, P1) is the time when image P1 is output from I2, and T(I4 , P1) means the time when image P1 is output from I4.

일 실시예에 따르면 상기 영상 동기화부(13)는 각 시간 정보를 수신 시에, 모든 이미지(P1)에 대해서 각 영역별 이미지(예: I1 영역 안의 P1, I2 영역 안의 P1, I4 영역 안의 P1)가 출력되는 시간에 대한 정보(T)를 수신하고, 해당 시간에 대한 정보(T)의 오차를 기준으로 영상을 동기화하여 각 구간별 영상의 특정 시간에 대응되는 프레임 이미지(I1, I2, I4 등) 모두가 해당 시간에서 P1이라는 이미지가 분할된 부분 이미지로 표현되도록 영상의 출력 시간을 동기화할 수 있다. 다시 말해, 이러한 상기 영상 동기화부(13)의 수행을 통해서 사용자가 동일한 시간대에 온전한 P1을 포함하는 영상 컨텐츠를 감상할 수 있는 효과가 있다.According to one embodiment, when receiving each time information, the video synchronization unit 13 selects images for each area (e.g., P1 in area I1, P1 in area I2, and P1 in area I4) for all images (P1). Receives information (T) about the time at which data is output, synchronizes the video based on the error in the information (T) for that time, and generates frame images (I1, I2, I4, etc.) corresponding to the specific time of the video for each section. ) Everyone can synchronize the output time of the video so that the image P1 is expressed as a divided partial image at that time. In other words, through the performance of the video synchronization unit 13, the user can enjoy video content including the intact P1 at the same time.

이후, 상기 영상 동기화부(13)에 의해 동기화된 영상 컨텐츠는 영상 출력 장치(20)에서 각 객체와 배경 이미지 등이 동기화되어 출력될 수 있다.Thereafter, the video content synchronized by the video synchronization unit 13 may be output in the video output device 20 with each object and background image synchronized.

도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 7에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.FIG. 8 illustrates an example of the internal configuration of a computing device according to an embodiment of the present invention. In the following description, descriptions of unnecessary embodiments that overlap with the description of FIGS. 1 to 7 described above will be omitted. Do this.

도 8에 도시한 바와 같이, 컴퓨팅 장치(10000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)는 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.As shown in FIG. 8, the computing device 10000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600). At this time, the computing device 10000 may correspond to a user terminal (A) connected to a tactile interface device or the computing device (B) described above.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. there is. The memory 11200 may include software modules, instruction sets, or various other data necessary for the operation of the computing device 10000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the memory 11200 from other components such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)를 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface 11300 may couple input and/or output peripherals of the computing device 10000 to the processor 11100 and the memory 11200. The processor 11100 may execute a software module or set of instructions stored in the memory 11200 to perform various functions for the computing device 10000 and process data.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 can couple various input/output peripheral devices to the peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling peripheral devices such as a monitor, keyboard, mouse, printer, or, if necessary, a touch screen or sensor to the peripheral device interface 11300. According to another aspect, input/output peripheral devices may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.Power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or a power source. It may contain arbitrary other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may include an RF circuit to transmit and receive RF signals, also known as electromagnetic signals, to enable communication with other computing devices.

이러한 도 8의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)는 도 8에 도시된 일부 컴포넌트가 생략되거나, 도 8에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 8에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 8 is only an example of the computing device 10000, and the computing device 11000 omits some components shown in FIG. 8, further includes additional components not shown in FIG. 8, or 2 It may have a configuration or arrangement that combines more than one component. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 8, and may include various communication methods (WiFi, 3G, LTE) in the communication circuit 1160. , Bluetooth, NFC, Zigbee, etc.) may also include a circuit for RF communication. Components that may be included in the computing device 10000 may be implemented as hardware, software, or a combination of both hardware and software, including one or more signal processing or application-specific integrated circuits.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable medium. In particular, the program according to this embodiment may be composed of a PC-based program or a mobile terminal-specific application. The application to which the present invention is applied can be installed on a user terminal through a file provided by a file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request from the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device may include multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied permanently or temporarily. Software may be distributed over networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent. Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the claims described below.

Claims (9)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템으로서,
유저가 입실하여 디지털 헬스케어 서비스에 관련된 영상 컨텐츠를 이용한 훈련 서비스를 이용하기 위한 케어존 내의 복수의 영상 출력 영역에 출력되는 헬스케어 컨텐츠를 외부로부터 수신 시, 헬스케어 컨텐츠를 다면에 출력하기 위하여 다수의 영상 컨텐츠로 가공하고, 각 영상 컨텐츠가 영상 출력 장치를 통해 다면에 출력되도록 하는 영상 컨텐츠 가공부;
가공된 다수의 영상 컨텐츠가 복수의 영상 출력 영역에 정확히 매칭되도록 상기 영상 출력 장치의 영상 출력을 제어하는 출력 형태 제어부; 및
상기 각 영상 출력 장치를 통해 출력되는 영상 컨텐츠의 출력 타임을 동기화하는 영상 동기화부;를 포함하되,
상기 영상 동기화부는,
각 시간 정보를 수신 시에, 모든 이미지에 대해서 각 영역별 이미지가 출력되는 시간에 대한 정보를 수신하고, 해당 시간에 대한 정보의 오차를 기준으로 영상을 동기화하여 각 구간별 영상의 특정 시간에 대응되는 프레임 이미지 모두가 해당 시간에서 하나의 전체 이미지가 분할된 부분 이미지로 표현되도록 영상의 출력 시간을 동기화하고,
상기 영상 컨텐츠 가공부에 의하여 가공되는 다수의 영상 컨텐츠들 중, 바닥면에 대응되는 영상 출력 영역에 출력되는 영상 컨텐츠에는, 적어도 유저가 헬스케어 컨텐츠를 이용하기 위하여 지정되는 위치로서, 벽면에 출력되는 영상 컨텐츠의 이용 및 유저의 동작을 인식하기 위한 모션 센서 또는 라이다 센서의 인식을 위하여 기설정되는 위치인 유저 위치를 표시하거나, 유저가 다면의 영상 컨텐츠 중 어느 한 컨텐츠를 바라보도록 유도하거나, 유저가 이동해야 하는 방향을 유도하기 위한 UI 요소로서, 적어도 케어존의 브랜드가 포함된 반응형 브랜드 아이콘이 포함되어 사용자의 움직임에 따라 이동하거나 크기나 형태가 변화하여 브랜드를 홍보하도록 하고,
상기 영상 컨텐츠 가공부는,
상기 다수의 영상 컨텐츠를 가공 시, 유저의 눈부심을 방지하기 위하여 영상 컨텐츠를 보정하고,
다수의 영상 컨텐츠의 밝기를 기설정된 조도값 미만으로 가공하는 제1 방식, 다수의 영상 컨텐츠에 포함된 객체 및 배경 이미지 이외의 색을 블랙으로 변환하는 제2 방식, 다수의 영상 컨텐츠에 포함된 객체 사이의 경계선을 블랙으로 처리하는 제3 방식 중 적어도 한 방식을 이용하여 유저의 눈부심을 방지하도록 영상 컨텐츠를 보정하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
A multi-faceted image output system for a digital healthcare service provision space implemented as a computing device including one or more processors and one or more memories storing instructions executable by the processors, comprising:
When a user enters the room and receives healthcare content from outside that is output to multiple video output areas in the care zone to use a training service using video content related to digital healthcare service, a plurality of A video content processing unit that processes video content and outputs each video content on multiple surfaces through a video output device;
an output type control unit that controls video output of the video output device so that a plurality of processed video contents are accurately matched to a plurality of video output areas; and
A video synchronization unit that synchronizes the output time of video content output through each video output device,
The video synchronization unit,
When receiving each time information, information about the time when the image for each area is output is received for all images, and the video is synchronized based on the error in the information for that time to correspond to the specific time of the video for each section. The output time of the video is synchronized so that all frame images are expressed as a single full image at that time as a divided partial image,
Among the plurality of video contents processed by the video content processing unit, the video content output to the video output area corresponding to the floor includes at least the location designated for the user to use the healthcare content, which is output on the wall. Displays the user's location, which is a preset location for recognition by a motion sensor or lidar sensor to recognize the use of video content and the user's movements, guides the user to look at one of the multi-faceted video content, or As a UI element to guide the direction in which the product should move, it includes at least a responsive brand icon containing the Care Zone brand so that it moves or changes size or shape according to the user's movement to promote the brand.
The video content processing unit,
When processing the plurality of video contents, the video contents are corrected to prevent glare to the user,
A first method of processing the brightness of a plurality of video contents to be less than a preset illuminance value, a second method of converting colors other than objects and background images included in the plurality of video contents to black, objects included in the plurality of video contents A multi-faceted image output system for a digital healthcare service provision space that corrects image content to prevent glare for the user using at least one of the third methods of blackening the boundary between the two sides.
제1항에 있어서,
상기 영상 출력 영역은,
케어존 내의 천장, 바닥 및 벽면이며,
상기 출력 형태 제어부는,
각 영상 컨텐츠의 출력 경계면이 각 영상 출력 영역의 경계에 정확히 위치되도록 영상 컨텐츠의 출력 각도 및 크기를 제어하는 것을 특징으로 하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
According to paragraph 1,
The video output area is,
Ceiling, floor and walls within the care zone,
The output form control unit,
A multi-faceted image output system for a digital healthcare service provision space, characterized in that the output angle and size of the image content is controlled so that the output boundary surface of each image content is exactly located at the boundary of each image output area.
제2항에 있어서,
상기 출력 형태 제어부는,
각 영상 컨텐츠의 출력 경계면이 각 영상 출력 영역의 경계에 위치되는지 여부를 판단하는 출력 감지부; 및
상기 출력 감지부의 판단 결과에 따라서 영상 컨텐츠의 출력 각도 및 크기를 제어하는 출력 제어부;를 포함하는 것을 특징으로 하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
According to paragraph 2,
The output form control unit,
an output detection unit that determines whether the output boundary of each image content is located at the boundary of each image output area; and
An output control unit that controls the output angle and size of the video content according to the judgment result of the output detection unit. A multi-faceted image output system for a digital healthcare service provision space, comprising:
제3항에 있어서,
상기 출력 감지부는,
상기 유저의 모션을 감지하는 모션 센서 및 라이다 센서 중 적어도 하나가 상기 영상 출력 영역의 경계를 촬영한 결과를 바탕으로 상기 영상 출력 영역의 경계에 영상 컨텐츠의 출력 경계면이 정확히 위치되는지 여부를 판단하는 것을 특징으로 하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
According to paragraph 3,
The output detection unit,
At least one of a motion sensor and a lidar sensor that detects the user's motion determines whether the output boundary of the video content is accurately located at the border of the video output area based on a result of photographing the border of the video output area. A multi-faceted image output system for a digital healthcare service provision space.
제4항에 있어서,
상기 출력 감지부는,
케어존 내의 천장, 바닥 및 벽면 중 세 면이 만나는 포인트들에 영상 컨텐츠의 출력 경계면이 만나는 경계점이 정확히 위치되는지 여부를 이용하여 상기 영상 출력 영역의 경계에 영상 컨텐츠의 출력 경계면이 정확히 위치되는지 여부를 판단하는 것을 특징으로 하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
According to clause 4,
The output detection unit,
Determine whether the output boundary of the video content is accurately located at the boundary of the video output area by using whether the boundary point where the output boundary of the video content meets the points where the three sides of the ceiling, floor, and wall in the care zone meet is accurately located. A multi-faceted image output system for a digital healthcare service provision space.
제3항에 있어서,
상기 출력 제어부는,
기설정된 주기마다 출력 감지부의 판단 결과를 수신하는 제1 조건 및 케어존 내의 유지 및 보수를 위한 점검 및 청소가 이루어진 이후 출력 감지부의 판단 결과를 수신하는 제2 조건 중 어느 한 조건을 만족하는 시점에 상기 출력 감지부의 판단 결과를 수신하는 것을 특징으로 하는 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템.
According to paragraph 3,
The output control unit,
The first condition of receiving the judgment result of the output detector at a preset period and the second condition of receiving the judgment result of the output detector after inspection and cleaning for maintenance and repair within the care zone are performed. A multi-faceted image output system for a digital healthcare service provision space, characterized in that it receives the judgment result of the output detection unit.
삭제delete 삭제delete 삭제delete
KR1020230002635A 2023-01-09 2023-01-09 Multi-sided image output system for digital healthcare service space KR102646876B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230002635A KR102646876B1 (en) 2023-01-09 2023-01-09 Multi-sided image output system for digital healthcare service space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230002635A KR102646876B1 (en) 2023-01-09 2023-01-09 Multi-sided image output system for digital healthcare service space

Publications (1)

Publication Number Publication Date
KR102646876B1 true KR102646876B1 (en) 2024-03-12

Family

ID=90299361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230002635A KR102646876B1 (en) 2023-01-09 2023-01-09 Multi-sided image output system for digital healthcare service space

Country Status (1)

Country Link
KR (1) KR102646876B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101305252B1 (en) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 Multi-projection system
KR20150100590A (en) * 2015-08-13 2015-09-02 씨제이씨지브이 주식회사 Multi-projection system using a interior surface as a projection plane
KR101810653B1 (en) * 2017-05-11 2017-12-21 (주)피플리 Method and apparatus for correction of location of projection image
KR20220058306A (en) * 2020-10-30 2022-05-09 주식회사 유캔스타 System and Method for Providing Location-based Content using Motion Base and Tracker in Immersive VR Experience Space
KR20220112495A (en) * 2021-02-04 2022-08-11 동서울대학교 산학협력단 Image projection system and method of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101305252B1 (en) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 Multi-projection system
KR20150100590A (en) * 2015-08-13 2015-09-02 씨제이씨지브이 주식회사 Multi-projection system using a interior surface as a projection plane
KR101810653B1 (en) * 2017-05-11 2017-12-21 (주)피플리 Method and apparatus for correction of location of projection image
KR20220058306A (en) * 2020-10-30 2022-05-09 주식회사 유캔스타 System and Method for Providing Location-based Content using Motion Base and Tracker in Immersive VR Experience Space
KR20220112495A (en) * 2021-02-04 2022-08-11 동서울대학교 산학협력단 Image projection system and method of the same

Similar Documents

Publication Publication Date Title
US11567535B2 (en) Temperature-controlled wearable extended reality appliance
Whelan et al. ElasticFusion: Real-time dense SLAM and light source estimation
CN109101873B (en) Electronic device for providing characteristic information of an external light source for an object of interest
Ens et al. Spatial constancy of surface-embedded layouts across multiple environments
US20170243396A1 (en) Method for processing image and electronic device thereof
JP7286208B2 (en) Biometric face detection method, biometric face detection device, electronic device, and computer program
US20230169686A1 (en) Joint Environmental Reconstruction and Camera Calibration
US20230195224A1 (en) Systems and methods for gaze-tracking
KR102220917B1 (en) LED Display Board System, Method and Computer-Readable Medium with the Function of Transmitting Disaster Images
CN102150116A (en) Remote-controlled pointing
KR102646876B1 (en) Multi-sided image output system for digital healthcare service space
Ichihashi et al. Estimating visibility of annotations for view management in spatial augmented reality based on machine-learning techniques
KR102540678B1 (en) Method and System for Supplementing Derive the Position of an Object Using a Camera Image
JP7357033B2 (en) Automatic training image generation system and method
US20230245435A1 (en) System and method for supervised contrastive learning for multi-modal tasks
Ogiela et al. Natural user interfaces for exploring and modeling medical images and defining gesture description technology
EP3779645A1 (en) Electronic device determining method and system, computer system, and readable storage medium
KR102575387B1 (en) Method, apparatus and computer-readable recording medium for implementing a character and providing motion content based on joint motion range recognition
Chi et al. Embedded AI system for interactive vision screen based on human action recognition
Cobo et al. On the representation and methodology for wide and short range head pose estimation
US20220334674A1 (en) Information processing apparatus, information processing method, and program
Inoue et al. Detection of bed position for automation of patient‐monitoring function
US20240111898A1 (en) Hybrid Camera System For Oscuring Personally Identifiable Information
Harrington On Clinical Use of Infrared Cameras for Video-Based Estimation of 3D Facial Kinematics
Handa et al. Enhancing metric perception with rgb-d camera

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant