KR102591907B1 - Method, Computer Program And System For Linking Video Content and Motion Chair - Google Patents

Method, Computer Program And System For Linking Video Content and Motion Chair Download PDF

Info

Publication number
KR102591907B1
KR102591907B1 KR1020210123275A KR20210123275A KR102591907B1 KR 102591907 B1 KR102591907 B1 KR 102591907B1 KR 1020210123275 A KR1020210123275 A KR 1020210123275A KR 20210123275 A KR20210123275 A KR 20210123275A KR 102591907 B1 KR102591907 B1 KR 102591907B1
Authority
KR
South Korea
Prior art keywords
video content
control signal
motion
movement
movement information
Prior art date
Application number
KR1020210123275A
Other languages
Korean (ko)
Other versions
KR20230040092A (en
Inventor
전홍진
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020210123275A priority Critical patent/KR102591907B1/en
Priority to PCT/KR2022/008959 priority patent/WO2023043011A1/en
Publication of KR20230040092A publication Critical patent/KR20230040092A/en
Priority to KR1020230092668A priority patent/KR102660203B1/en
Application granted granted Critical
Publication of KR102591907B1 publication Critical patent/KR102591907B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • A61B5/4023Evaluating sense of balance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video

Abstract

본 발명의 일 실시예에 따른 영상 컨텐츠와 모션 체어를 연동하는 방법은 영상 컨텐츠를 제공하는 단계; 상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하는 단계; 및 모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공하는 단계를 포함한다.A method of linking video content and a motion chair according to an embodiment of the present invention includes providing video content; Obtaining movement information regarding movement of an area of the video content; and providing a motion control signal for inducing a movement corresponding to the movement information to the motion chair so that the movement of the motion chair is linked to the movement of the video content.

Description

영상 컨텐츠와 모션 체어를 연동하는 방법, 컴퓨터 프로그램 및 시스템 {Method, Computer Program And System For Linking Video Content and Motion Chair}Method, Computer Program And System For Linking Video Content and Motion Chair {Method, Computer Program And System For Linking Video Content and Motion Chair}

본 발명은 영상 컨텐츠와 모션 체어를 연동하는 방법, 컴퓨터 프로그램 및 시스템에 관한 것이다.The present invention relates to a method, computer program, and system for linking video content and a motion chair.

최근에 질병 치료 목적 등 다양한 목적으로 가상 현실(virtual reality, VR) 또는 증강 현실(augmented reality, AR) 영상 컨텐츠가 활용되는 등 헬스케어 분야에서 VR, AR 영상 컨텐츠의 활용이 활발히 이루어지고 있다. 특히, 심리 치료, 통증 완화, 재활, 긴장 완화 등 다양한 목적으로 영상 컨텐츠를 이용한 훈련/치료 방법이 쓰이고 있다. Recently, virtual reality (VR) or augmented reality (AR) video content has been actively used in the healthcare field, with virtual reality (VR) or augmented reality (AR) video content being used for various purposes such as disease treatment. In particular, training/treatment methods using video content are being used for various purposes such as psychological treatment, pain relief, rehabilitation, and tension relief.

한편, 정신적 장애나 정서적 곤란을 겪는 정신질환자나 노인 등 취약 계층을 대상으로 한 훈련/치료 방법에 있어서는 영상 컨텐츠의 움직임으로 인한 어지럼증이 크게 유발되어 이들을 대상으로 한 훈련/치료가 사실상 불가능한 문제점이 있다.Meanwhile, in training/treatment methods for vulnerable groups such as mentally ill people or the elderly who suffer from mental disorders or emotional difficulties, there is a problem in that training/treatment for these people is virtually impossible because dizziness is greatly caused by the movement of video content. .

전술한 문제점을 해결하기 위해, 본 발명의 실시예들은 어지럼증이 심한 사용자도 안정적이고 효과적으로 영상 컨텐츠에 따른 훈련/치료를 받을 수 있는 영상 컨텐츠와 모션 체어를 연동하는 방법, 컴퓨터 프로그램 및 시스템을 제공하고자 한다.In order to solve the above-described problems, embodiments of the present invention seek to provide a method, computer program, and system for linking video content and a motion chair so that even users with severe dizziness can receive training/treatment according to video content stably and effectively. do.

본 발명의 일 실시예에 따른 영상 컨텐츠와 모션 체어를 연동하는 방법은 영상 컨텐츠를 제공하는 단계; 상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하는 단계; 및 모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공하는 단계를 포함한다.A method of linking video content and a motion chair according to an embodiment of the present invention includes providing video content; Obtaining movement information regarding movement of an area of the video content; and providing a motion control signal for inducing a movement corresponding to the movement information to the motion chair so that the movement of the motion chair is linked to the movement of the video content.

상기 연동하는 방법은, 상기 모션 제어신호를 평가하는 단계;를 더 포함하되, 상기 평가하는 단계는, 상기 모션 체어의 움직임이 없는 상태에서 상기 영상 컨텐츠의 상기 이동 정보에 따른 사용자의 제1 반응 데이터를 측정하는 단계; 상기 모션 체어에 상기 모션 제어신호가 적용된 상태에서 상기 이동 정보에 따른 사용자의 제2 반응 데이터를 측정하는 단계; 및 상기 제2 반응 데이터의 폭이 상기 제1 반응 데이터보다 작도록 상기 모션 제어신호를 생성하도록 제어하는 단계;를 포함할 수 있다.The linking method further includes evaluating the motion control signal, wherein the evaluating step includes first reaction data of the user according to the movement information of the video content in a state where there is no movement of the motion chair. measuring; measuring second reaction data of the user according to the movement information while the motion control signal is applied to the motion chair; and controlling the motion control signal to be generated so that the width of the second response data is smaller than the first response data.

상기 영상 컨텐츠는 3축 방향 중 적어도 하나의 축의 이동 정보를 포함하고, 상기 모션 제어신호를 제공하는 단계는, 상기 이동 정보가 제1 축 방향의 제1 이동 정보만을 포함하는 경우 상기 모션 제어신호를 제공하지 않고, 상기 이동 정보가 상기 제1 축 방향과 서로 교차하는 제2 축 방향 및 제3 축 방향 각각의 제2 이동 정보 및 제3 이동 정보 중 적어도 하나를 포함하는 경우, 상기 제2 이동 정보 및 상기 제3 이동 정보 각각과 대응하는 모션 제어신호를 제공할 수 있다.The video content includes movement information in at least one of three axes, and the step of providing the motion control signal includes sending the motion control signal when the movement information includes only first movement information in the first axis direction. If the movement information includes at least one of second movement information and third movement information in each of the second and third axis directions intersecting the first axis direction, the second movement information and a motion control signal corresponding to each of the third movement information.

상기 영상 컨텐츠를 이용하는 사용자에 관한 사용자 데이터를 획득하는 단계; 및 상기 사용자 데이터를 기초로 상기 모션 제어신호에 미리 설정된 기준에 따라 변동된 변동 제어신호를 생성하는 단계;를 포함할 수 있다.Obtaining user data about users who use the video content; and generating a variable control signal that is changed according to a standard preset in the motion control signal based on the user data.

상기 사용자 데이터는 사용자의 연령, 성별, 불안증 지표 및 안구 관련 지표 중 적어도 하나를 포함하는 복수의 지표를 포함하고, 상기 변동 제어신호를 생성하는 단계는, 상기 복수의 지표 각각과 어지럼증 간의 관계를 기초로 어지럼증 상관지수를 산출하는 단계; 및 상기 모션 제어신호에 대하여, 상기 어지럼증 상관지수의 값에 따라 상기 모션 제어신호에 대한 변동 폭을 달리 적용하여 상기 변동 제어신호를 생성하는 단계;를 포함할 수 있다.The user data includes a plurality of indicators including at least one of the user's age, gender, anxiety indicator, and eye-related indicator, and the step of generating the change control signal is based on the relationship between each of the plurality of indicators and dizziness. Calculating a dizziness correlation index; and generating the variation control signal by applying different variation widths to the motion control signal according to the value of the dizziness correlation index.

상기 어지럼증 상관지수는 연령 및 성별 중 적어도 하나에 따른 제1 어지럼증 지표를 포함하고, 상기 변동 제어신호를 생성하는 단계는, 상기 제1 어지럼증 지표가 클수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성하는 단계일 수 있다.The dizziness correlation index includes a first dizziness index according to at least one of age and gender, and the step of generating the fluctuation control signal includes applying the fluctuation width to be larger as the first dizziness indicator becomes larger. It may be a creation stage.

상기 어지럼증 상관지수는 상기 불안증 지표 및 상기 안구 관련 지표 각각과 어지럼증 간의 상관관계에 관한 제2 어지럼증 지표를 포함하고, 상기 변동 제어신호를 생성하는 단계는, 상기 제2 어지럼증 지표가 작을수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성할 수 있다.The dizziness correlation index includes a second dizziness index related to the correlation between each of the anxiety index and the eye-related index and dizziness, and the step of generating the variation control signal is such that the smaller the second dizziness index, the wider the variation. The above variable control signal can be generated by applying .

상기 영상 컨텐츠 및 상기 모션 제어신호의 기준 데이터 쌍에 따른 사용자의 생체 반응 데이터를 획득하는 단계; 및 상기 모션 제어신호에 대하여 상기 생체 반응 데이터를 반영하여 상기 모션 체어의 움직임이 보상되도록 모션 보상신호를 생성하는 단계;를 포함할 수 있다.Obtaining user's biometric response data according to a reference data pair of the video content and the motion control signal; and generating a motion compensation signal to compensate for the movement of the motion chair by reflecting the biometric response data with respect to the motion control signal.

상기 연동하는 방법은, 상기 영상 컨텐츠에 대하여 상기 모션 보상신호에 대응하는 보상이 적용된 후속 영상 컨텐츠를 제공하는 단계;를 더 포함하되, 상기 후속 영상 컨텐츠는, 상기 영상 컨텐츠의 기존 움직임에 관한 정보가 보상된 영상 및 상기 영상 컨텐츠와 상이한 영상을 포함할 수 있다.The linking method further includes providing subsequent video content to which compensation corresponding to the motion compensation signal is applied to the video content, wherein the subsequent video content includes information about the existing movement of the video content. It may include a compensated image and an image different from the image content.

본 발명의 일 실시예에 따른 컴퓨터를 이용하여 전술한 본 발명의 실시예들에 따른 방법을 실행시키기 위하여 기록매체에 저장될 수 있다.It may be stored in a recording medium in order to execute the method according to the above-described embodiments of the present invention using a computer according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 컨텐츠와 모션 체어를 연동하는 시스템 프로세서를 포함하는 연동 서버를 포함하고, 상기 프로세서는, 영상 컨텐츠를 제공하고, 상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하고, 모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공한다.An interworking server including a system processor that links video content and a motion chair according to an embodiment of the present invention, wherein the processor provides video content and provides movement information regarding movement of a region of the video content. and providing a motion control signal that induces a movement corresponding to the movement information to the motion chair so that the movement of the motion chair is linked to the movement of the video content.

상기 프로세서는, 상기 모션 제어신호를 평가하되, 상기 모션 체어의 움직임이 없는 상태에서 상기 영상 컨텐츠의 상기 이동 정보에 따른 사용자의 제1 반응 데이터를 측정하고, 상기 모션 체어에 상기 모션 제어신호가 적용된 상태에서 상기 이동 정보에 따른 사용자의 제2 반응 데이터를 측정하고, 상기 제2 반응 데이터의 폭이 상기 제1 반응 데이터보다 작도록 상기 모션 제어신호를 생성하도록 제어할 수 있다.The processor evaluates the motion control signal, measures the user's first reaction data according to the movement information of the video content in a state where there is no movement of the motion chair, and measures the user's first reaction data according to the movement information of the video content, and the motion control signal is applied to the motion chair. In this state, the user's second reaction data according to the movement information can be measured, and the motion control signal can be controlled to be generated so that the width of the second reaction data is smaller than the first reaction data.

본 발명의 실시예들에 따르면, 어지럼증이 심한 사용자도 안정적이고 효과적으로 영상 컨텐츠에 따른 훈련/치료를 받을 수 있다.According to embodiments of the present invention, even users with severe dizziness can stably and effectively receive training/treatment based on video content.

도 1은 본 발명의 일 실시예에 따른 연동 시스템이 동작하는 네트워크 환경을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 연동 시스템의 구성의 일부 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 연동 서버의 구성을 더 구체적으로 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 연동 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 평가 단계를 설명하기 위한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 모션 제어신호를 생성하기 위한 일 지표를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 모션 제어신호를 생성하기 위한 다른 지표를 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 연동 방법에 의해 생성된 영상 컨텐츠를 설명하기 위한 예시도들이다.
Figure 1 is a diagram schematically showing a network environment in which an interworking system according to an embodiment of the present invention operates.
Figure 2 is a block diagram showing a partial configuration of an interlocking system according to an embodiment of the present invention.
Figure 3 is a block diagram illustrating in more detail the configuration of an interlocking server according to an embodiment of the present invention.
Figure 4 is a flowchart for explaining an interworking method according to an embodiment of the present invention.
Figure 5 is a flowchart for explaining the evaluation steps according to an embodiment of the present invention.
Figure 6 is a diagram for explaining an indicator for generating a motion control signal according to an embodiment of the present invention.
Figure 7 is a diagram for explaining another indicator for generating a motion control signal according to an embodiment of the present invention.
Figures 8 and 9 are exemplary diagrams for explaining video content generated by a linking method according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. In the following examples, singular terms include plural terms unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean that the features or components described in the specification exist, and do not exclude in advance the possibility of adding one or more other features or components. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.

도 1은 본 발명의 일 실시예에 따른 영상 컨텐츠와 모션 체어를 연동하는 시스템(이하, '연동 시스템'으로 간략히 지칭한다.)이 동작하는 네트워크 환경을 개략적으로 도시한 도면이다.Figure 1 is a diagram schematically showing a network environment in which a system linking video content and a motion chair (hereinafter briefly referred to as 'linking system') operates according to an embodiment of the present invention.

본 발명의 연동 시스템은 연동 서버(200)를 포함할 수 있고, 실시예에 따라서 상기 연동 서버(200)와 통신망(400)을 통해 통신하는 디스플레이부(100) 및/또는 모션 체어(300)를 더 포함할 수 있다. 디스플레이부(100) 및 모션 체어(300)는 본 발명의 연동 서버(200)의 제어에 의해 동작할 수 있다.The interlocking system of the present invention may include an interlocking server 200, and depending on the embodiment, a display unit 100 and/or a motion chair 300 that communicates with the interlocking server 200 through a communication network 400. More may be included. The display unit 100 and the motion chair 300 can be operated under the control of the interlocking server 200 of the present invention.

디스플레이부(100)는 사용자에게 연동 서버(200)를 통해 제공된 영상 컨텐츠를 출력하는 구성으로서, 다양한 단말 상에 구현될 수 있다. 일 예로, 디스플레이부(100)는 컴퓨터 장치로 구현되는 고정형 단말 또는 이동형 단말 상에 구현될 수 있다. 상기 단말은 예를 들어 TV, 스마트폰, 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등일 수 있으나, 이에 한정되지 않는다. 실시예에 따라서, 상기 단말은 헤드 마운티드 디스플레이(Head mounted Display; HMD)일 수도 있다. HMD는 사용자가 머리에 착용하여 개별적으로 영상 컨텐츠를 볼 수 있도록 하는 것으로서, 디스플레이부(100)는 이러한 HMD 상에 구현될 수 있다. HMD는 사용자의 헤드 자세를 판단할 수 있는 자이로센서부(미도시)를 포함한다.The display unit 100 is a component that outputs video content provided to the user through the linking server 200, and can be implemented on various terminals. As an example, the display unit 100 may be implemented on a fixed terminal or a mobile terminal implemented as a computer device. The terminal may be, for example, a TV, smartphone, mobile phone, navigation, computer, laptop, digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), tablet PC, etc., but is not limited thereto. Depending on the embodiment, the terminal may be a head mounted display (HMD). An HMD is worn on the head so that a user can individually view video content, and the display unit 100 can be implemented on such an HMD. The HMD includes a gyro sensor unit (not shown) that can determine the user's head posture.

디스플레이부(100)는 연동 서버(200)에 저장된 영상 컨텐츠 및/또는 연동 서버(200)에 의해 생성된 모션 제어신호에 의해 변경된 변경 영상 컨텐츠 등을 출력할 수 있다. 본 발명의 영상 컨텐츠는 일 예로, 우울증 등의 정신질환 치료용 컨텐츠로서 가상 현실(VR) 또는 증강 현실(AR)을 적용한 영상일 수 있다. 정신질환자나 고령자 등의 취약 계층은 노안, 어지럼증 등의 환자 요인으로 인해 상기 영상 컨텐츠를 이용한 영상 치료가 사실상 어려운 문제점이 있다. 이에, 본 발명에서는 영상 컨텐츠의 움직임과 모션 체어의 움직임을 연동하여 취약 계층에도 영상 컨텐츠를 이용한 훈련/치료가 정상적으로 가능하고 효과적인 훈련/치료 방법과 시스템을 제공하고자 한다.The display unit 100 may output video content stored in the linking server 200 and/or changed video content changed by a motion control signal generated by the linking server 200. For example, the video content of the present invention may be a video using virtual reality (VR) or augmented reality (AR) as content for treating mental disorders such as depression. Vulnerable groups such as mentally ill patients and the elderly have a problem in that it is virtually difficult to receive video treatment using the video content due to patient factors such as presbyopia and dizziness. Accordingly, the present invention seeks to provide an effective training/treatment method and system that links the movement of video content with the movement of a motion chair so that training/treatment using video content is normally possible and effective even for vulnerable groups.

연동 서버(200)는 디스플레이부(100)을 통해 제공되는 영상 컨텐츠와 모션 체어(300)를 통해 제공되는 움직임을 연동할 수 있다.The interlocking server 200 can link video content provided through the display unit 100 with movement provided through the motion chair 300.

구체적으로, 연동 서버(200)는 제공하는 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하고, 모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 모션 체어(300)에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공할 수 있다. 실시예에 따라서, 연동 서버(200)는 사용자 데이터를 획득하고 사용자 데이터를 반영한 변동 제어신호를 생성하고 이에 따른 변동 영상 컨텐츠를 제공하고 모션 체어(300)에 변동 제어신호를 전송할 수 있다. 다른 실시예로서, 연동 서버(200)는 제공되는 영상 컨텐츠와 모션 제어신호의 기준 데이터 쌍, 또는 변동 영상 컨텐츠와 변동 제어신호의 변동 데이터 쌍에 따른 사용자의 생체 반응 데이터를 획득하고, 상기 생체 반응 데이터가 반영된 모션 보상신호를 생성할 수도 있다.Specifically, the interlocking server 200 acquires movement information regarding the movement of one area of the video content provided, and provides the movement information to the motion chair 300 so that the movement of the motion chair is linked to the movement of the video content. A motion control signal that induces a corresponding movement can be provided. Depending on the embodiment, the linked server 200 may acquire user data, generate a variable control signal reflecting the user data, provide variable video content accordingly, and transmit the variable control signal to the motion chair 300. In another embodiment, the interlocking server 200 acquires the user's biological response data according to a reference data pair of provided video content and a motion control signal, or a variable data pair of variable video content and a variable control signal, and the biological response A motion compensation signal reflecting data can also be generated.

연동 서버(200)의 상세 구성 및 동작에 관하여는 후술하는 관련 도면들을 통해 더 상세히 설명한다.The detailed configuration and operation of the interworking server 200 will be described in more detail through related drawings described later.

모션 체어(300)는 사용자가 안착하여 움직임을 제공 받는 구성으로, 연동 서버(200)로부터 제공받은 모션 제어신호, 변동 제어신호 또는 모션 보상신호에 의한 움직임을 출력할 수 있다. 이때 사용자는 디스플레이부(100)에 의해 제공되는 영상을 시청하면서, 모션 체어(300)의 상기 움직임을 함께 전달받을 수 있다.The motion chair 300 is configured to receive movement when the user sits on it, and can output movement based on a motion control signal, change control signal, or motion compensation signal provided from the interlocking server 200. At this time, the user can receive the movement of the motion chair 300 while watching the image provided by the display unit 100.

통신망(400)은 본 발명의 연동 시스템의 각 구성 간의 데이터 송수신을 매개하는 역할을 수행할 수 있다. 디스플레이부(100), 연동 서버(200) 및 모션 체어(300) 간의 통신 방식은 제한되지 않으며, 유선 및/또는 무선 통신망일 수 있다. 가령 통신망(400)은 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The communication network 400 may serve as a mediator for data transmission and reception between each component of the interlocking system of the present invention. The communication method between the display unit 100, the linking server 200, and the motion chair 300 is not limited and may be a wired and/or wireless communication network. For example, the communication network 400 may be a wired network such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), and ISDNs (Integrated Service Digital Networks), or wireless LANs, CDMA, Bluetooth, satellite communication, etc. may cover wireless networks, but the scope of the present invention is not limited thereto.

본 도면에서는 디스플레이부(100), 모션 체어(300)와 연동 서버(200)를 별개의 구성으로 구비되는 것으로 도시하였으나, 본 발명의 연동 시스템에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐 반드시 서로 독립적으로 구분되어야 하는 것은 아니며, 필요에 따라 하나의 모듈로 통합하여 구현될 수도 있다. 실시예에 따라서 연동 시스템은 본 도면에 도시되지 않은 다른 구성을 포함할 수도 있음은 물론이다.In this drawing, the display unit 100, the motion chair 300, and the interlocking server 200 are shown as being provided as separate components, but they are only functionally divided according to the operation performed by the interlocking system of the present invention. They do not need to be separated from each other independently, and may be integrated and implemented as a single module as needed. Of course, depending on the embodiment, the interlocking system may include other configurations not shown in this drawing.

도 2는 본 발명의 일 실시예에 따른 연동 시스템의 구성의 일부 구성을 도시한 블록도이다. 도 2에 도시된 장치(500)는 도 1의 디스플레이부(100), 서버(200) 및 모션 체어(300) 중 어느 하나에 대응하는 구성일 수 있다. 이러한 장치(500)는 메모리(510), 프로세서(520) 및 통신 모듈(530)을 포함하고, 입출력 인터페이스(540)를 더 포함할 수 있다.Figure 2 is a block diagram showing a partial configuration of an interlocking system according to an embodiment of the present invention. The device 500 shown in FIG. 2 may correspond to any one of the display unit 100, server 200, and motion chair 300 of FIG. 1. This device 500 includes a memory 510, a processor 520, and a communication module 530, and may further include an input/output interface 540.

메모리(510)는 각 메모리를 구비하는 각 구성(100, 200, 또는 300)이 처리하는 모든 종류의 데이터를 일시적 또는 영구적으로 저장할 수 있다. 메모리는 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device)를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. The memory 510 can temporarily or permanently store all types of data processed by each component 100, 200, or 300 having each memory. Memory may include random access memory (RAM), read only memory (ROM), and non-permanent mass storage devices such as disk drives, but the present invention is not limited thereto.

프로세서(520)는 메모리(510)에 저장된 각종 프로그램을 이용하여 각 메모리(510)를 구비하는 각 구성(100, 200 또는 300)을 전반적으로 제어하는 동작을 수행할 수 있다. 프로세서는 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 포함할 수 있으나, 본 발명은 이에 한정되지 않는다. 본 발명의 시스템의 구성(100, 200 또는 300) 각각이 수행하는 동작들은 각각의 프로세서(520)에 의해 다른 구성의 통신 모듈(530)과 통신하며 수행될 수 있다. 특히, 연동 서버(200)의 프로세서(520)의 동작에 관하여는 후술하는 관련 도면들에서 더 상세히 설명한다. The processor 520 may perform an operation to overall control each component 100, 200, or 300 provided with each memory 510 using various programs stored in the memory 510. Processors include microprocessors, central processing units (CPUs), processor cores, multiprocessors, application-specific integrated circuits (ASICs), and field programmable gate arrays (FPGAs). It may include a processing device, but the present invention is not limited thereto. Operations performed by each component (100, 200, or 300) of the system of the present invention may be performed by each processor 520 while communicating with a communication module 530 of another configuration. In particular, the operation of the processor 520 of the interworking server 200 will be described in more detail in the related drawings described later.

통신 모듈(530)은 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치나 서버와 통신할 수 있다. 일 장치(500)에 해당할 수 있는 서로 다른 장치 또는 서버(100, 200 또는 300) 각각의 통신 모듈(530)은 네트워크(미도시)에 의해 연결되어 서로 데이터를 주고 받을 수 있다.The communication module 530 can communicate with various types of external devices or servers according to various types of communication methods. The communication modules 530 of each of the different devices or servers 100, 200, or 300 that may correspond to one device 500 may be connected by a network (not shown) and exchange data with each other.

입출력 인터페이스(540)는 각 구성에 따른 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 이때 입력 장치는 일 예로 사용자 데이터를 입력하기 위한 키보드 또는 마우스 등의 장치 또는 사용자의 생체 반응 데이터를 측정 및 획득하기 위한 다양한 센서를 포함할 수 있다. 출력 장치는 영상 컨텐츠를 출력하기 위한 디스플레이, 또는 움직임 등의 동적 정보를 출력하는 모션 체어 등의 하드웨어 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(540)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다.The input/output interface 540 may be a means for interfacing with an input/output device according to each configuration. At this time, the input device may include, for example, a device such as a keyboard or mouse for inputting user data, or various sensors for measuring and acquiring user's biological response data. The output device may include a hardware device such as a display for outputting video content or a motion chair for outputting dynamic information such as movement. As another example, the input/output interface 540 may be a means for interfacing with a device that integrates input and output functions, such as a touch screen.

도 3은 본 발명의 일 실시예에 따른 연동 서버(200)의 구성을 더 구체적으로 도시한 블록도이다. 도 3은 연동 서버(200)의 프로세서(220)를 도시하며, 이러한 프로세서(220)는 도 2에서 전술한 프로세서(520)에 대응하는 구성일 수 있다.Figure 3 is a block diagram illustrating in more detail the configuration of the interworking server 200 according to an embodiment of the present invention. FIG. 3 shows the processor 220 of the interworking server 200, and this processor 220 may have a configuration corresponding to the processor 520 described above in FIG. 2.

프로세서(220)는 영상 제공부(221), 모션 제어신호 제공부(222), 평가부(223)를 포함할 수 있고, 실시예에 따라서 모션 보상신호 제공부(224)를 더 포함할 수 있다. 실시예에 따라서 프로세서(220)는 변동 제어신호 제공부(22)를 더 포함할 수 있다. 상기 모듈들(221 내지 224, 22)은 기능적으로 구분한 것일 뿐, 반드시 서로 독립적으로 구분되어야 하는 것이 아니다. 물론, 실시예에 따라서는 이들은 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.The processor 220 may include an image providing unit 221, a motion control signal providing unit 222, and an evaluation unit 223, and may further include a motion compensation signal providing unit 224 depending on the embodiment. . Depending on the embodiment, the processor 220 may further include a variation control signal provider 22. The modules 221 to 224 and 22 are functionally divided and do not necessarily have to be independently divided from each other. Of course, depending on the embodiment, these may be implemented as separate devices that are physically distinct from each other.

영상 제공부(221)는 영상 컨텐츠를 제공하고, 일 예로 훈련/치료용 영상 컨텐츠일 수 있다.The image provider 221 provides image content, and for example, may be image content for training/treatment.

모션 제어신호 제공부(222)는 상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득한다. 이후, 모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공할 수 있다. The motion control signal provider 222 obtains movement information regarding movement of one area of the video content. Thereafter, a motion control signal that induces movement corresponding to the movement information may be provided to the motion chair so that the movement of the motion chair is linked to the movement of the video content.

본 발명의 영상 컨텐츠는 3축 방향 중 적어도 하나의 축의 이동 정보를 포함하는 3차원의 움직임으로 구현될 수 있다. 이때 모션 제어신호 제공부(222)는 상기 이동 정보가 제1 축 방향의 제1 이동 정보만을 포함하는 경우 모션 체어(300)에 대한 모션 제어신호를 제공하지 않을 수 있다. 가령, 제1 축은 사용자의 시야 또는 자세 방향과 평행한 방향일 수 있고, 영상 컨텐츠의 이동 방향이 사용자의 시야 또는 자세 방향과 일치하는 경우에는 모션 체어(300)에 따로 모션 제어신호를 제공하지 않을 수 있다. 이와 달리, 영상 컨텐츠의 이동 정보가 상기 제1 축 방향과 서로 교차하는 제2 축 방향의 제2 이동 정보 및 제3 축 방향의 제3 이동 정보 중 적어도 하나를 포함하는 경우, 상기 제2 이동 정보 및 상기 제3 이동 정보 각각과 대응하는 모션 제어신호를 제공할 수 있다. 가령, 영상 컨텐츠의 움직임이 사용자의 시야 방향에서 올라가거나 내려가는 방향(상하 방향), 좌우 방향 또는 이들의 조합된 방향으로의 이동 정보를 포함하는 경우, 사용자의 멀미 완화를 위해 모션 체어(300)에도 상기 이동 정보에 대응하는 움직임이 제공되어야 한다. 따라서, 제2 및 제3 이동 정보에 대응하는 모션 제어신호를 생성하고, 이를 모션 체어(300)로 제공하여 사용자가 영상 컨텐츠의 3차원 움직임을 최소한으로 느낄 수 있도록 한다. 모션 제어신호 생성에 있어서 후술하는 평가부(223)의 산출 결과를 이용할 수 있다.The video content of the present invention can be implemented as a three-dimensional movement that includes movement information in at least one of the three axes. At this time, the motion control signal provider 222 may not provide a motion control signal to the motion chair 300 when the movement information includes only first movement information in the first axis direction. For example, the first axis may be in a direction parallel to the user's field of view or posture direction, and if the moving direction of the image content matches the user's field of view or posture direction, a separate motion control signal will not be provided to the motion chair 300. You can. On the other hand, when the movement information of the video content includes at least one of second movement information in the second axis direction intersecting the first axis direction and third movement information in the third axis direction, the second movement information and a motion control signal corresponding to each of the third movement information. For example, if the movement of the video content includes movement information in the upward or downward direction (up and down direction), left and right direction, or a combination of these directions from the user's viewing direction, the motion chair 300 is also provided to relieve the user's motion sickness. Movements corresponding to the movement information must be provided. Accordingly, motion control signals corresponding to the second and third movement information are generated and provided to the motion chair 300 so that the user can feel the three-dimensional movement of the image content to a minimum. In generating a motion control signal, the calculation result of the evaluation unit 223, which will be described later, can be used.

평가부(223)는 모션 제어신호 제공부(222)에서 생성된 모션 제어신호를 평가하여 평가 결과를 반영할 수 있다. 평가부(223)는 모션 체어(300)의 움직임이 없는 상태에서 상기 영상 컨텐츠의 상기 이동 정보에 따른 사용자의 제1 반응 데이터를 측정한다. 한편, 모션 체어(300)에 상기 모션 제어신호가 적용된 상태에서 상기 이동 정보에 따른 사용자의 제2 반응 데이터를 측정한다. 이후, 상기 제2 반응 데이터의 폭이 상기 제1 반응 데이터보다 작도록 상기 모션 제어신호 생성부(222)가 모션 제어신호를 생성하도록 제어할 수 있다.The evaluation unit 223 may evaluate the motion control signal generated by the motion control signal provider 222 and reflect the evaluation result. The evaluation unit 223 measures the user's first reaction data according to the movement information of the video content in a state where there is no movement of the motion chair 300. Meanwhile, while the motion control signal is applied to the motion chair 300, the user's second reaction data according to the movement information is measured. Thereafter, the motion control signal generator 222 may be controlled to generate a motion control signal so that the width of the second response data is smaller than the first response data.

상술한 모션 제어신호 제공부(222)와 평가부(223)의 상호 작용에 따라 생성된 모션 제어신호에 의하면, 사용자는 상기 영상 컨텐츠의 기존의 이동 정보보다 상쇄된 움직임을 느끼면서 멀미(motion sickness) 증상의 완화를 체험할 수 있다.According to the motion control signal generated according to the interaction of the above-described motion control signal provider 222 and the evaluation unit 223, the user experiences motion sickness while feeling a movement offset from the existing movement information of the video content. ) You can experience relief from symptoms.

모션 보상신호 제공부(224)는 전술한 영상 컨텐츠 및 상기 모션 제어신호의 기준 데이터 쌍에 따른 상기 사용자의 생체 반응 데이터를 획득하여, 이를 반영한 모션 보상신호를 생성한다. 모션 제어신호에 대하여 상기 생체 반응 데이터를 반영하여 모션 체어(300)의 움직임이 보상되도록 모션 보상신호를 생성할 수 있다. 이후, 영상 컨텐츠에 대하여 상기 모션 보상신호에 대응하는 보상이 적용된 후속 영상 컨텐츠를 제공할 수 있다. 이때 후속 영상 컨텐츠는, 상기 영상 컨텐츠의 기존 움직임에 관한 정보가 보상된 영상 및 상기 영상 컨텐츠와 상이한 영상을 포함할 수 있다.The motion compensation signal provider 224 acquires the user's biometric response data according to the reference data pair of the above-described video content and the motion control signal, and generates a motion compensation signal reflecting this. A motion compensation signal can be generated to compensate for the movement of the motion chair 300 by reflecting the biometric response data with respect to the motion control signal. Thereafter, subsequent video content to which compensation corresponding to the motion compensation signal is applied may be provided to the video content. At this time, the subsequent video content may include an image in which information about the existing movement of the video content has been compensated and an image that is different from the video content.

변동 제어신호 제공부(22)는 상술한 모션 제어신호 제공부(222)의 독립적으로 동작하며, 두 구성(222, 22)이 함께 동작할 수도 있고 두 구성(222, 22) 중 하나만 동작할 수도 있다. 변동 제어신호 제공부(22)의 동작에 관하여는 후술하는 도 4를 통해 더 상세히 설명한다. The variable control signal provider 22 operates independently of the motion control signal provider 222 described above, and the two components 222 and 22 may operate together or only one of the two components 222 and 22 may operate. there is. The operation of the variable control signal providing unit 22 will be described in more detail with reference to FIG. 4 described later.

도 4는 본 발명의 일 실시예에 따른 연동 방법을 설명하기 위한 순서도이다. 본 발명의 연동 방법은 후술하는 단계들을 포함할 수 있고, 전술한 디스플레이부(100), 연동 서버(200) 및 모션 체어(300)를 이용하여 수행될 수 있다. 전술한 도면들을 함께 참조하여 설명할 수 있다.Figure 4 is a flowchart for explaining an interworking method according to an embodiment of the present invention. The linking method of the present invention may include steps described later, and may be performed using the display unit 100, the linking server 200, and the motion chair 300 described above. The description can be made with reference to the above-described drawings.

S100 단계에서 연동 서버(200)는 디스플레이부(100)가 출력할 수 있도록 영상 컨텐츠를 제공한다. In step S100, the linking server 200 provides video content so that the display unit 100 can output it.

S200 단계에서 연동 서버(200)의 모션 제어신호 제공부(222)는 모션 제어신호를 생성(S201)하여 모션 체어(300)로 상기 모션 제어신호를 제공할 수 있다. 이때 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하고, 모션 체어(300)의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 모션 체어(300)에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공할 수 있다. In step S200, the motion control signal provider 222 of the linked server 200 may generate a motion control signal (S201) and provide the motion control signal to the motion chair 300. At this time, movement information regarding the movement of one area of the image content is acquired, and a motion is induced in the motion chair 300 to move corresponding to the movement information so that the movement of the motion chair 300 is linked to the movement of the image content. Control signals can be provided.

S200 단계에서 평가부(223)는 모션 제어신호의 효과를 평가하여 모션 제어신호 생성에 반영할 수 있다. 즉 S200 단계의 S201 단계는 모션 제어신호를 평가하는 단계(S230)를 포함할 수 있다. 여기서 S230 단계에 관하여 도 5를 함께 사용하여 설명한다. 도 5는 본 발명의 일 실시예에 따른 평가 단계를 설명하기 위한 순서도이다.In step S200, the evaluation unit 223 may evaluate the effect of the motion control signal and reflect it in generating the motion control signal. That is, step S201 of step S200 may include evaluating a motion control signal (S230). Here, step S230 will be explained using FIG. 5 as well. Figure 5 is a flowchart for explaining the evaluation steps according to an embodiment of the present invention.

도 5를 참조하면, S230 단계는 전술한 연동 서버(220)의 평가부(223)에 의해 수행될 수 있고, 후술하는 단계들을 포함할 수 있다. Referring to FIG. 5, step S230 may be performed by the evaluation unit 223 of the linkage server 220 described above, and may include steps described later.

먼저, S231 단계에서 모션 체어(300)의 움직임이 없는 상태에서 영상 컨텐츠의 이동 정보에 따른 사용자의 제1 반응 데이터를 측정한다. 그리고, S232 단계에서 모션 체어(300)에 모션 제어신호가 적용된 상태에서 이동 정보에 따른 사용자의 제2 반응 데이터를 측정한다. 이후, S233 단계에서 제2 반응 데이터의 폭이 제1 반응 데이터보다 작도록 모션 제어신호를 생성하도록 제어할 수 있다. 이와 같이, 모션 제어신호 생성에 있어서 상기 평가 결과를 반영하여 사용자에게 멀미 효과가 최소화될 수 있도록 한다.First, in step S231, the user's first reaction data according to the movement information of the video content is measured while the motion chair 300 is not moving. Then, in step S232, the user's second reaction data according to the movement information is measured while the motion control signal is applied to the motion chair 300. Thereafter, in step S233, the motion control signal can be controlled to be generated so that the width of the second response data is smaller than the first response data. In this way, the evaluation results are reflected when generating a motion control signal to minimize the effect of motion sickness on the user.

다시 도 4를 참조하면, 전술한 도 3의 변동 제어신호 제공부(22)에 의한 동작으로서, S300, S400 단계에 관하여 설명한다.Referring again to FIG. 4, steps S300 and S400, which are operations performed by the variation control signal provider 22 of FIG. 3, will be described.

S300 단계에서 상기 영상 컨텐츠를 이용하는 사용자에 관한 사용자 데이터를 획득할 수 있다. 상기 사용자 데이터는 사용자의 연령, 성별, 불안증 지표(일 예로 PANAS) 및 안구 관련 지표(일 예로, 안구조절력, 노안, 안구건조증 지표) 중 적어도 하나를 포함하는 복수의 지표를 포함할 수 있다.In step S300, user data regarding users using the video content may be obtained. The user data may include a plurality of indicators including at least one of the user's age, gender, anxiety index (e.g., PANAS), and eye-related index (e.g., eye control, presbyopia, and dry eye syndrome index).

S400 단계에서 상기 사용자 데이터를 기초로 상기 모션 제어신호에 미리 설정된 기준에 따라 변동된 변동 제어신호를 생성할 수 있다. S400 단계는 이하의 단계들을 포함한다. 상기 복수의 지표 각각과 어지럼증 간의 관계를 기초로 어지럼증 상관지수를 산출한다. 이후, 상기 모션 제어신호에 대하여, 상기 어지럼증 상관지수의 값에 따라 상기 모션 제어신호에 대한 변동 폭을 달리 적용하여 상기 변동 제어신호를 생성할 수 있다. 이때 상기 변동 폭의 차등 적용은 일 예로 신호의 세기나 적용 주기를 달리 적용하는 것일 수 있다.In step S400, a variable control signal that is changed according to a preset standard in the motion control signal may be generated based on the user data. Step S400 includes the following steps. A dizziness correlation index is calculated based on the relationship between each of the plurality of indicators and dizziness. Thereafter, the variation control signal may be generated by applying a different variation width to the motion control signal according to the value of the dizziness correlation index. At this time, differential application of the variation range may mean, for example, applying different signal strengths or application cycles.

본 발명의 어지럼증 상관지수는 연령 및 성별 중 적어도 하나에 따른 제1 어지럼증 지표를 포함할 수 있다. 이때 변동 제어신호를 생성하는 단계(S400)는, 상기 제1 어지럼증 지표가 클수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성하는 단계일 수 있다. 상기 제1 어지럼증 지표는 일 예로, 어지럼증 관련 설문척도로서 SSQ 지수 및 FMS 지수를 포함할 수 있다. The dizziness correlation index of the present invention may include a first dizziness index according to at least one of age and gender. At this time, the step of generating the change control signal (S400) may be a step of generating the change control signal by applying a larger change width as the first dizziness indicator increases. For example, the first dizziness index may include the SSQ index and the FMS index as dizziness-related questionnaire scales.

여기서 제1 어지럼증 지표를 이용한 변동 제어신호 생성에 관하여 도 6을 함께 사용하여 설명한다. 도 6은 본 발명의 일 실시예에 따른 모션 제어신호를 생성하기 위한 일 지표를 설명하기 위한 도면이다.Here, the generation of the variation control signal using the first dizziness indicator will be explained using FIG. 6. Figure 6 is a diagram for explaining an indicator for generating a motion control signal according to an embodiment of the present invention.

도 6을 참조하면, 표의 가로축은 연령 그룹(51) 및 성별(52) 항목이고, 세로축은 이들 사용자 데이터 항목에 따른 제1 어지럼증 지표(D1)를 나타낸다. 각 사용자 데이터 항목(51, 52)에 따른 D1 지표를 살펴본다. D1 지표에 따른 지수 값이 클수록 어지럼증이 심한 것으로, 각 연령 그룹(51, 52)을 살펴보면 연령이 증가할수록 각 지수 값이 증가하여 어지럼증이 심해지는 것을 확인할 수 있다. Referring to Figure 6, the horizontal axis of the table represents the age group (51) and gender (52) items, and the vertical axis represents the first dizziness index (D1) according to these user data items. Let's look at the D1 indicator for each user data item (51, 52). The larger the index value according to the D1 index, the more severe the dizziness. Looking at each age group (51, 52), it can be seen that as age increases, each index value increases and the dizziness becomes more severe.

따라서, 연령에 따라(예컨대, 10-20대, 30대, 40대 이상) 점진적으로 어지럼증이 완화된(변동 폭이 큰) 변동 영상 컨텐츠 및/또는 변동 제어신호를 제공할 수 있다. 즉, 제1 어지럼증 지표가 클수록 상기 신호 세기나 적용 주기 등의 변동 폭을 크게 적용하여 변동 제어신호를 생성할 수 있다. 다시 말해, 기존의 영상 컨텐츠에 대하여 어지럼증이 심한 사용자의 경우 변동 폭이 큰 변동 제어신호를 적용하여 움직임이 많이 보정된 변동 영상 컨텐츠 및/또는 변동 제어신호를 제공할 수 있다. 이에 따라 어지럼증이 심한 사용자도 안정적이고 효과적으로 영상 컨텐츠에 따른 훈련/치료 서비스를 제공받을 수 있다.Therefore, it is possible to provide variable image content and/or variable control signals in which dizziness is gradually alleviated (with a large range of fluctuation) according to age (eg, 10-20s, 30s, 40s or older). In other words, the larger the first dizziness index, the greater the range of variation in signal intensity or application cycle to generate a variation control signal. In other words, in the case of a user who suffers from severe dizziness in response to existing video content, a variable control signal with a large fluctuation range can be applied to provide variable video content and/or a variable control signal in which motion has been greatly corrected. Accordingly, even users with severe dizziness can stably and effectively receive training/treatment services based on video content.

본 발명의 어지럼증 상관지수는 불안증 지표 및 안구 관련 지표 각각과 어지럼증 간의 상관관계에 관한 제2 어지럼증 지표를 포함할 수 있다. 이때 변동 제어신호를 생성하는 단계(S400)는, 상기 제2 어지럼증 지표가 작을수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성하는 단계일 수 있다.The dizziness correlation index of the present invention may include a second dizziness index related to the correlation between dizziness and each of the anxiety index and eye-related index. At this time, the step of generating the change control signal (S400) may be a step of generating the change control signal by applying a larger change width as the second dizziness index becomes smaller.

여기서 제2 어지럼증 지표를 이용한 변동 제어신호 생성에 관하여 도 7을 함께 사용하여 설명한다. 도 7은 본 발명의 일 실시예에 따른 모션 제어신호를 생성하기 위한 다른 지표를 설명하기 위한 도면이다.Here, the generation of the variation control signal using the second dizziness indicator will be explained using FIG. 7. Figure 7 is a diagram for explaining another indicator for generating a motion control signal according to an embodiment of the present invention.

도 7을 참조하면, 표의 가로축은 전술한 제1 어지럼증 지표(일 예로, SSQ, FMS) 및 이를 기초로 산출한 제2 어지럼증 지표(D2)이고, 세로축은 불안증 지표(61) 및 안구 관련 지표(62) 항목이다. 각 사용자 데이터 항목(61, 62)에 따른 D2 지표(P)로서, 제2 어지럼증 지표(D2)는 불안증 지표 및 안구 관련 지표 각각과 어지럼증 간의 상관관계를 나타내는 지표이다. Referring to FIG. 7, the horizontal axis of the table is the above-described first dizziness index (e.g., SSQ, FMS) and the second dizziness index (D2) calculated based thereon, and the vertical axis is the anxiety index 61 and eye-related index ( 62) This is item. As the D2 index (P) according to each user data item (61, 62), the second dizziness index (D2) is an index indicating the correlation between each of the anxiety index and eye-related index and dizziness.

불안증 지표(61)는 일 예로 정적정서 및 부정정서 척도와 관련한 PANAS 지표일 수 있다. 안구 관련 지표(62)(Near point of convergence,Near point of accommodation)는 일 예로 안구 조절력 지표일 수 있다. 이때 D2 지표 값이 작을수록 사용자 데이터 항목(61, 62)과 제1 어지럼증 지표(SSQ, FMS) 간의 상관관계가 높고, 어지럼증이 심한 것을 의미한다. 다시 말해, 노안이 심할수록 또는 안구건조증이 심할수록 영상 컨텐츠 제공에 따른 어지럼증을 쉽게 느낄 수 있다.The anxiety index 61 may be, for example, a PANAS index related to positive and negative affect scales. The eye-related indicator 62 (Near point of convergence, Near point of accommodation) may be, for example, an eye accommodation indicator. At this time, the smaller the D2 index value, the higher the correlation between the user data items (61, 62) and the first dizziness index (SSQ, FMS), which means that the dizziness is more severe. In other words, the more severe your presbyopia or dry eye syndrome is, the more likely you are to feel dizziness from providing video content.

따라서, 마찬가지로 제2 어지럼증 지표(D2)가 작은 환자일수록 어지럼증이 완화된 변동 영상 컨텐츠 및/또는 변동 제어신호를 제공할 수 있다. 즉, 제2 어지럼증 지표가 작을수록 상기 신호 세기나 적용 주기 등의 변동 폭을 크게 적용하여 변동 제어신호를 생성할 수 있다. 다시 말해, 기존의 영상 컨텐츠에 대하여 어지럼증이 심한 사용자의 경우 변동 폭이 큰 변동 제어신호를 적용하여 움직임이 많이 보정된 변동 영상 컨텐츠 및/또는 변동 제어신호를 제공할 수 있다. Therefore, similarly, it is possible to provide fluctuating image content and/or fluctuating control signals in which dizziness is alleviated in patients with a smaller second dizziness index D2. In other words, the smaller the second dizziness index is, the greater the range of variation in signal intensity or application cycle can be applied to generate a variation control signal. In other words, in the case of a user who suffers from severe dizziness in response to existing video content, a variable control signal with a large fluctuation range can be applied to provide variable video content and/or a variable control signal in which motion has been greatly corrected.

이하, 도 8 및 도 9를 사용하여 일 사용자의 사용자 데이터를 반영하여 변동 제어신호 및 변동 영상 컨텐츠를 제공하는 일 예시에 관하여 설명한다. 도 8 및 도 9는 본 발명의 일 실시예에 따른 연동 방법에 의해 생성된 영상 컨텐츠를 설명하기 위한 예시도들이다.Hereinafter, an example of providing a variable control signal and variable video content by reflecting user data of a user will be described using FIGS. 8 and 9. Figures 8 and 9 are exemplary diagrams for explaining video content generated by a linking method according to an embodiment of the present invention.

도 8을 참조하면, 영상 제공부(210)에 의해 일 사용자에게 제공된 영상 컨텐츠가 도시되어 있다. 영상 컨텐츠의 이동을 나타내기 위해 일 시점의 출력 영상(71) 및 상기 일 시점 이후 시점의 출력 영상(72)을 도시하였다. 각 출력 영상(71, 72)에는 특정 지점마다 특정 지점을 식별할 수 있는 좌표 정보가 인덱싱되어 있을 수 있다. 71 영상의 P1 지점과 72 영상의 P2 지점은 같은 종류의 좌표 정보가 인덱싱 되어 프로세서(220)는 두 시점의 각 지점(P1, P2)을 동일한 지점으로 인식할 수 있다. 이때 프로세서(220)는 P1, P2 각각의 좌표 정보의 변화 속도를 산출하고, 이를 기초로 영상 컨텐츠의 특정 지점의 이동 속도 정보로서 제1 속도 정보를 산출할 수 있다. Referring to FIG. 8, video content provided to a user by the video provider 210 is shown. To show the movement of video content, an output image 71 at one point in time and an output image 72 at a later point in time are shown. In each output image 71 and 72, coordinate information that can identify a specific point may be indexed. Point P1 of image 71 and point P2 of image 72 are indexed with the same type of coordinate information, so that the processor 220 can recognize each point (P1, P2) of the two viewpoints as the same point. At this time, the processor 220 may calculate the change speed of each coordinate information of P1 and P2, and based on this, calculate first speed information as movement speed information of a specific point of the image content.

도 9를 참조하면, 상기 도 8에 따른 영상 컨텐츠 및 이에 대응하는 모션 제어신호에 따른 훈련 서비스를 제공받는 사용자 데이터를 반영한 변동 영상 컨텐츠가 도시되어 있다. 마찬가지로 변동 영상 컨텐츠의 이동을 나타내기 위해 일 시점의 출력 영상(81) 및 상기 일 시점 이후 시점의 출력 영상(82)을 도시하였다. 각 출력 영상(81, 82)에는 특정 지점마다 특정 지점을 식별할 수 있는 좌표 정보가 인덱싱되어 있을 수 있다. 81 영상의 P1 지점과 82 영상의 P3 지점은 같은 종류의 좌표 정보가 인덱싱 되어 프로세서(220)는 두 시점의 각 지점(P1, P3)을 동일한 지점으로 인식할 수 있다. 이때 프로세서(220)는 전술한 제1 속도 정보 대비 그 값이 변동된 제2 속도 정보로서 82 영상이 출력되도록 변동 영상 컨텐츠를 생성한다. Referring to FIG. 9, the video content according to FIG. 8 and the variable video content reflecting the user data provided with the training service according to the corresponding motion control signal are shown. Likewise, to show the movement of variable video content, an output image 81 at one point in time and an output image 82 at a later point in time are shown. Each output image (81, 82) may have coordinate information that can identify a specific point indexed at each specific point. Point P1 of image 81 and point P3 of image 82 are indexed with the same type of coordinate information, so that the processor 220 can recognize each point (P1, P3) of the two viewpoints as the same point. At this time, the processor 220 generates variable image content so that 82 images are output as second speed information whose value is changed compared to the above-described first speed information.

일 사용자의 사용자 데이터를 기초로 산출된 어지럼증 지표 값에 따라 어지럼증이 심한 환자일수록 변동 폭을 크게 적용하여 변동 제어신호를 생성할 수 있다. 가령, 도 8 및 도 9에서는 어지럼증이 심한 환자(예컨대, D1 값이 클수록 또는 D2 값이 작을수록)로 평가된 경우, 도 8에서 P1에서 P2로의 이동 속도보다 도 9에서 P1으로부터 P3으로의 이동 속도가 더 감소한 변동 영상 컨텐츠를 제공함으로써 사용자에게 어지럼증이 완화된 영상을 제공할 수 있다.According to the dizziness index value calculated based on the user data of one user, the variation control signal can be generated by applying a larger variation range for patients with more severe dizziness. For example, in Figures 8 and 9, when a patient is evaluated as having severe dizziness (e.g., the larger the D1 value or the smaller the D2 value), the movement speed from P1 to P3 in Figure 9 is faster than the movement speed from P1 to P2 in Figure 8. By providing variable video content with a further reduced speed, it is possible to provide users with images with reduced dizziness.

이상에서는 S400 단계의 예시인 것으로 설명하였으나, 도 8 및 도 9에 따른 영상 컨텐츠의 제공은 전술한 모션 보상신호 제공부(224)에 의한 모션 보상신호 및/또는 이에 대응하는 후속 영상 컨텐츠의 제공에도 동일한 원리로 적용될 수 있다.The above has been described as an example of step S400, but the provision of video content according to FIGS. 8 and 9 also includes the provision of a motion compensation signal and/or subsequent video content corresponding thereto by the motion compensation signal provider 224 described above. The same principle can be applied.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded on a computer-readable medium. At this time, the medium may be one that stores a program executable on a computer. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the embodiments described above, and the scope of the claims described below as well as all scopes equivalent to or equivalently modified from the scope of the claims are included in the spirit of the present invention. It would be said to fall into the category.

100: 디스플레이부
200: 연동 서버
300: 모션 체어
220: 프로세서
222: 모션 제어신호 제공부
22: 변동 제어신호 제공부
223: 평가부
100: display unit
200: Linked server
300: Motion Chair
220: processor
222: Motion control signal provider
22: Variable control signal provider
223: Evaluation department

Claims (12)

영상 컨텐츠를 제공하는 단계;
상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하는 단계; 및
모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공하는 단계;
상기 모션 제어신호를 평가하는 단계;를 포함하되, 상기 평가하는 단계는,
상기 모션 체어의 움직임이 없는 상태에서 상기 영상 컨텐츠의 상기 이동 정보에 따른 사용자의 제1 반응 데이터를 측정하는 단계;
상기 모션 체어에 상기 모션 제어신호가 적용된 상태에서 상기 이동 정보에 따른 사용자의 제2 반응 데이터를 측정하는 단계; 및
상기 제2 반응 데이터의 폭이 상기 제1 반응 데이터보다 작도록 상기 모션 제어신호를 생성하도록 제어하는 단계;를 포함하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
Providing video content;
Obtaining movement information regarding movement of an area of the video content; and
providing a motion control signal for inducing a movement corresponding to the movement information to the motion chair so that the movement of the motion chair is linked to the movement of the video content;
Including: evaluating the motion control signal, wherein the evaluating step includes:
measuring first reaction data of a user according to the movement information of the video content in a state in which there is no movement of the motion chair;
measuring second reaction data of the user according to the movement information while the motion control signal is applied to the motion chair; and
A method of linking video content and a motion chair, comprising: controlling the motion control signal to be generated so that the width of the second response data is smaller than the first response data.
삭제delete 제1항에 있어서,
상기 영상 컨텐츠는 3축 방향 중 적어도 하나의 축의 이동 정보를 포함하고,
상기 모션 제어신호를 제공하는 단계는,
상기 이동 정보가 제1 축 방향의 제1 이동 정보만을 포함하는 경우 상기 모션 제어신호를 제공하지 않고,
상기 이동 정보가 상기 제1 축 방향과 서로 교차하는 제2 축 방향 및 제3 축 방향 각각의 제2 이동 정보 및 제3 이동 정보 중 적어도 하나를 포함하는 경우, 상기 제2 이동 정보 및 상기 제3 이동 정보 각각과 대응하는 모션 제어신호를 제공하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to paragraph 1,
The video content includes movement information in at least one of the three axes,
The step of providing the motion control signal is,
If the movement information includes only first movement information in the first axis direction, the motion control signal is not provided,
When the movement information includes at least one of second movement information and third movement information in each of the second and third axis directions intersecting the first axis direction, the second movement information and the third movement information A method of linking video content and a motion chair, providing motion control signals corresponding to each piece of movement information.
제1항에 있어서,
상기 영상 컨텐츠를 이용하는 사용자에 관한 사용자 데이터를 획득하는 단계; 및
상기 사용자 데이터를 기초로 상기 모션 제어신호에 미리 설정된 기준에 따라 변동된 변동 제어신호를 생성하는 단계;를 포함하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to paragraph 1,
Obtaining user data about users who use the video content; and
A method of linking video content and a motion chair, comprising: generating a variable control signal that is changed according to a standard preset in the motion control signal based on the user data.
제4항에 있어서,
상기 사용자 데이터는 사용자의 연령, 성별, 불안증 지표 및 안구 관련 지표 중 적어도 하나를 포함하는 복수의 지표를 포함하고,
상기 변동 제어신호를 생성하는 단계는,
상기 복수의 지표 각각과 어지럼증 간의 관계를 기초로 어지럼증 상관지수를 산출하는 단계; 및
상기 모션 제어신호에 대하여, 상기 어지럼증 상관지수의 값에 따라 상기 모션 제어신호에 대한 변동 폭을 달리 적용하여 상기 변동 제어신호를 생성하는 단계;를 포함하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to paragraph 4,
The user data includes a plurality of indicators including at least one of the user's age, gender, anxiety index, and eye-related index,
The step of generating the variable control signal is,
Calculating a dizziness correlation index based on the relationship between each of the plurality of indicators and dizziness; and
A method of linking video content and a motion chair, comprising: generating the variation control signal by applying different variation widths to the motion control signal according to the value of the dizziness correlation index.
제5항에 있어서,
상기 어지럼증 상관지수는 연령 및 성별 중 적어도 하나에 따른 제1 어지럼증 지표를 포함하고,
상기 변동 제어신호를 생성하는 단계는, 상기 제1 어지럼증 지표가 클수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성하는 단계인, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to clause 5,
The dizziness correlation index includes a first dizziness index according to at least one of age and gender,
The step of generating the change control signal is a step of generating the change control signal by applying a larger change width as the first dizziness indicator increases.
제5항에 있어서,
상기 어지럼증 상관지수는 상기 불안증 지표 및 상기 안구 관련 지표 각각과 어지럼증 간의 상관관계에 관한 제2 어지럼증 지표를 포함하고,
상기 변동 제어신호를 생성하는 단계는, 상기 제2 어지럼증 지표가 작을수록 상기 변동 폭을 크게 적용하여 상기 변동 제어신호를 생성하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to clause 5,
The dizziness correlation index includes a second dizziness index related to the correlation between each of the anxiety index and the eye-related index and dizziness,
In the step of generating the variation control signal, the variation control signal is generated by applying a larger variation width as the second dizziness indicator becomes smaller. A method of linking video content and a motion chair.
제1항에 있어서,
상기 영상 컨텐츠 및 상기 모션 제어신호의 기준 데이터 쌍에 따른 사용자의 생체 반응 데이터를 획득하는 단계; 및
상기 모션 제어신호에 대하여 상기 생체 반응 데이터를 반영하여 상기 모션 체어의 움직임이 보상되도록 모션 보상신호를 생성하는 단계;를 포함하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to paragraph 1,
Obtaining user's biometric response data according to a reference data pair of the video content and the motion control signal; and
A method of linking video content and a motion chair, comprising: generating a motion compensation signal to compensate for movement of the motion chair by reflecting the biometric response data with respect to the motion control signal.
제8항에 있어서,
상기 연동하는 방법은,
상기 영상 컨텐츠에 대하여 상기 모션 보상신호에 대응하는 보상이 적용된 후속 영상 컨텐츠를 제공하는 단계;를 더 포함하되,
상기 후속 영상 컨텐츠는, 상기 영상 컨텐츠의 기존 움직임에 관한 정보가 보상된 영상 및 상기 영상 컨텐츠와 상이한 영상을 포함하는, 영상 컨텐츠와 모션 체어를 연동하는 방법.
According to clause 8,
The method of linking above is,
It further includes providing subsequent video content to which compensation corresponding to the motion compensation signal is applied to the video content,
The subsequent video content includes an image in which information about the existing movement of the video content is compensated and an image different from the video content. A method of linking video content and a motion chair.
컴퓨터를 이용하여 제1항 및 제3항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method of any one of claims 1 and 3 to 9 using a computer. 프로세서를 포함하는 연동 서버를 포함하고, 상기 프로세서는,
영상 컨텐츠를 제공하고,
상기 영상 컨텐츠의 일 영역의 이동에 관한 이동 정보를 획득하고,
모션 체어의 움직임이 상기 영상 컨텐츠의 움직임과 연동되도록, 상기 모션 체어에 상기 이동 정보에 대응하는 움직임을 유도하는 모션 제어신호를 제공하고,
상기 프로세서는, 상기 모션 제어신호를 평가하되,
상기 모션 체어의 움직임이 없는 상태에서 상기 영상 컨텐츠의 상기 이동 정보에 따른 사용자의 제1 반응 데이터를 측정하고,
상기 모션 체어에 상기 모션 제어신호가 적용된 상태에서 상기 이동 정보에 따른 사용자의 제2 반응 데이터를 측정하고,
상기 제2 반응 데이터의 폭이 상기 제1 반응 데이터보다 작도록 상기 모션 제어신호를 생성하도록 제어하는, 영상 컨텐츠와 모션 체어를 연동하는 시스템.
Comprising an interworking server including a processor, wherein the processor,
Provide video content,
Obtaining movement information regarding movement of an area of the video content,
Providing a motion control signal that induces movement corresponding to the movement information to the motion chair so that the movement of the motion chair is linked to the movement of the video content,
The processor evaluates the motion control signal,
Measure the user's first reaction data according to the movement information of the video content in a state where there is no movement of the motion chair,
Measure the user's second reaction data according to the movement information while the motion control signal is applied to the motion chair,
A system that links video content and a motion chair, controlling to generate the motion control signal so that the width of the second response data is smaller than the first response data.
삭제delete
KR1020210123275A 2021-09-15 2021-09-15 Method, Computer Program And System For Linking Video Content and Motion Chair KR102591907B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210123275A KR102591907B1 (en) 2021-09-15 2021-09-15 Method, Computer Program And System For Linking Video Content and Motion Chair
PCT/KR2022/008959 WO2023043011A1 (en) 2021-09-15 2022-06-23 Method, computer program, and system for interlinking image content and motion chair
KR1020230092668A KR102660203B1 (en) 2023-07-17 Method, Computer Program And System For Linking Video Content and Motion Chair

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210123275A KR102591907B1 (en) 2021-09-15 2021-09-15 Method, Computer Program And System For Linking Video Content and Motion Chair

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230092668A Division KR102660203B1 (en) 2023-07-17 Method, Computer Program And System For Linking Video Content and Motion Chair

Publications (2)

Publication Number Publication Date
KR20230040092A KR20230040092A (en) 2023-03-22
KR102591907B1 true KR102591907B1 (en) 2023-10-20

Family

ID=85603081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210123275A KR102591907B1 (en) 2021-09-15 2021-09-15 Method, Computer Program And System For Linking Video Content and Motion Chair

Country Status (2)

Country Link
KR (1) KR102591907B1 (en)
WO (1) WO2023043011A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102365162B1 (en) * 2016-02-29 2022-02-21 삼성전자주식회사 Video display apparatus and method for reducing sickness
KR20180005528A (en) * 2016-07-06 2018-01-16 삼성전자주식회사 Display apparatus and method for image processing
CN111867459B (en) * 2018-03-14 2024-01-09 松下知识产权经营株式会社 Motion sickness estimation system, moving vehicle, motion sickness estimation method, and motion sickness estimation program
KR102205691B1 (en) * 2018-11-23 2021-01-21 주식회사 쓰리디아이 Method and apparatus for motion sickness decrease in vr motion platform
KR20200117089A (en) * 2019-04-02 2020-10-14 사회복지법인 삼성생명공익재단 The virtual reality contents control system and the virtual reality contents control method operating by the same
KR20210067166A (en) * 2019-11-29 2021-06-08 (주)코믹스브이 Virtual content experience system and control method

Also Published As

Publication number Publication date
KR20230110479A (en) 2023-07-24
WO2023043011A1 (en) 2023-03-23
KR20230040092A (en) 2023-03-22

Similar Documents

Publication Publication Date Title
Bergström et al. First-person perspective virtual body posture influences stress: a virtual reality body ownership study
Caserman et al. Cybersickness in current-generation virtual reality head-mounted displays: systematic review and outlook
Keshavarz et al. Validating an efficient method to quantify motion sickness
Rebenitsch et al. Review on cybersickness in applications and visual displays
Caserman et al. Effects of end-to-end latency on user experience and performance in immersive virtual reality applications
CN109643212A (en) 3D document editing system
Pöhlmann et al. The effect of motion direction and eccentricity on vection, VR sickness and head movements in virtual reality
Rodrigues et al. A Quality of Experience assessment of haptic and augmented reality feedback modalities in a gait analysis system
Niehorster et al. Accuracy and tuning of flow parsing for visual perception of object motion during self-motion
Lakshmi Pavani et al. Navigation through eye-tracking for human–computer interface
Dvir et al. Cervical motion in patients with chronic disorders of the cervical spine: a reproducibility study
Lee et al. The effects of viewing smart devices on static balance, oculomotor function, and dizziness in healthy adults
US10628509B2 (en) Avatar-based health portal with multiple navigational modes
Mine et al. The relationship between the body and the environment in the virtual world: The interpupillary distance affects the body size perception
KR102591907B1 (en) Method, Computer Program And System For Linking Video Content and Motion Chair
KR102660203B1 (en) Method, Computer Program And System For Linking Video Content and Motion Chair
US20200405145A1 (en) Systems and methods for using machine learning to predict contact lens compatibility
Guanoluisa et al. GY MEDIC: analysis and rehabilitation system for patients with facial paralysis
Melo et al. The impact of body position on the usability of multisensory virtual environments: Case study of a virtual bicycle
Wu et al. Foot shape prediction using elliptical Fourier analysis
Wang et al. Effect of vibrotactile feedback on simulator sickness, performance, and user satisfaction with virtual reality glasses
Page et al. Identifying strategies to mitigate cybersickness in virtual reality induced by flying with an interactive travel interface
Park et al. Effects of Seated Postural Sway on Visually Induced Motion Sickness: A Multiple Regression and RUSBoost Classification Approach
Clua et al. Challenges for XR in Games
Dæhlen Towards developing an eye-tracker based virtual reality application for supporting vision screening

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant