KR20220106574A - Clinical linkage analysis system of subjective pain through voice analysis for pre-interview - Google Patents
Clinical linkage analysis system of subjective pain through voice analysis for pre-interview Download PDFInfo
- Publication number
- KR20220106574A KR20220106574A KR1020210009652A KR20210009652A KR20220106574A KR 20220106574 A KR20220106574 A KR 20220106574A KR 1020210009652 A KR1020210009652 A KR 1020210009652A KR 20210009652 A KR20210009652 A KR 20210009652A KR 20220106574 A KR20220106574 A KR 20220106574A
- Authority
- KR
- South Korea
- Prior art keywords
- analysis
- unit
- information
- voice
- pain
- Prior art date
Links
- 208000002193 Pain Diseases 0.000 title claims abstract description 66
- 230000006399 behavior Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 22
- 238000003745 diagnosis Methods 0.000 claims description 18
- 238000010195 expression analysis Methods 0.000 claims description 17
- 201000010099 disease Diseases 0.000 claims description 14
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 14
- 230000008921 facial expression Effects 0.000 claims description 14
- 230000014509 gene expression Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 206010072005 Spinal pain Diseases 0.000 abstract description 2
- 238000010219 correlation analysis Methods 0.000 abstract 1
- 238000011282 treatment Methods 0.000 description 13
- 230000003902 lesion Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 244000309466 calf Species 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 208000020307 Spinal disease Diseases 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 238000011269 treatment regimen Methods 0.000 description 2
- 208000008035 Back Pain Diseases 0.000 description 1
- 208000003618 Intervertebral Disc Displacement Diseases 0.000 description 1
- 206010050296 Intervertebral disc protrusion Diseases 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 210000001255 hallux Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012148 non-surgical treatment Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 발명은 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템에 관한 것으로, 보다 상세하게는 척추 통증에 대한 사전문진의 정확도를 향상시키기 위한 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템에 관한 것이다.The present invention relates to a system for analyzing the clinical linkage of subjective pain through voice analysis for prior questionnaires, and more particularly, analysis of clinical linkage of subjective pain through voice analysis for prior questionnaires to improve the accuracy of prior questionnaires for spinal pain. It's about the system.
전 연령대에서 스마트폰, 컴퓨터 이용이 증가하고, 앉아서 생활하는 시간이 길어지면서 척추 질환자 수가 해마다 큰 폭으로 증가하고 있는 추세이다.As the use of smartphones and computers of all age groups increases, and the time spent sitting for a longer period of time, the number of patients with spinal diseases is increasing significantly every year.
이에 따라, 척추 질환으로 인해서 병원을 찾는 사람들도 해마다 증가하고 있다.Accordingly, the number of people visiting the hospital due to spinal diseases is increasing every year.
이처럼 척추 통증으로 병원을 찾은 환자와의 외래 진료시 의사와 환자와의 인터뷰는 환자가 어떤 점을 가장 불편해하는지 파악하기 위해 필요한 과정이라고 할 수 있다.As such, an interview with a doctor and a patient during outpatient treatment with a patient who has visited the hospital for back pain is a necessary process to find out what the patient is most uncomfortable with.
인터뷰에서 의사는 환자의 X-Ray, MRI, CT 이미지를 보고, 환자와의 문진을 참고하여 환자의 병증 및 치료 방법을 결정해야 한다.During the interview, the doctor should look at the patient's X-ray, MRI, and CT images and determine the patient's condition and treatment method by referring to the interview with the patient.
그러나, 의사가 각 이미지를 통해 5가지 병소들을 찾아낸다고 하더라도, 어떤 병소들은 무증상인 경우가 있고 어떤 병소는 경미한 유증상, 어떤 병소는 주된 유증상 병소일 수 있다. 즉, 병소의 위치와 병변의 성격에 따라 증상들은 다르게 나타나기 때문에 환자와의 문진을 통해 환자가 어느 부분을 가장 불편해하는지 캐치해야 하며 여러 병소 중에 가장 시급하게 치료가 필요한 병소가 어디인지 찾아내는 데에도 많은 시간이 소요되었다.However, even if a doctor finds 5 lesions through each image, some lesions may be asymptomatic, some lesions may be mildly symptomatic, and some lesions may be predominantly symptomatic lesions. In other words, since symptoms appear differently depending on the location of the lesion and the nature of the lesion, it is necessary to catch the patient's most discomfort through interview with the patient, and it is also necessary to find out which lesion requires the most urgent treatment among various lesions. It took a lot of time.
또한, 의사는 주된 유증상 병소에 대해서도 수술을 반드시 필요로 하는지 비수술치료로 충분한지 등을 결정해야 하는데, 이처럼 복잡한 결정을 3분 내지 5분의 짧은 외래 시간동안 정확하게 결정하는 것은 현실적으로 어려움이 있었다.In addition, the doctor must decide whether surgery is necessary for the main symptomatic lesion or whether non-surgical treatment is sufficient.
상기와 같은 문제를 해결하기 위한 본 발명의 목적은 인공지능의 진단 정확도를 향상시키기 위한 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템을 제공하는 것이다.An object of the present invention to solve the above problems is to provide a clinical linkage analysis system for subjective pain through voice analysis for pre-interview in order to improve the diagnostic accuracy of artificial intelligence.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.
상기와 같은 목적을 달성하기 위한 본 발명의 구성은 피검진자의 병증을 알기 위해 필요한 분석데이터를 획득하도록 마련된 챗봇모듈; 상기 챗봇모듈에 의해 획득된 상기 분석데이터를 분석하여 진단데이터를 도출하도록 마련된 서버모듈; 및 상기 서버모듈에 의해 도출된 진단데이터를 검진자에게 디스플레이하도록 마련된 단말모듈을 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템을 제공한다.A configuration of the present invention for achieving the above object is a chatbot module provided to acquire the analysis data necessary to know the condition of the subject; a server module provided to analyze the analysis data acquired by the chatbot module to derive diagnostic data; and a terminal module provided to display the diagnostic data derived by the server module to the examinee.
본 발명의 실시예에 있어서, 상기 분석데이터는, 문진 정보, 음성 정보, 영상 정보를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the analysis data may include questionnaire information, audio information, and image information.
본 발명의 실시예에 있어서, 상기 챗봇모듈은, 상기 서버모듈로부터 문진 정보를 제공받고, 상기 서버모듈에 상기 분석데이터를 제공하도록 마련된 챗봇통신부; 상기 챗봇통신부로부터 제공받은 상기 문진 정보를 피검진자에게 표시하도록 마련된 디스플레이부; 상기 문진 정보를 피검진자에게 읽어주도록 마련된 스피커부; 및 피검진자의 답변을 인식하여 문진 정보를 획득하고, 피검진자의 음성을 녹음한 음성 정보를 획득하도록 마련된 음성인식부를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the chatbot module includes: a chatbot communication unit provided to receive the questionnaire information from the server module and provide the analysis data to the server module; a display unit provided to display the questionnaire information provided from the chatbot communication unit to the examinee; a speaker unit provided to read the questionnaire information to the subject; and a voice recognition unit configured to acquire questionnaire information by recognizing the examinee's answer, and to obtain voice information recorded by the examinee's voice.
본 발명의 실시예에 있어서, 상기 챗봇모듈은, 문진시 피검진자의 행동 및 표정을 녹화하여 영상 정보를 획득하도록 마련된 촬영부를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the chatbot module may further include a photographing unit provided to acquire image information by recording the behavior and facial expressions of the examinee during the interview.
본 발명의 실시예에 있어서, 상기 서버모듈은, 상기 챗봇모듈로부터 분석데이터를 제공받도록 마련된 서버통신부; 상기 문진 정보를 분석하도록 마련된 문진분석부; 상기 음성 정보를 분석하도록 마련된 음성분석부; 상기 영상 정보에서 피검진자의 행동을 분석하도록 마련된 행동분석부; 상기 영상 정보에서 피검진자의 표정을 분석하도록 마련된 표정분석부; 및 상기 문진분석부, 상기 음성분석부, 상기 행동분석부, 상기 표정분석부의 분석 결과를 종합하여 피검진자의 병증을 진단하여 예상 병증 정보를 생성하도록 마련된 진단부를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the server module includes: a server communication unit provided to receive analysis data from the chatbot module; a questionnaire analysis unit provided to analyze the questionnaire information; a voice analysis unit provided to analyze the voice information; a behavior analysis unit provided to analyze the behavior of the examinee from the image information; an expression analysis unit provided to analyze the expression of the subject in the image information; and a diagnosing unit configured to generate expected disease information by synthesizing the analysis results of the questionnaire analysis unit, the voice analysis unit, the behavior analysis unit, and the expression analysis unit to diagnose the condition of the subject.
본 발명의 실시예에 있어서, 상기 문진분석부는, 통증관련 설문, VAS(visual analogue scale) 점수 및 ODI(Oswestry Disability Index) 점수에 따라 신체 부위 별로 통증 점수를 산정하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the questionnaire analysis unit may be configured to calculate a pain score for each body part according to a pain-related questionnaire, a visual analogue scale (VAS) score, and an Oswestry Disability Index (ODI) score.
본 발명의 실시예에 있어서, 상기 음성분석부는, 상기 음성 정보에서 피검진자의 목소리 톤을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the voice analysis unit may be configured to analyze the tone of the examinee's voice from the voice information and additionally calculate a pain weight for each body part from the pain score.
본 발명의 실시예에 있어서, 상기 행동분석부는, 상기 영상 정보에서 피검진자의 행동을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the behavior analysis unit may be configured to analyze the behavior of the examinee from the image information and additionally calculate a pain weight for each body part from the pain score.
본 발명의 실시예에 있어서, 상기 표정분석부는, 상기 영상 정보에서 피검진자의 얼굴 표정을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the expression analysis unit may be configured to analyze the facial expression of the examinee from the image information and additionally calculate a pain weight for each body part from the pain score.
본 발명의 실시예에 있어서, 상기 진단부는, 상기 문진분석부에 의해 산정된 신체 부위 별 통증 점수에 상기 음성분석부, 상기 행동분석부, 상기 표정분석부의 분석 결과에 따라 추가 산정된 신체 부위 별 통증 가중치를 합산하여 상기 예상 병증 정보를 생성하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the diagnosis unit includes a pain score for each body part calculated by the questionnaire analysis unit for each body part additionally calculated according to the analysis results of the voice analysis unit, the behavior analysis unit, and the expression analysis unit. It may be characterized in that it is provided to generate the predicted disease information by summing the pain weights.
본 발명의 실시예에 있어서, 상기 단말모듈은, 상기 서버모듈로부터 진단된 예상 병증 정보를 제공받는 단말통신부; 및 상기 단말통신부에 제공된 예상 병증 정보를 검진자에게 표시하는 정보표시부를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the terminal module includes: a terminal communication unit that receives information about the predicted disease diagnosed from the server module; and an information display unit for displaying the expected disease information provided to the terminal communication unit to the examinee.
본 발명의 실시예에 있어서, 상기 단말모듈은, 검진자로부터 진단된 피검진자의 실제 병증에 대한 진단 병증 정보를 입력하도록 마련된 입력부를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the terminal module may further include an input unit provided to input diagnostic condition information on an actual condition of the examinee diagnosed by the examinee.
본 발명의 실시예에 있어서, 상기 서버모듈은, 상기 입력부에 입력된 상기 진단 병증 정보와 진단부에 의해 도출된 예상 병증 정보를 비교하여 머신러닝하도록 마련된 학습부를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the server module may further include a learning unit configured to perform machine learning by comparing the diagnostic condition information input to the input unit with the predicted condition information derived by the diagnosis unit. .
본 발명의 실시예에 있어서, 상기 입력부에는 피검진자의 성격 정보가 더 입력되도록 마련되며, 상기 진단부는 상기 성격 정보에 따라 통증 가중치를 조정하도록 마련된 것을 특징으로 할 수 있다.In an embodiment of the present invention, the input unit may be provided to further input personality information of the examinee, and the diagnosis unit may be provided to adjust a pain weight according to the personality information.
상기와 같은 구성에 따르는 본 발명의 효과는, 피검진자와의 외래 진료 전 사전 문진을 통해 환자의 신체 부위 별 통증 정도를 쉽게 파악할 수 있다.According to the effect of the present invention according to the above configuration, it is possible to easily grasp the pain level for each body part of the patient through a preliminary questionnaire before outpatient treatment with the examinee.
진단부가 피검진자의 음성, 표정, 행동을 부가하여 예상 진단 정보를 산출함으로써, 보다 정확하게 피검진자의 병증을 예상할 수 있다.Since the diagnosis unit calculates predicted diagnostic information by adding the voice, facial expression, and behavior of the examinee, it is possible to more accurately predict the condition of the examinee.
의사가 피검진자의 병증에 대해 보다 잘 이해한 상태에서 피검진자와 외래 진료를 진행할 수 있기 때문에, 짧은 외래 진료 시간 내에 보다 정확하게 환자에게 시급하게 치료가 필요한 병소 및 치료 방법을 결정할 수 있다.Since the doctor can conduct outpatient treatment with the examinee with a better understanding of the subject's condition, it is possible to more accurately determine the lesion and treatment method that urgently require treatment for the patient within a short outpatient consultation time.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and it should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 본 발명의 일실시예에 따른 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템의 구성예시도이다.1 is an exemplary configuration diagram of a system for analyzing clinical linkage of subjective pain through voice analysis for pre-questionnaires according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in several different forms, and thus is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is "connected (connected, contacted, coupled)" with another part, it is not only "directly connected" but also "indirectly connected" with another member interposed therebetween. "Including cases where In addition, when a part "includes" a certain component, this means that other components may be further provided without excluding other components unless otherwise stated.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템의 구성예시도이다.1 is an exemplary configuration diagram of a system for analyzing clinical linkage of subjective pain through voice analysis for pre-questionnaires according to an embodiment of the present invention.
도 1을 참조하면, 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템(100)은 챗봇모듈(110), 서버모듈(120) 및 단말모듈(130)을 포함할 수 있다.Referring to FIG. 1 , the clinical
상기 챗봇모듈(110)은 피검진자의 병증을 알기 위해 필요한 분석데이터를 획득하도록 마련되며, 챗봇통신부(111), 디스플레이부(112), 스피커부(113), 음성인식부(114) 및 촬영부(115)를 포함할 수 있다.The
여기서, 상기 분석데이터는, 문진 정보, 음성 정보, 영상 정보를 포함할 수 있다.Here, the analysis data may include questionnaire information, audio information, and image information.
상기 챗봇통신부(111)는, 상기 서버모듈(120)로부터 문진 정보를 제공받고, 상기 서버모듈(120)에 상기 분석데이터를 제공하도록 마련될 수 있다.The
구체적으로, 상기 챗봇통신부(111)는 상기 서버모듈(120)로부터 VAS(visual analogue scale) 설문 및 ODI(Oswestry Disability Index) 설문 및 기타 통증 관련 설문을 포함하여 피검진자의 병증을 파악하기 위해 필요한 질문들을 제공받도록 마련될 수 있다.Specifically, the
그리고, 챗봇통신부(111)는 제공받은 설문들을 상기 디스플레이부(112) 및 스피커부(113)에 제공할 수 있으며, 음성인식부(114) 및 촬영부(115)로부터 제공받은 정보를 서버모듈(120)로 제공하도록 마련될 수 있다.In addition, the
상기 디스플레이부(112)는 상기 챗봇통신부(111)로부터 제공받은 상기 문진 정보를 피검진자에게 표시하도록 마련될 수 있다.The
이때, 상기 디스플레이부(112)는 피검진자에게 설문을 보여주기만 하는 것이 아니라 터치 스크린으로 마련되어 피검진자가 답변을 직접 선택할 수 있도록 마련될 수도 있다.In this case, the
상기 스피커부(113)는 상기 문진 정보를 피검진자에게 읽어주도록 마련될 수 있다.The
구체적으로, 상기 스피커부(113)는 상기 디스플레이부(112)에 표시된 설문 내용을 피검진자에게 읽어주고, 답변을 하도록 안내할 수 있다. 이처럼 마련된 스피커부(113)는 피검진자가 실제 문진과 같이 자연스럽게 대화를 하도록 유도함으로써 다양한 표정 변화 및 행동 변화를 이끌어낼 수 있다.Specifically, the
상기 음성인식부(114)는 피검진자의 답변을 인식하여 문진 정보를 획득하고, 피검진자의 음성을 녹음한 음성 정보를 획득하도록 마련될 수 있다.The
상기 촬영부(115)는 문진시 피검진자의 행동 및 표정을 녹화하여 영상 정보를 획득하도록 마련될 수 있다.The photographing
이처럼 획득된 문진 정보, 음성 정보, 영상 정보는 상기 챗봇통신부(111)에 의해 서버모듈(120)에 전송될 수 있다.The obtained questionnaire information, voice information, and image information may be transmitted to the
상기 서버모듈(120)은, 상기 챗봇모듈(110)에 의해 획득된 상기 분석데이터를 분석하여 진단데이터를 도출하도록 마련되며, 서버통신부(121), 문진분석부(122), 음성분석부(123), 행동분석부(124), 표정분석부(125), 진단부(126) 및 학습부(127)를 포함할 수 있다.The
상기 서버통신부(121)는 상기 챗봇모듈(110)로부터 분석데이터를 제공받도록 마련될 수 있다.The
구체적으로, 상기 서버통신부(121)는 상기 챗봇통신부(111)로부터 문진 정보, 음성 정보, 영상 정보를 전송받을 수 있다. 상기 서버통신부(121)는 문진 정보를 상기 음성분석보 또는 문진분석부(122)에 제공하며, 음성 정보를 음성 분석부에 제공할 수 있다. 그리고 상기 서버통신부(121)는 영상 정보를 행동분석부(124)와 표정분석부(125)에 제공할 수 있다.Specifically, the
상기 문진분석부(122)는 상기 문진 정보를 분석하도록 마련될 수 있다.The
상기 문진분석부(122)는 VAS(visual analogue scale) 설문 및 ODI(Oswestry Disability Index) 설문 및 기타 설문의 내용을 서버통신부(121)를 통해 챗봇모듈(110)에 제공하도록 마련될 수 있다.The
그리고, 상기 문진분석부(122)는 상기 음성분석부(123)에 의해 분석된 문진에 대한 피검진자의 답변을 제공받도록 마련될 수 있다. 또는, 피검진자가 문진에 대한 답을 디스플레이부(112)에 직접 선택한 방식을 취한 경우에는 음성분석부(123)를 거치지 않고 직접 서버통신부(121)로부터 문진에 대한 답변을 제공받도록 마련될 수도 있다.In addition, the
이처럼 마련된, 상기 문진분석부(122)는 피검진자가 답변한 VAS(visual analogue scale) 점수 및 ODI(Oswestry Disability Index) 점수에 따라 신체 부위 별로 통증 점수를 산정하도록 마련될 수 있다.The prepared
상기 음성분석부(123)는 상기 음성 정보를 분석하도록 마련될 수 있다.The
구체적으로, 상기 음성분석부(123)는, 피검진자의 문진에 대한 답변을 분석하여 문진 정보를 도출한 후 이를 문진 분석부에 제공하도록 마련될 수 있다.Specifically, the
그리고, 상기 음성분석부(123)는, 상기 음성 정보에서 피검진자의 목소리 톤을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련될 수 있다.In addition, the
일 예로, 상기 음성분석부(123)는 피검진자의 설문 중 특정 답변에서 목소리 톤이 전체 평균에 비해 급격하게 올라가거나 내려가는 지점에 대해 통증 가중치를 추가 산정하도록 마련될 수 있다.For example, the
또는 상기 음성분석부(123)는 피검진자의 답변 중 반복적으로 언급되는 신체 부위에 대해 가중치를 더 높게 산정하도록 마련될 수 있다.Alternatively, the
상기 행동분석부(124)는 상기 영상 정보에서 피검진자의 행동을 분석하도록 마련될 수 있다.The
구체적으로, 상기 행동분석부(124)는, 상기 영상 정보에서 피검진자의 행동을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련될 수 있다.Specifically, the
일 예로, 상기 행동분석부(124)는 영상 정보에서 피검진자의 설문 중 특정 답변에서 손이 많이 움직이거는 등 자세의 변화가 많아질 경우 해당 질문에서 해당하는 신체 부위에 대한 통증 가중치를 추가 산정하도록 마련될 수 있다.As an example, the
상기 표정분석부(125)는 상기 영상 정보에서 피검진자의 표정을 분석하도록 마련될 수 있다.The
구체적으로, 상기 표정분석부(125)는 상기 영상 정보에서 피검진자의 얼굴 표정을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련될 수 있다.Specifically, the facial
일 예로, 상기 표정분석부(125)는 피검진자가 설문 중 특정 질문에서 얼굴 표정이 찡그리는 등의 표정 변화가 발생한 경우 특정 질문에 해당하는 신체 부위에 대한 통증 가중치를 추가 산정하도록 마련될 수 있다.For example, the facial
상기 진단부(126)는 상기 문진분석부(122), 상기 음성분석부(123), 상기 행동분석부(124), 상기 표정분석부(125)의 분석 결과를 종합하여 피검진자의 병증을 진단하여 예상 병증 정보를 생성하도록 마련될 수 있다.The
구체적으로, 상기 진단부(126)는, 상기 문진분석부(122)에 의해 산정된 신체 부위 별 통증 점수에 상기 음성분석부(123), 상기 행동분석부(124), 상기 표정분석부(125)의 분석 결과에 따라 추가 산정된 신체 부위 별 통증 가중치를 합산하여 상기 예상 병증 정보를 생성하도록 마련될 수 있다.Specifically, the
일 예로, 상기 문진분석부(122)의 분석 결과, 엉치, 골반, 허벅지 옆부분, 허벅지 뒷부분, 종아리 옆부분, 허리, 종아리 뒷부분, 발등, 발바닥, 엄지발가락 등에 높은 통증 점수가 매겨질 수 있다. 이 경우, 요추 추간판 탈출증으로 요추 4번, 5번, 천추 1번에 문제가 있는 것으로 볼 수 있다.For example, as a result of the analysis of the
여기서, 상기 음성분석부(123), 행동분석부(124), 표정분석부(125)의 분석 결과에 따라 허리, 엉치, 골반, 허벅지 뒷부분, 종아리 뒷부분, 발바닥의 통증 점수에 통증 가중치가 부여된다고 가정하면, 진단부(126)는 가장 문제가 시급한 부분이 요추 5번, 천추 1번에 해당하며, 요추 추간판 탈출증이 있다고 예상 병증 정보를 생성할 수 있다.Here, according to the analysis results of the
이처럼, 상기 서버모듈(120)은 문진 결과만이 아니라, 피검진자의 음성, 행동, 표정 변화를 종합적으로 판단하여 피검진자의 병증을 진단하고 그 중에서도 가장 시급하게 해결이 필요한 부분을 진단하도록 마련될 수 있다.As such, the
또한, 상기 진단부(126)는 예상 병증 정보에서 신체 부위 별 통증 정도에 따라 가능한 치료 방법들을 함께 추천하도록 마련될 수도 있다.In addition, the
상기 단말모듈(130)은 상기 서버모듈(120)에 의해 도출된 진단데이터를 검진자에게 디스플레이하도록 마련되며, 단말통신부(131), 정보표시부(132), 입력부(133)를 포함할 수 있다.The
상기 단말통신부(131)는 상기 서버모듈(120)로부터 진단된 예상 병증 정보를 제공받도록 마련될 수 있다.The
구체적으로, 상기 단말통신부(131)는 상기 서버모듈(120)로부터 진단된 진단데이터인 예상 병증 정보를 제공받아 정보표시부(132)에 제공하고, 상기 입력부(133)에 입력된 정보를 상기 서버모듈(120)에 제공하도록 마련될 수 있다.Specifically, the
상기 정보표시부(132)는 상기 단말통신부(131)에 제공된 예상 병증 정보를 검진자에게 표시하도록 마련될 수 있다.The
상기 정보 표시부는 컴퓨터, 휴대폰, 노트북, 모니터 등의 전자 장치를 모두 포함할 수 있다.The information display unit may include all electronic devices such as a computer, a mobile phone, a notebook computer, and a monitor.
검진자는 상기 정보 표시부에 표시된 예상 병증 정보를 토대로 피검진자의 병증 및 통증이 심한 부위를 예상하고 문진을 시작할 수 있기 때문에 보다 신속하게 피검진자에 대한 병증을 진단하고 치료 요법을 결정하게 될 수 있다.Since the examinee can anticipate the patient's condition and the painful area based on the expected disease information displayed on the information display unit and start the interview, it is possible to more quickly diagnose the condition of the examinee and determine the treatment regimen.
상기 입력부(133)는 검진자로부터 진단된 피검진자의 실제 병증에 대한 진단 병증 정보를 입력하도록 마련될 수 있다. 그리고, 상기 입력부(133)에는 치료 방법이나, 피검진자의 성격 등에 대해서도 더 입력하도록 마련될 수 있다. 여기서 성격이란, 통증에 대해 반응하는 정도로서, 예상되는 통증에 비해 과장이 심한편인지 등을 점수 등으로 입력하도록 마련될 수 있다.The
상기 단말통신부(131)는 상기 입력부(133)로부터 상기 진단 병증 정보, 피검진자의 성격 정보, 치료 방법 등을 서버통신부(121)로 제공하도록 마련될 수 있다.The
상기 서버통신부(121)는 상기 진단 병증 정보, 치료 방법을 상기 학습부(127)에 제공하도록 마련될 수 있다.The
상기 학습부(127)는 상기 단말모듈(130)에 마련된 입력부(133)에 입력된 진단 병증 정보와 진단부(126)에 의해 도출된 예상 병증 정보를 비교하여 머신러닝하도록 마련될 수 있다.The
그리고, 상기 학습부(127)는 추천한 치료 방법과 검진자가 진단한 치료 방법을 비교하여 인공 지능에 의해 머신러닝을 하도록 마련되고, 머신러닝한 결과에 따라 상기 진단부(126)를 업데이트하여 보다 정확한 진단이 이루어지도록 할 수 있다.In addition, the
또한, 상기 서버통신부(121)는 피검진자의 성격 정보를 진단부(126)에 제공함으로써, 상기 진단부(126)는 상기 성격 정보에 따라 상기 통증 가중치를 조정하도록 마련될 수 있다.In addition, the
일 예로, 예상되는 통증에 비해 몸짓이나 목소리 톤의 변동이 큰 사람일 경우, 이에 대한 통증 가중치를 낮추도록 할 수 있다.As an example, in the case of a person who has a large change in gesture or voice tone compared to the expected pain, the weight of the pain may be lowered.
전술한 바와 같이 마련된 본 발명은 문진 결과만이 아니라, 피검진자의 음성, 행동, 표정 변화를 인공지능에 의해 종합적으로 판단하여 피검진자의 병증을 진단하고 그 중에서도 가장 시급하게 해결이 필요한 부분을 진단하도록 마련될 수 있다.The present invention prepared as described above diagnoses the condition of the examinee by comprehensively judging the change in voice, behavior, and facial expression of the examinee by artificial intelligence, not only the results of the questionnaire, and diagnoses the most urgently needed part among them. may be arranged to do so.
그리고, 검진자는 산출된 예상 병증 정보를 토대로 피검진자의 병증 및 통증이 심한 부위를 예상하고 문진을 시작할 수 있기 때문에 짧은 외래 시간 내에 보다 피검진자에 대한 병증을 정확하게 진단하고 가장 적절한 치료 요법을 결정하게 될 수 있다.And, based on the calculated predicted disease information, the examiner can anticipate the patient's condition and painful area and start the interview, so that the examinee can accurately diagnose the condition of the examinee within a short outpatient period and determine the most appropriate treatment regimen. can be
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.
100: 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템
110: 챗봇모듈
111: 챗봇통신부
112: 디스플레이부
113: 스피커부
114: 음성인식부
115: 촬영부
120: 서버모듈
121: 서버통신부
122: 문진분석부
123: 음성분석부
124: 행동분석부
125: 표정분석부
126: 진단부
127: 학습부
130: 단말모듈
131: 단말통신부
132: 정보표시부
133: 입력부100: Clinical linkage analysis system of subjective pain through voice analysis for prior interview
110: chatbot module
111: chatbot communication department
112: display unit
113: speaker unit
114: voice recognition unit
115: shooting department
120: server module
121: server communication unit
122: Questionnaire analysis department
123: voice analysis unit
124: behavior analysis unit
125: expression analysis unit
126: diagnostic unit
127: study department
130: terminal module
131: terminal communication unit
132: information display unit
133: input unit
Claims (14)
상기 챗봇모듈에 의해 획득된 상기 분석데이터를 분석하여 진단데이터를 도출하도록 마련된 서버모듈; 및
상기 서버모듈에 의해 도출된 진단데이터를 검진자에게 디스플레이하도록 마련된 단말모듈을 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
A chatbot module provided to acquire analysis data necessary to know the condition of the subject;
a server module provided to analyze the analysis data obtained by the chatbot module to derive diagnostic data; and
Clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, characterized in that it comprises a terminal module provided to display the diagnostic data derived by the server module to the examinee.
상기 분석데이터는,
문진 정보, 음성 정보, 영상 정보를 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
The method of claim 1,
The analysis data is
Clinical linkage analysis system of subjective pain through voice analysis for pre-interview, characterized in that it includes questionnaire information, audio information, and image information.
상기 챗봇모듈은,
상기 서버모듈로부터 문진 정보를 제공받고, 상기 서버모듈에 상기 분석데이터를 제공하도록 마련된 챗봇통신부;
상기 챗봇통신부로부터 제공받은 상기 문진 정보를 피검진자에게 표시하도록 마련된 디스플레이부;
상기 문진 정보를 피검진자에게 읽어주도록 마련된 스피커부; 및
피검진자의 답변을 인식하여 문진 정보를 획득하고, 피검진자의 음성을 녹음한 음성 정보를 획득하도록 마련된 음성인식부를 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
The method of claim 1,
The chatbot module is
a chatbot communication unit configured to receive questionnaire information from the server module and provide the analysis data to the server module;
a display unit provided to display the questionnaire information provided from the chatbot communication unit to the examinee;
a speaker unit provided to read the questionnaire information to the subject; and
Clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaire, characterized in that it includes a voice recognition unit provided to acquire the questionnaire information by recognizing the answer of the examinee, and to obtain the voice information recorded by the examinee's voice.
상기 챗봇모듈은,
문진시 피검진자의 행동 및 표정을 녹화하여 영상 정보를 획득하도록 마련된 촬영부를 더 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
4. The method of claim 3,
The chatbot module is
Clinical linkage analysis system of subjective pain through voice analysis for pre-interview, characterized in that it further comprises a photographing unit provided to obtain image information by recording the behavior and facial expression of the examinee during the interview.
상기 서버모듈은,
상기 챗봇모듈로부터 분석데이터를 제공받도록 마련된 서버통신부;
상기 문진 정보를 분석하도록 마련된 문진분석부;
상기 음성 정보를 분석하도록 마련된 음성분석부;
상기 영상 정보에서 피검진자의 행동을 분석하도록 마련된 행동분석부;
상기 영상 정보에서 피검진자의 표정을 분석하도록 마련된 표정분석부; 및
상기 문진분석부, 상기 음성분석부, 상기 행동분석부, 상기 표정분석부의 분석 결과를 종합하여 피검진자의 병증을 진단하여 예상 병증 정보를 생성하도록 마련된 진단부를 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
3. The method of claim 2,
The server module,
a server communication unit provided to receive analysis data from the chatbot module;
a questionnaire analysis unit provided to analyze the questionnaire information;
a voice analysis unit provided to analyze the voice information;
a behavior analysis unit provided to analyze the behavior of the examinee from the image information;
an expression analysis unit provided to analyze the expression of the subject in the image information; and
Voice for pre-question interview, characterized in that it comprises a diagnosis unit provided to diagnose the condition of the subject by synthesizing the analysis results of the questionnaire analysis unit, the voice analysis unit, the behavior analysis unit, and the expression analysis unit to generate information about the expected condition. Clinical relevance analysis system of subjective pain through analysis.
상기 문진분석부는,
VAS(visual analogue scale) 점수 및 ODI(Oswestry Disability Index) 점수에 따라 신체 부위 별로 통증 점수를 산정하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
6. The method of claim 5,
The questionnaire analysis unit,
Clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, characterized in that the pain score is calculated for each body part according to the VAS (visual analogue scale) score and ODI (Oswestry Disability Index) score.
상기 음성분석부는,
상기 음성 정보에서 피검진자의 목소리 톤을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
7. The method of claim 6,
The voice analysis unit,
The clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, characterized in that it is provided to additionally calculate a pain weight for each body part from the pain score by analyzing the voice tone of the examinee from the voice information.
상기 행동분석부는,
상기 영상 정보에서 피검진자의 행동을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
7. The method of claim 6,
The behavior analysis unit,
The clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, characterized in that it is provided to additionally calculate a pain weight for each body part from the pain score by analyzing the behavior of the examinee from the image information.
상기 표정분석부는,
상기 영상 정보에서 피검진자의 얼굴 표정을 분석하여 상기 통증 점수에서 신체 부위 별로 통증 가중치를 추가 산정하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
7. The method of claim 6,
The facial expression analysis unit,
A clinical linkage analysis system for subjective pain through voice analysis for pre-questionnaires, characterized in that it is provided to additionally calculate a pain weight for each body part from the pain score by analyzing the face expression of the examinee from the image information.
상기 진단부는,
상기 문진분석부에 의해 산정된 신체 부위 별 통증 점수에 상기 음성분석부, 상기 행동분석부, 상기 표정분석부의 분석 결과에 따라 추가 산정된 신체 부위 별 통증 가중치를 합산하여 상기 예상 병증 정보를 생성하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
7. The method of claim 6,
The diagnostic unit,
To generate the predicted disease information by adding the pain weight for each body part calculated by the voice analysis unit, the behavior analysis unit, and the expression analysis unit to the pain score for each body part calculated by the questionnaire analysis unit. Clinical linkage analysis system of subjective pain through voice analysis for pre-interview, characterized in that it is prepared.
상기 단말모듈은,
상기 서버모듈로부터 진단된 예상 병증 정보를 제공받는 단말통신부; 및
상기 단말통신부에 제공된 예상 병증 정보를 검진자에게 표시하는 정보표시부를 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
The method of claim 1,
The terminal module,
a terminal communication unit that receives information about the predicted disease diagnosed from the server module; and
Clinical linkage analysis system of subjective pain through voice analysis for pre-interview, characterized in that it comprises an information display unit for displaying the expected disease information provided to the terminal communication unit to the examinee.
상기 단말모듈은,
검진자로부터 진단된 피검진자의 실제 병증에 대한 진단 병증 정보를 입력하도록 마련된 입력부를 더 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
12. The method of claim 11,
The terminal module,
The clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, characterized in that it further comprises an input unit configured to input diagnostic condition information on the actual condition of the examinee diagnosed by the examinee.
상기 서버모듈은,
상기 입력부에 입력된 상기 진단 병증 정보와 진단부에 의해 도출된 예상 병증 정보를 비교하여 머신러닝하도록 마련된 학습부를 더 포함하는 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.
13. The method of claim 12,
The server module,
The clinical linkage analysis system of subjective pain through voice analysis for pre-questionnaires, further comprising a learning unit configured to perform machine learning by comparing the diagnostic condition information input to the input unit with the expected condition information derived by the diagnosis unit.
상기 입력부에는 피검진자의 성격 정보가 더 입력되도록 마련되며,
상기 진단부는 상기 성격 정보에 따라 통증 가중치를 조정하도록 마련된 것을 특징으로 하는 사전 문진용 음성 분석을 통한 주관적 통증의 임상 연계성 분석 시스템.13. The method of claim 12,
The input unit is provided to further input personality information of the subject,
The diagnostic unit is provided to adjust the pain weight according to the personality information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009652A KR102522172B1 (en) | 2021-01-22 | 2021-01-22 | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview |
PCT/KR2021/016726 WO2022158689A1 (en) | 2021-01-22 | 2021-11-16 | System for analyzing clinical connection of subjective pain through voice analysis for preliminary questionnaire |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009652A KR102522172B1 (en) | 2021-01-22 | 2021-01-22 | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220106574A true KR20220106574A (en) | 2022-07-29 |
KR102522172B1 KR102522172B1 (en) | 2023-04-14 |
Family
ID=82549501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210009652A KR102522172B1 (en) | 2021-01-22 | 2021-01-22 | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102522172B1 (en) |
WO (1) | WO2022158689A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160060807A (en) * | 2014-11-20 | 2016-05-31 | 권오봉 | Patient Management System, Patient Management Server, Patient Mobile and Managing Method therefor |
KR102118585B1 (en) * | 2019-12-13 | 2020-06-03 | 가천대학교 산학협력단 | Smart Mirror Chatbot System and Method for Senior Care |
KR20200123593A (en) | 2019-04-22 | 2020-10-30 | 주식회사 엠티에스컴퍼니 | Method and system for human body medical examination using chatbot inpuiry |
US10827973B1 (en) * | 2015-06-30 | 2020-11-10 | University Of South Florida | Machine-based infants pain assessment tool |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102041186B1 (en) * | 2017-12-06 | 2019-11-07 | 고려대학교산학협력단 | Medical service assisted system and method thereof |
KR102261797B1 (en) * | 2018-12-14 | 2021-06-07 | 신라대학교 산학협력단 | Robot system for health care service and method thereof |
-
2021
- 2021-01-22 KR KR1020210009652A patent/KR102522172B1/en active IP Right Grant
- 2021-11-16 WO PCT/KR2021/016726 patent/WO2022158689A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160060807A (en) * | 2014-11-20 | 2016-05-31 | 권오봉 | Patient Management System, Patient Management Server, Patient Mobile and Managing Method therefor |
US10827973B1 (en) * | 2015-06-30 | 2020-11-10 | University Of South Florida | Machine-based infants pain assessment tool |
KR20200123593A (en) | 2019-04-22 | 2020-10-30 | 주식회사 엠티에스컴퍼니 | Method and system for human body medical examination using chatbot inpuiry |
KR102118585B1 (en) * | 2019-12-13 | 2020-06-03 | 가천대학교 산학협력단 | Smart Mirror Chatbot System and Method for Senior Care |
Also Published As
Publication number | Publication date |
---|---|
WO2022158689A1 (en) | 2022-07-28 |
KR102522172B1 (en) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Herbert et al. | Practical Evidence-Based Physiotherapy-E-Book: Practical Evidence-Based Physiotherapy-E-Book | |
KR102116664B1 (en) | Online based health care method and apparatus | |
Neblett et al. | Quantifying the lumbar flexion–relaxation phenomenon: theory, normative data, and clinical applications | |
Chiang et al. | Interexpert agreement of plus disease diagnosis in retinopathy of prematurity | |
KR101898783B1 (en) | Massage Chair providing Healthcare Service by Communication | |
Champion | Revised susceptibility, benefits, and barriers scale for mammography screening | |
Brown et al. | Detection of diabetic foveal edema: contact lens biomicroscopy compared with optical coherence tomography | |
Sandroff et al. | Fitness and cognitive processing speed in persons with multiple sclerosis: a cross-sectional investigation | |
US20110112855A1 (en) | System and method for assisting in making a treatment plan | |
US20050165327A1 (en) | Apparatus and method for detecting the severity of brain function impairment | |
JP2018183474A (en) | Massage device and massage system | |
Finkelstein et al. | Patients' acceptance of Internet-based home asthma telemonitoring. | |
Apeldoorn et al. | The influence of centralization and directional preference on spinal control in patients with nonspecific low back pain | |
Hu et al. | Home monitoring of glaucoma using a home tonometer and a novel virtual reality visual field device: acceptability and feasibility | |
US20060276727A1 (en) | Software for continued evaluation, diagnosis and monitoring of patients on physical therapy | |
Brunse et al. | Examination of musculoskeletal chest pain–an inter-observer reliability study | |
KR102522172B1 (en) | Clinical linkage analysis system of subjective pain through voice analysis for pre-interview | |
Hicks et al. | Relation of white matter hyperintensities and motor deficits in chronic stroke | |
JP2003085290A (en) | Health information control system and its program | |
JP7383245B1 (en) | Depression risk determination system using fundus images, machine learning model generation device, depression risk determination device, and depression risk determination method | |
JP7368864B2 (en) | Acupuncture osteopathic treatment support device, acupuncture osteopathic treatment support system, and acupuncture osteopathic treatment support program | |
US20240177828A1 (en) | Information processing system, information processing device, information processing method, and non-transitory computer-readable medium storing program | |
JP7228147B1 (en) | Remote support system | |
US20230411003A1 (en) | Disease diagnosis result determination device, disease diagnosis result determination method, and program | |
Vining et al. | Thoracolumbar fascia mobility and chronic low back pain: Phase 1 of a pilot and feasibility study assessing repeated measures and the influence of paraspinal muscle contraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |