WO2021187795A1 - 인공지능 기반 구급활동 지침 제공 시스템 및 방법 - Google Patents

인공지능 기반 구급활동 지침 제공 시스템 및 방법 Download PDF

Info

Publication number
WO2021187795A1
WO2021187795A1 PCT/KR2021/002948 KR2021002948W WO2021187795A1 WO 2021187795 A1 WO2021187795 A1 WO 2021187795A1 KR 2021002948 W KR2021002948 W KR 2021002948W WO 2021187795 A1 WO2021187795 A1 WO 2021187795A1
Authority
WO
WIPO (PCT)
Prior art keywords
disease
aid
artificial intelligence
patient
unit
Prior art date
Application number
PCT/KR2021/002948
Other languages
English (en)
French (fr)
Inventor
장혁재
김지훈
김민정
김성우
전병환
하성민
한경훈
정현석
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Publication of WO2021187795A1 publication Critical patent/WO2021187795A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a system and method for providing standard guidelines for first aid activities for intelligent 119 paramedics based on artificial intelligence.
  • the paramedics at the emergency site identify the patient's symptoms and input the disease name corresponding to it, based on the learning data, the disease name and the voice of the emergency scene are used as input variables to learn in a deep learning method
  • Artificial intelligence-based first aid guideline that provides paramedics with the best first aid guideline corresponding to the name of the disease to secure the patient's golden time and provide appropriate first aid treatment to the patient in a short time to increase the survival rate of seriously ill patients It relates to a delivery system and method.
  • the standard guidelines for first aid activities are the first aid activities of paramedics who provide emergency services for emergency medical services such as the organization of an ambulance, emergency equipment operation guidelines, first aid methods for patients on-site or during transport, and guidelines for selecting a hospital to be transferred.
  • the standard guidelines for first aid activities provide an outline explaining the basic matters of the 119 emergency service standard guidelines, and provide the operating guidelines for the first aid team that explain general matters about the operation of the first aid team.
  • the standard guidelines for first aid activities provide on-site first aid guidelines that describe standardized first aid procedures and guidelines in general field situations, and provide guidelines for special situations that explain standard guidelines in special situations.
  • the standard guidelines for first aid activities provide technical guidelines that explain the techniques necessary for patient evaluation and first aid treatment, and provide drug guidelines that show basic information about drugs used in the pre-hospital stage.
  • Conventional first aid standard guidelines provide 500 pages of information for various diseases. Although it provides standard guidelines, technical guidelines, drug guidelines, and other guidelines for emergency action guidelines for each disease through a vast amount, there is a disadvantage in that it cannot provide appropriate guidelines for each patient's condition or emergency site situation in real time.
  • paramedics should administer appropriate first aid to the patient in real time at the emergency scene.
  • An object of the present invention to solve the above problems is to learn the name of the patient's disease and the first aid action guidelines corresponding to the detailed symptoms for each disease in the deep learning method and store it as data, and the paramedics at the emergency site to identify the symptoms of the patient
  • learning is performed in the deep learning method using the disease name and the voice of the emergency scene as input variables based on the learning data, and the optimal emergency guideline corresponding to the disease name is quickly provided to the paramedics.
  • the goal is to provide a system and method for providing guidelines for first aid based on artificial intelligence to secure the patient's golden time and provide appropriate first aid to the patient in a short time to increase the survival rate of seriously ill patients.
  • an AI-based first aid guide providing system comprising: a storage unit for storing first aid action guidelines corresponding to disease names and symptoms for each disease as data; an input unit for receiving the disease name, symptoms for each disease, and patient-related data; Learning and storing the disease name and first aid guidelines corresponding to the symptoms of each disease in a deep learning method, and executing deep learning learning using the input data as an input variable based on the learned data, corresponding to the disease name Artificial intelligence department that provides first aid guidance; And it may include an output unit for outputting the first-aid guide in the form of voice or screen.
  • the input unit may include: a data input unit for receiving patient-related texts at the emergency site; a sound input unit receiving sound generated at the emergency site; and a device interlocking unit for receiving measurement values in connection with the devices for measuring the symptoms for each disease by wire or wirelessly.
  • the artificial intelligence unit in addition to the name of the patient's disease input from the paramedic, separates the voice of the conversation from the sound received through the sound input unit, and analyzes the separated voices of the conversation to recognize the symptoms of each disease, or through the equipment linkage unit It is possible to recognize the symptoms of each disease of the patient from the inputted biosignal of the patient, select the optimal first aid guideline according to the recognized symptom for each disease, and provide the selected optimal first aid action guideline.
  • the artificial intelligence unit separates the voice of the conversation between the paramedic and the patient, the voice of the conversation between the paramedic and the witness, and the voice of the conversation between the paramedic and the guardian from the sound received through the sound input unit, and the separated voices of the conversation It can be analyzed to recognize detailed symptoms for each disease.
  • the artificial intelligence unit may provide a first aid action guide corresponding to the recognized detailed symptoms for each disease and the name of the disease, and provide a guide for first aid treatment according to the first aid action guideline.
  • the storage unit includes a question set to be asked by the paramedics to the subject and an answer set to answer the paramedics
  • the artificial intelligence unit may include a set of questions from the sound input through the sound input unit. Based on the set and the answer set, it is possible to recognize detailed symptoms for each disease by analyzing the voices of the conversation contents of the speakers.
  • the artificial intelligence unit recognizes the detailed symptoms for each disease and checks the detailed situation table for each disease, or records the patient's biosignals obtained in real time through interworking with the equipment in real time in the emergency activity log, and is identified in real time According to the condition of the patient, the detailed status table for each disease or the emergency activity log may be updated in real time.
  • the artificial intelligence unit may record the patient's bio-signals obtained in real time through interworking with other equipment through the equipment interlocking unit in real time in the emergency activity log.
  • the artificial intelligence-based first aid guidance providing method for achieving the above object is, (a) the artificial intelligence unit learns the first aid guidance corresponding to the disease name and symptoms by disease in a deep learning method. step; (b) storing the learned data by the artificial intelligence unit; (c) receiving, by an input unit, at least one of the disease name, the disease-specific symptoms, and patient-related data; (d) the artificial intelligence unit executing deep learning learning using the input data as an input variable based on the learned data to derive first aid guideline corresponding to the disease name or symptom for each disease; And (e) the artificial intelligence unit may include the step of providing the derived first aid guidance.
  • the input unit receives patient condition-related data from the paramedics at the emergency site, receives the sound generated at the emergency site through the sound input unit, or measures the symptoms of each disease through the equipment linker
  • the measured values can be inputted by linking with each other by wire or wirelessly.
  • step (d) the artificial intelligence unit separates the voice of the conversation contents from the received sound, analyzes the separated voices of the conversation to recognize the symptoms of each disease, or analyzes the patient's bio-signals input through the equipment linkage unit Thus, the symptoms of each disease can be recognized.
  • the artificial intelligence unit separates, from the sound input through the sound input unit, the voice of the conversation between the paramedics and the patient, the voice of the conversation between the paramedic and the witness, and the voice of the conversation between the paramedic and the guardian. It is possible to recognize detailed symptoms for each disease by analyzing the voices of the conversation.
  • step (d) the artificial intelligence unit recognizes detailed symptoms for each disease and checks the detailed situation table for each disease, or records the patient's biosignals obtained in real time through interworking with equipment in real time in the emergency activity log, According to the condition of the patient identified in real time, the detailed status table for each disease or the emergency activity log can be updated in real time.
  • paramedics can be automatically provided with optimal first aid standard guidelines in real time through an artificial intelligence-based intelligent first aid standard guide system through a tablet at the scene.
  • first aid standard guidelines provide first aid for various diseases in 500 pages
  • paramedics have no choice but to feel the burden of familiarizing themselves with the 500 pages of standard first aid guidelines, but the knowledge DB of the present invention
  • paramedics' reliance on standard guidelines for first aid activities can be reduced, thereby reducing the burden and reducing the number of mistakes made by paramedics at the scene.
  • first aid is provided in a vast amount in the standard guidelines for first aid activities, only generalized first aid is provided. Because it varies each time, it is difficult to take appropriate measures for the patient only with generalized first aid. You can take it, and your chances of surviving will be much higher.
  • FIG. 1 is a diagram schematically showing an overall configuration to which an artificial intelligence-based first aid guide providing system according to an embodiment of the present invention is applied.
  • FIGS. 2A and 2B are diagrams schematically illustrating the internal configuration of an AI-based first aid guide providing system according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating functional blocks of an artificial intelligence unit according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating, for example, a method of self-organizing a DNA mission in a self-organizing module using a neuroblock chain combination according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a method of self-constructing a DNA model in a self-organizing module using a neuroblock chain combination according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a configuration further including a DNA tool in an artificial intelligence unit using a deep learning-based self-adaptive learning technique according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an operation flowchart for explaining a method for providing an AI-based first aid guideline according to an embodiment of the present invention.
  • first, second and third are used to describe, but are not limited to, various parts, components, regions, layers and/or sections. These terms are used only to distinguish one part, component, region, layer or section from another part, component, region, layer or section. Accordingly, a first part, component, region, layer or section described below may be referred to as a second part, component, region, layer or section without departing from the scope of the present invention.
  • FIG. 1 is a diagram schematically showing an overall configuration to which an artificial intelligence-based first aid guide providing system according to an embodiment of the present invention is applied.
  • an artificial intelligence-based first aid guide providing system 100 may be applied and implemented to a tablet 100 carried by paramedics. Therefore, in the embodiment of the present invention, the tablet 100 refers to the artificial intelligence-based first aid guide system 100, and the same reference numerals are used.
  • the AI-based first aid guidance providing system 100 is applied to the tablet 100 as an example, but is not limited thereto, and a smart phone carried by paramedics in addition to the tablet 100 . It can also be applied to wireless terminals including (Smart Phone).
  • an ambulance crew when an ambulance crew arrives at an ambulance scene together with an ambulance, the ambulance crew drives a portable tablet 100 , and an artificial intelligence-based first aid activity guideline providing system 100 according to an embodiment of the present invention ) works.
  • the measurement equipment 200 at the emergency site may transmit the measurement values measured for the emergency patient to the cloud server and store it in the cloud server.
  • the tablet 100 at the emergency site may receive the measurement values of the corresponding emergency patient from the cloud server and provide video or audio so that the ambulance crew can check it.
  • the tablet 100 may connect with the measurement equipment 200 for measuring the symptoms of an emergency patient at the emergency site by wire or wirelessly, and receive measurement values related to the condition of the emergency patient from the measurement equipment 200 . .
  • the tablet 100 is an AI-based first aid guideline providing system, and may use a first aid action guideline protocol that provides first aid action guideline for each of the four serious diseases.
  • the paramedics In order to input the disease name according to the patient's symptoms into the tablet 100, the paramedics check the patient's consciousness and breathing, and check the trauma and the pulse. After confirmation, the paramedics input the disease name determined as one of the four major diseases according to the patient's consciousness, respiration, trauma and pulse into the tablet 100 .
  • the artificial intelligence of the tablet 100 utilizes voice, bio-signals, images, and other information (severity classification, event screening for each disease) in addition to the disease name input from the paramedic.
  • Artificial intelligence-based voice technology is used to assist paramedics by recording the patient treatment situation and patient condition of paramedics in real time, and checking events for each situation according to the detailed situation table.
  • voice first, by removing numerous noises generated at the actual emergency scene, the speaker (a conversation between a paramedic and a patient, a conversation between an ambulance crew and a witness, or a conversation between a paramedic and a caregiver) is separated.
  • the speaker effectively removes noise based on artificial intelligence in noisy ambulance situations, and performs accurate voice analysis through speaker-to-speaker voice separation.
  • the DB format is based on the Question Set that the paramedics should ask and the Answer Set that can be answered by the paramedics at the actual emergency scene. Based on the QA Set constructed with
  • biosignals there are biosignals obtained in real time through interworking with equipment for measuring biosignals, and biosignals obtained through images displayed on equipment because interlocking is impossible.
  • the biosignals obtained in real time through interworking with the equipment are recorded in the emergency activity log in real time and updated according to the patient's condition in real time.
  • bio-signals that cannot be obtained through interworking with equipment artificial intelligence-based image recognition technology is used to recognize the equipment in which bio-signals appear.
  • the patient's bio-signals that appear on the monitor of the equipment through image recognition technology are automatically entered into the detailed situation table for each disease.
  • the AI-based video technology recognizes the actions of paramedics during emergency activities and is used as a first aid procedure or as an aid to treatment. Therefore, when paramedics recognize first aid and provide appropriate first aid, it is necessary to provide the next first aid sequence, so it assists in providing the next first aid sequence by recognizing the first aid activities of the first aid crew. For example, when performing CPR, the degree or frequency of pressure applied to the patient may be guided through an image.
  • FIGS. 2A and 2B are diagrams schematically showing the main configuration of an AI-based first aid guide providing system according to an embodiment of the present invention.
  • the AI-based first aid guide providing system 100 includes a data storage unit 110 , an input unit 120 , an artificial intelligence unit 130 , and an output unit. (140).
  • the data storage unit 110 stores the name of the disease and the first aid guide corresponding to the symptom for each disease as data.
  • a database installed in a remote place (112) can be used. That is, the database 112 stores the name of the disease and the first aid guide corresponding to the symptom for each disease as data.
  • the database 110 is a separate device that operates in conjunction with the tablet 100 at a remote location.
  • the tablet 100 may wirelessly retrieve data from the database 112 , and may also wirelessly transmit data processed by the tablet 100 to the database 112 and store it in the database 112 .
  • the tablet 100 transmits and stores the currently provided first aid treatment to the database 112 . can This can be used to inform that first aid in one stage of the sequence of first aid protocols for a specific disease stored in the structured database 112 has been provided, so that the next stage of first aid should be provided. .
  • the input unit 120 receives disease name or symptom information as well as patient information from paramedics at the emergency site.
  • the input unit 120 includes a data input unit for receiving patient-related texts at the emergency site; a sound input unit receiving sound generated at the emergency site; an image input unit for acquiring image data by photographing the emergency scene; And it may include a device linkage unit for receiving measurement values from the measurement devices in connection with the devices for measuring the symptoms of each disease in a wired or wireless connection.
  • the artificial intelligence unit 130 learns the name of the disease and the emergency action instructions corresponding to the detailed symptoms for each disease in a deep learning method and stores it in the data storage unit 110 or the database 112, and the input unit 120 ), executes deep learning learning as an input variable to derive the optimal first aid guideline corresponding to the disease name and detailed symptoms for each disease, and provides the derived best first aid action guideline.
  • the output unit 140 may output the emergency action instructions by voice or screen.
  • the output unit 140 may include a speaker for outputting first aid instructions by voice, and a display unit for outputting the first aid instructions in the form of text on the screen.
  • the artificial intelligence unit 130 separates the voice of the conversation content from the received sound, and analyzes the separated voice of the conversation to recognize the symptoms of each disease and use it to derive the optimal first aid guide, or input it through the equipment linkage unit. Recognizes the symptoms of each disease according to the patient's disease name from the patient's biosignals, uses it to derive the optimal first aid guideline corresponding to the recognized patient's disease-specific symptom, and provides the derived optimal first aid action guideline.
  • the artificial intelligence unit 130 separates the voice of the conversation between the paramedic and the patient, the voice of the conversation between the paramedic and the witness, and the voice of the conversation between the paramedic and the guardian from the sound received through the sound input unit, and separated It can be used to derive the optimal first aid guideline by recognizing the detailed symptoms of each disease by analyzing the voices of the conversation.
  • the artificial intelligence unit 130 receives one of severe trauma disease, cerebrovascular disease, cardiovascular disease, and cardiac arrest disease as a severe disease name through the input unit 120 , and the received severe disease name and detailed symptoms for each disease as described above. Using as an input variable, it is possible to derive first aid action guidelines corresponding to severe disease names in a short time based on the learning data.
  • the data storage unit 110 and the database 112 may store a set of questions asked by the paramedics to the subject and a set of answers to be answered by the paramedics. Accordingly, the artificial intelligence unit 130 may recognize the detailed symptoms of each disease by analyzing the voices of the conversation contents of the speakers based on the question set and the answer set from the sound received through the sound input unit.
  • the artificial intelligence unit 130 receives, based on the learning data, one of severe trauma disease, cerebrovascular disease, cardiovascular disease, and cardiac arrest disease as a serious disease name, or patient-related text, conversational voice, image data, patient By executing deep learning learning using at least one or more of the biosignals of
  • the artificial intelligence unit 130 recognizes detailed symptoms for each disease and checks the detailed situation table for each disease, or records the patient's biosignals obtained in real time through interworking with equipment in real time in the emergency activity log, and in real time According to the condition of the patient identified by
  • the artificial intelligence unit 130 records the patient's biosignals obtained in real time through interworking with other equipment through the equipment linkage unit in real time in the emergency activity log, and biosignals that cannot be obtained through interlocking with the equipment. In the case of , it is possible to automatically record the patient's bio-signals input through the image input unit in the detailed situation table for each disease.
  • FIG. 3 is a block diagram illustrating functional blocks of an artificial intelligence unit according to an embodiment of the present invention.
  • the artificial intelligence unit 130 may include an element derivator 10 , a learning engine 20 , and an action unit 30 .
  • the element is derived by processing structured data and unstructured data in the element derivator 10 , and self-adaptive learning can be performed using the element in the learning engine 20, and the learning result is used.
  • the element derivator 10 receives disease names, detailed symptoms for each disease, and patient status related data, and derives main elements to be used for learning, and the learning engine 20 uses the main elements to provide general field Self-adaptation learning is carried out by classifying the guidelines for use among on-site first aid guidelines, special situation-specific guidelines, technical guidelines, and drug guidelines, and in the action stage (30), the patient's (severe) disease name is It is to recommend and provide guidelines for the best first aid action.
  • the element derivator 10 may process input data to derive Elements. That is, the element derivator 10 may derive an element that is input information of the learning engine 20 from input data including structured data and unstructured data.
  • the element derivator 10 may include a text conversion module 11 , an information extraction module 12 , and an element derivation module 13 .
  • the text conversion module 11 may convert unstructured data excluding text among input data into text data (Text Conversion). In particular, the text conversion module 11 may convert unstructured data including images, images, and voices other than text into text data.
  • the information extraction module 12 may extract information from the text data converted by the text conversion module 11 (Information Extraction). In addition, the information extraction module 12 may extract necessary information from input data in text form, which is not a target of conversion in the text conversion module 11 .
  • the element derivation module 13 may derive an element to be input to the learning engine 20 from the extracted information (Element Identification & Elicitation).
  • the learning engine 20 self-organizes a DNA mission using the elements derived from the element derivator 10, and a deep learning-based artificial neural network DNA model using the self-organized DNA mission. ) can be self-constructed, and self-constructed DNA models can be trained.
  • the present invention combines self-adaptation technology and deep learning-based learning technology, and includes a learning engine 20 that self-organizes DNA missions and self-configures DNA models, so that the It can effectively implement the human brain mechanism to solve situations by creating 1 , the learning engine 20 may be configured to include an organization module 21 , a configuration module 22 , and a learning module 23 .
  • the organization module 21 may self-organize a DNA mission for each emergency activity using the elements derived from the element derivator 10 (Self-Organization of DNA Mission). More specifically, the organization module 21, based on the input main factors, i) the outline of the standard guidelines for first aid activities, ii) the operation guidelines of the ambulance team, iii) the first aid guidelines in general field situations, iv) the guidelines for special situations , v) technical guidelines, vi) drug guidelines, etc., can be compared and evaluated to self-organize and create a first-aid DNA mission.
  • the mission is a mission of a predefined organization
  • the DNA mission is a mission self-organized by the organization module 21 of the present invention and is different from each other.
  • the first aid DNA mission organized by the organization module 21 may be a combination of blocks of the first aid guide organization and chains. That is, the organization module 21 can organize the DNA mission by combining the block and chain of the organization using the Neuro Block Chain Combination technology.
  • the DNA mission may include a special DNA mission consisting of a combination of chains.
  • the DNA mission may be composed of the sum of mission modules, and the mission module may be a function of the element received from the element derivator 10 and the position of the first aid action guide organization (Positions of Organization). In this case, the position of the organization member may be predetermined.
  • the patient's disease name severe traumatic disease, severe traumatic disease, cerebrovascular disease, cardiovascular disease, cardiac arrest disease, etc.
  • the first aid action that performs the mission for the symptom, and the position (instruction) of the first aid action guide to which the first aid action guide belongs or is located may be considered.
  • Such an organization has, for example, a hierarchical tree structure or a parallel structure, and in the hierarchical tree structure, nodes and nodes are connected (that is, positions and positions within a disease name (chain)) If this is extended to the entire organization, it can be viewed as a chain, that is, a connection between groups (instructions within the organization) composed of a certain tree structure (blocks).
  • a chain is a link between a position (guideline 1) and a position (guideline 2) within first aid, and groups with certain first aid action guidelines (in general field situations).
  • On-site first aid guide group, special situation guide group, technique guide group, drug guide group), and the block of first aid guide organization is a group in which positions and positions within a certain first aid action are connected and grouped together.
  • a first aid action guide may consist of one block, or one first aid action may consist of several guide blocks.
  • FIG. 4 is a diagram illustrating, for example, a method of self-organizing a DNA mission in the organization module 21 using a neuroblock chain combination according to an embodiment of the present invention.
  • the organization module 21 of the deep learning-based learning engine 20 includes a block (Block i, Block j, Block k, etc.) of an organization as shown in FIG. 4 and a chain (Chain l) , Chain m, Chain n, etc.) can be combined to form a DNA mission.
  • the constructed DNA mission can be expressed as the sum of the elements and mission modules that are a function of the first aid position of the disease name.
  • the DNA mission may include a special DNA mission consisting of a combination of chains. That is, depending on the embodiment, a DNA mission may be configured by a combination of only chains without an organizational block.
  • each block may be one of an on-site first aid instruction block in a general field situation, an instruction block for each special situation, a technique instruction block, and a drug instruction block.
  • the configuration module 22 may self-compose a deep learning-based artificial neural network DNA model using a self-organized DNA mission (Self-Composition of DNA Model). That is, the configuration module 22 may receive the DNA mission from the organization module 21 , and configure and create an artificial neural network DNA model that can be learned based on deep learning by itself.
  • the DNA model self-constructed by the configuration module 22 may be a model that flexibly changes according to input data because it is constructed using a DNA mission self-organized by elements input over time.
  • the DNA model may be a combination of Blocks of Function and Chains. That is, the configuration module 22 can organize a DNA model by combining functional blocks and chains using Neuro Block Chain Combination technology.
  • the configuration module 22 may self-configure a DNA model composed of a sum of functional submodels.
  • the functional block is a function-specific set of situations that enable learning in the artificial neural network model by mimicking the situation judgment method of the human brain. can be configured. It can be assumed that a simple situation can be judged only by a single thought, but a complex situation can be judged by multiple thoughts instead of one thought. In the process of constructing a model to solve a mission, using this concept, a DNA model can be self-organized by combining functional blocks and chains in such a way that complex situations are classified by function and grouped for judgment.
  • the organization blocks are 4, For the performance of the four organizational blocks, it can be converted into four functional blocks by taking sub-tasks for each function.
  • FIG. 5 is a diagram illustrating, for example, a method of self-configuring a DNA model in the configuration module 22 using a neuroblock chain combination according to an embodiment of the present invention.
  • the configuration module 22 of the deep learning-based learning engine 20 functions blocks and chains through neuroblock chain combination technology. It is possible to construct a functional submodel (Functional Submodel i, Functional Submodel j, Functional Submodel k, Functional Submodel m, Functional Submodel n, etc.)
  • the tissue module 21 when cardiovascular disease is input as the patient's disease name, in addition to the field-measured measurement data and patient condition-related data, the tissue module 21 performs a general field situation in the tissue module 21 based on the input data.
  • first aid instruction block, special situational instruction block, skill instruction block, drug instruction block, etc. select at least one or more of which guidelines to use; select at least one or more of which guidelines to use in special contextual guidelines; select at least one or more of which guidelines to use in technical guidelines; It is to select at least one or more to use and connect them with a chain to form a functional block.
  • the learning module 23 may self-lear a self-constructed DNA model (Self-Learning of DNA Model). That is, the learning module 23 is a configuration for learning the DNA model configured in the configuration module 22 , and can learn through artificial neural network technology, and can deliver the learning result to the action unit 30 .
  • Self-Learning of DNA Model a self-constructed DNA model
  • the action unit 30 may perform a function according to the learning result of the learning engine 20 through the understanding and scheduling module 31 , the determination and prediction module 32 , and the recommendation and action module 33 .
  • the action unit 30 may be configured to include an understanding and scheduling module 31 , a judgment and prediction module 32 , and a recommendation and action module 33 , and each module includes common software can be In the present invention, the structural aspect of the action device 30 will be described.
  • the understanding and scheduling module 31 may understand a given situation or grasp an intention, and may provide scheduling to a decision maker using a result of understanding the situation or understanding the intention (Understanding & Scheduling).
  • the decision and prediction module 32 may provide judgment and analysis results for a given situation, and predict and provide a possible situation (Decision & Prediction).
  • the recommendation and action module 33 may use the analysis result and the prediction result to recommend a decision for a given situation and provide an action accordingly (Recommendation & Action). To this end, the recommendation and action module 33 may receive analysis results and prediction results from the determination and prediction module 32 .
  • FIG. 6 is a diagram illustrating a configuration further including a DNA tool 40 in the artificial intelligence unit using a deep learning-based self-adaptive learning technique according to an embodiment of the present invention.
  • the artificial intelligence unit 130 using deep learning-based self-adaptive learning technology may further include a DNA tool 40 .
  • the DNA tool 40 may provide a plurality of tools to the element derivator 10 , the learning engine 20 , and the action unit 30 . That is, the DNA tool 40 may provide a tool that helps the element derivator 10 , the learning engine 20 , and the action group 30 perform their respective functions.
  • the DNA tool 40 includes a Conversion Tool 41 for converting unstructured data into text, an Extraction Tool 42 for extracting information, and a self-contained DNA mission.
  • a combination tool 43 that connects blocks and chains necessary for self-organization of tissue and DNA models may be included.
  • the organization module 21 , the configuration module 22 , and the learning module 23 are self-organizing DNA missions, self-organizing and self-learning DNA models.
  • Self-Adapted Tool (44) may be configured to further include.
  • FIG. 7 is a diagram illustrating an operation flowchart for explaining a method for providing an AI-based first aid guideline according to an embodiment of the present invention.
  • the artificial intelligence unit 130 responds to the disease name and disease-specific symptoms stored in the data storage unit 110 . It learns the first aid action instructions in a deep learning method (S710).
  • the artificial intelligence unit 130 dips the data on the name of the disease stored in the data storage unit 110 or the database 112 and the first aid guideline corresponding to the symptoms for each disease as shown in FIGS. 4 and 5 . learning by learning. For example, in the artificial intelligence unit 130, the patient is unconscious, before the spinal cord injury, there is paralysis and sensory loss of motor nerves after the neurological examination, there is other damage that does not recognize the spinal cord injury, and the spinal cord examination result is abnormal. In the case of , learning to output a message indicating that spinal fixation is necessary to the patient as an emergency action guideline corresponding thereto.
  • the artificial intelligence unit 130 stores the learned data in the data storage unit 110 or the database 112 (S720).
  • the input unit 120 receives at least one of a disease name, a symptom for each disease, and data related to a patient's condition at the emergency site ( S730 ).
  • the input unit 120 receives data related to the patient's condition from the paramedics at the emergency site, receives the sound generated at the emergency site through the sound input unit, or wired with equipment for measuring symptoms for each disease through the equipment linkage.
  • the measured values may be input by wirelessly interworking.
  • the artificial intelligence unit 130 executes deep learning learning using the input data as an input variable based on the learned data to derive first aid guidelines corresponding to disease names or symptoms for each disease (S740).
  • the artificial intelligence unit 130 executes the process as shown in FIGS. 4 and 5, and uses data related to the patient's condition, including consciousness change including loss of consciousness, high-risk damage mechanism, high-speed collision accident, and the patient's stomach.
  • consciousness change including loss of consciousness, high-risk damage mechanism, high-speed collision accident, and the patient's stomach.
  • a fall from 1 m or more or 5 steps or more, damage to the spine such as diving, bicycle or motorcycle accident, pain or tenderness in the middle of the spine, movement and sensory abnormalities, etc.
  • guidelines for first aid can be derived.
  • the artificial intelligence unit 130 separates the voice of the conversation content from the received sound, analyzes the separated voices of the conversation to recognize the symptoms of each disease, or analyzes the patient's bio-signals input through the equipment linker to analyze the patient's condition can recognize
  • the artificial intelligence unit 130 separates the voice of the conversation between the paramedic and the patient, the voice of the conversation between the paramedic and the witness, and the voice of the conversation between the paramedic and the guardian from the sound input through the sound input unit, and the separated conversation It is possible to recognize detailed symptoms of each disease by analyzing the contents and voices.
  • the artificial intelligence unit 130 provides the derived first aid guide in the form of voice or screen (S750).
  • the artificial intelligence unit 130 as the name of the patient's disease, when a cardiovascular disease is input, as an emergency guideline, auscultation of lung sounds, calming the patient, taking a comfortable posture, listening to a medical history, , it can provide guidelines to confirm the history of taking medications for erectile dysfunction.
  • the artificial intelligence unit 130 manipulates the degree of opening the airway as a first aid guide when receiving a head injury without a vomiting reflex as data related to the patient's condition, and blood to the nose or ear according to the signs of skull fracture It is said to wipe without blocking the flow, and for all head injury patients, it is possible to provide instructions to fix the cervical vertebrae, and to stop hemostasis by compression with sterile sterile gauze in case of external bleeding.
  • the artificial intelligence unit 130 applies a top sealing dressing for an open pneumothorax when a penetrating image of an abdominal and pelvic injury is input as data related to the patient's condition, and if there is life-threatening external bleeding, it is compressed with sterile gauze They can provide instructions to stop bleeding.
  • the artificial intelligence unit 130 provides instructions regarding hemostatic treatment, such as pack / dressing, compression dressing, hemostatic dressing, and tourniquet application, when a serious bleeding state is input due to a limb injury as data related to the patient's condition,
  • hemostatic treatment such as pack / dressing, compression dressing, hemostatic dressing, and tourniquet application
  • instructions are given to apply gauze and bandages, fixation to minimize movement, and ice pack for swelling, regarding treatment and protection of the injured area, and in the case of a fracture, remove all coverings of the suspected injured area, and deform Do not try to forcefully subdue the extremity, apply it including the upper and lower parts of the piercing when fixing the splint, and provide instructions to fix the protruding part of the body and the hard part of the splint with a thick pad.
  • the detailed symptoms of the severe disease may include at least one or more of multiple trauma, head injury, chest injury, abdominal pelvic injury, limb injury, ophthalmic injury, and dental injury.
  • the multiple trauma includes a bleeding site, loss of consciousness or head and vertebra damage, an injured site, a fracture site, and a head injury includes the presence of impaired consciousness, asymmetric pupil, vomiting reflex, skull fracture, and signs of brain prolapse.
  • chest injury includes data on penetrating injury, life-threatening external bleeding, blunt trauma, shaking chest, cervical spine injury, and ECG monitoring. It includes the presence or absence of an impingement and the presence or absence of a fracture of the pelvic bone, and the limb injury may include the presence or absence of bleeding beyond a certain standard, the presence of a fracture, and the presence or absence of amputation.
  • the ophthalmic damage may include data on the presence or absence of intraocular bleeding, pupil size, trauma, and electrocardiogram monitoring
  • the dental damage may include data on the presence or absence of an intraoral wound and missing teeth.
  • the name of the patient's disease and the first aid action guidelines corresponding to the detailed symptoms for each disease are learned in the deep learning method and stored as data, and the paramedics at the emergency site identify the patient's symptoms and respond accordingly.
  • a disease name is entered, based on the learning data, learning is performed in a deep learning method using the disease name and the voice of the first aid site as input variables, and the optimal emergency guidance corresponding to the disease name is quickly provided to the paramedics. It is possible to realize an artificial intelligence-based first aid guideline providing system and method to secure the golden time and provide appropriate first aid to the patient in a short time to increase the survival rate of seriously ill patients.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명의 인공지능 기반 구급활동 지침 제공 시스템은, 질환명과 질환별 증상에 대응하는 구급활동 지침을 데이터로 저장하고 있는 저장부; 상기 질환명, 상기 질환별 증상 및 환자 관련 데이터를 입력받는 입력부; 상기 질환명과 상기 질환별 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 저장하고, 상기 학습된 데이터에 근거하여 상기 입력된 데이터를 입력 변수로 딥 러닝 학습을 실행하여 상기 질환명에 대응하는 구급활동 지침을 제공하는 인공 지능부; 및 상기 구급활동 지침을 음성 또는 화면으로 출력하는 출력부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 4대 중증질환 응급현장에서 실시간으로 구급대원에게 최적의 구급활동 표준 지침을 신속히 제공함에 따라, 환자의 골든타임을 확보하여 중증 환자의 생존율을 높일 수 있다.

Description

인공지능 기반 구급활동 지침 제공 시스템 및 방법
본 발명은 인공지능 기반 지능형 119 구급대원의 구급활동 표준 지침을 제공하는 시스템 및 방법에 관한 것으로서, 더욱 자세하게는 환자의 질환명과 질환별 세부 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 데이터로 저장하고, 구급 현장에서 구급 대원이 환자의 증상을 파악하여 그에 해당하는 질환명을 입력하면, 학습 데이터 근거하여 질환명과 구급 현장의 음성 등을 입력 변수로 딥러닝 방식으로 학습을 실행하여, 해당 질환명에 대응하는 최적의 구급활동 지침을 신속히 구급대원에게 제공함으로써 환자의 골든타임을 확보하고 빠른 시간 내에 환자에게 알맞은 응급처치를 하여 중증 환자의 생존율을 높일 수 있도록 하는, 인공지능 기반 구급활동 지침 제공 시스템 및 방법에 관한 것이다.
일반적으로, 구급활동 표준지침은 응급의료 서비스를 담당하는 119 구급 서비스에 구급대 편성, 구급장비 운영지침, 현장 또는 이송 중 환자에 대한 응급처치방법과 이송병원 선정지침을 제공하고 있는 구급대원의 구급활동을 위한 표준지침이다.
즉, 구급활동 표준지침은 119 구급서비스 표준지침의 기본적 사항을 설명하는 개요를 제공하고, 구급대 운영에 대한 일반적 사항을 설명하는 구급대 운영지침을 제공한다. 또한, 구급활동 표준지침은 일반적 현장 상황에서의 표준화된 구급처치 절차와 지침을 설명하는 현장 구급처치 지침을 제공하고, 특수상황에서의 표준지침을 설명하는 특수 상황별 지침을 제공한다. 그리고, 구급활동 표준지침은 환자평가 및 구급처치 등을 위해 필요한 기술을 설명하는 술기지침을 제공하고, 병원 전 단계에서 사용되는 약물에 대한 기본적 사항을 나타낸 약물지침을 제공한다.
전국의 소방 공무원들이 6회에 걸쳐 구급활동 표준지침을 기반으로 하는 강의를 들어야 하는 만큼 이 구급활동 표준지침은 구급대원이 현장에서 환자에게 최적의 응급처치를 제공하기 위해 필수적이다.
종래의 구급활동 표준지침은 여러가지 질환에 대하여 500 페이지에 달하는 내용을 제공하고 있다. 방대한 양을 통해 질환별 구급활동지침에 대해 표준지침, 술기지침, 약물지침, 기타지침으로 제공하고 있지만 환자의 상태별 또는 응급현장의 상황별로 적합한 지침을 실시간으로 제공하지 못하는 단점이 있다.
구급활동 표준지침에는 질환에 대해 표준지침, 술기지침, 약물지침, 기타 지침을 제공하고 있지만 실제 응급현장에서 사용하기 위하여 500페이지에 달하는 구급활동 표준지침을 모두 숙지하는 것은 불가능에 가깝다. 또한 구급활동 표준지침의 방대한 양에 의해 구급대원이 구급활동 표준지침을 얼마나 숙지했는지는 구급대원의 경력에 따라 편차가 심하다.
실제 응급현장에서는 수많은 변수들이 존재하기 때문에 구급활동 표준지침에 나와 있는 구급처치들 만으로는 실제 응급현장 상황에 대처하는데 큰 어려움이 있다. 예를들어, 실제 응급상황에서는 환자별로 증세가 다르고, 대처법이 다르기 때문에 환자에 대한 구급처치가 일반화될 수 없지만 구급활동 표준지침에서는 어느 한 증상에 대한 일반화된 응급처치만을 제공하고 있기 때문에 실제 응급현장을 반영하지 못한다는 단점이 있다.
종래의 구급활동 프로토콜에서 구급대원은 환자에게 알맞은 응급처치를 제공하기 위하여 수동적으로 구급활동 표준지침을 참고할 수 밖에 없다.
또한, 구급대원은 응급현장에서 환자에게 실시간으로 알맞은 구급처치를 시행해야 하지만 표준지침이 기억이 나지 않는다면, 현장에서 500 페이지에 달하는 구급활동 표준지침을 참고하여 구급처치를 해야 한다.
하지만 이러한 시간소모는 한시가 급하게 골든타임을 확보해야 하는 중증환자에게는 치명적일 수 있다.
따라서 응급현장에 출동한 구급대원에게 실시간으로 신속하게 환자에게 맞는 최적의 구급지침을 제공해주는 인공지능기반의 지능형 시스템은 필수적이다.
본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제10-1875858호(2018. 07. 02 등록)-통합형 건강 정보 취득 및 분석 시스템에 개시되어 있다
전술한 문제점을 해결하기 위한 본 발명의 목적은, 환자의 질환명과 질환별 세부 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 데이터로 저장하고, 구급 현장에서 구급 대원이 환자의 증상을 파악하여 그에 해당하는 질환명을 입력하면, 학습 데이터 근거하여 질환명과 구급 현장의 음성 등을 입력 변수로 딥러닝 방식으로 학습을 실행하여, 해당 질환명에 대응하는 최적의 구급활동 지침을 신속히 구급대원에게 제공함으로써 환자의 골든타임을 확보하고 빠른 시간 내에 환자에게 알맞은 응급처치를 하여 중증 환자의 생존율을 높일 수 있도록 하는, 인공지능 기반 구급활동 지침 제공 시스템 및 방법을 제공함에 있다.
전술한 목적을 달성하기 위한 본 발명의 일측면에 따른 인공지능 기반 구급활동 지침 제공 시스템은, 질환명과 질환별 증상에 대응하는 구급활동 지침을 데이터로 저장하고 있는 저장부; 상기 질환명, 상기 질환별 증상 및 환자 관련 데이터를 입력받는 입력부; 상기 질환명과 상기 질환별 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 저장하고, 상기 학습된 데이터에 근거하여 상기 입력된 데이터를 입력 변수로 딥 러닝 학습을 실행하여 상기 질환명에 대응하는 구급활동 지침을 제공하는 인공 지능부; 및 상기 구급활동 지침을 음성 또는 화면으로 출력하는 출력부를 포함할 수 있다.
상기 입력부는, 구급 현장에서 환자 관련 텍스트를 입력받기 위한 데이터 입력부; 구급 현장에서 발생되는 음향을 입력받는 음향 입력부; 및 상기 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정값들을 입력받는 장비 연동부를 포함할 수 있다.
상기 인공 지능부는, 구급 대원으로부터 입력받은 환자의 질환명 이외에, 상기 음향 입력부를 통해 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하거나, 장비 연동부를 통해 입력된 환자의 생체 신호로부터 환자의 질환별 증상을 인식하고, 인식된 질환별 증상에 따라 최적의 구급활동 지침을 선정하며, 선정된 최적의 구급활동 지침을 제공할 수 있다.
상기 인공 지능부는, 상기 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 세부 증상을 인식할 수 있다.
상기 인공 지능부는, 상기 인식된 질환별 세부 증상과 상기 질환명에 대응하는 구급활동 지침을 제공하되, 상기 구급활동 지침에 따른 구급처치 순서를 가이드하는 것을 제공할 수 있다.
상기 저장부는, 구급대원이 대상에게 물어보는 질문 세트(Question Set)와, 구급대원에게 대답하는 답변 세트(Answer Set)를 포함하고, 상기 인공 지능부는, 상기 음향 입력부를 통해 입력받은 음향으로부터 상기 질문 세트와 상기 답변 세트를 기반으로 화자들의 대화내용 음성을 분석해 질환별 세부 증상을 인식할 수 있다.
상기 인공 지능부는, 상기 질환별 세부 증상을 인식하여 질환별 세부 상황표에 체크하거나, 상기 장비들과의 연동을 통해 실시간으로 얻어지는 환자의 생체신호를 구급활동 일지에 실시간으로 기록하고, 실시간으로 파악되는 환자의 상태에 따라 상기 질환별 세부 상황표 또는 상기 구급활동 일지를 실시간으로 업데이트할 수 있다.
상기 인공 지능부는, 상기 장비 연동부를 통해 다른 장비와의 연동을 통해 실시간으로 얻어지는 환자의 생체 신호를 구급활동 일지에 실시간으로 기록할 수 있다.
한편, 전술한 목적을 달성하기 위한 본 발명의 다른 측면에 따른 인공지능 기반 구급활동 지침 제공 방법은, (a) 인공 지능부가 질환명과 질환별 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하는 단계; (b) 상기 인공 지능부가 상기 학습된 데이터를 저장하는 단계; (c) 입력부가 상기 질환명, 상기 질환별 증상 및 환자 관련 데이터 중 적어도 하나 이상을 입력받는 단계; (d) 상기 인공 지능부가 상기 학습된 데이터에 근거해 상기 입력된 데이터를 입력변수로 하여 딥 러닝 학습을 실행하여 상기 질환명 또는 상기 질환별 증상에 대응하는 구급활동 지침을 도출하는 단계; 및 (e) 상기 인공 지능부가 상기 도출된 구급활동 지침을 제공하는 단계를 포함할 수 있다.
상기 (c) 단계에서 상기 입력부는, 구급 현장에서 구급대원으로부터 환자 상태 관련 데이터를 입력받거나, 구급 현장에서 발생되는 음향을 음향 입력부를 통해 입력받거나, 장비 연동부를 통해 상기 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정값들을 입력받을 수 있다.
상기 (d) 단계에서 상기 인공 지능부는, 상기 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하거나, 상기 장비 연동부를 통해 입력된 환자의 생체 신호를 분석하여 질환별 증상을 인식할 수 있다.
상기 (d) 단계에서 상기 인공 지능부는, 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석하여 질환별 세부 증상을 인식할 수 있다.
상기 (d) 단계에서 상기 인공 지능부는, 질환별 세부 증상을 인식하여 질환별 세부 상황표에 체크하거나, 장비들과의 연동을 통해 실시간으로 얻어지는 환자의 생체 신호를 구급활동 일지에 실시간으로 기록하고, 실시간으로 파악되는 환자의 상태에 따라 질환별 세부 상황표 또는 구급활동 일지를 실시간으로 업데이트할 수 있다.
본 발명에 의하면, 4대 중증질환 응급현장에서 구급대원이 환자에게 최적의 응급 처치를 할 수 있도록 실시간으로 구급대원에게 최적의 응급 처치에 관한 구급활동 지침을 제공하는 것을 가이드할 수 있다.
즉, 구급 현장에서 구급대원이 환자의 상태를 파악하여 실시간으로 환자의 질환명을 입력하면, 그에 대응하는 구급활동 지침을 신속히 구급대원에게 제공함으로써 환자의 골든타임을 확보하고 빠른 시간 내에 환자에게 알맞은 응급처치를 하여 중증 환자의 생존율을 높일 수 있다.
본 발명에 따른 구급활동 프로토콜에서는 구급대원이 현장에서 태블릿을 통해 인공지능기반 지능형 구급활동 표준지침 시스템을 통하여 실시간으로 최적의 구급활동 표준 지침을 자동으로 제공받을 수 있다.
따라서, 구급대원은 지연없이 빠르게 최적의 응급지침을 참고할 수 있기 때문에 종래의 기술에 비하여 구급활동에 필요한 시간소요가 현저히 감소하게 되고 불필요한 시간 소요가 없기 때문에 골든타임을 확보할 수 있어 중증환자에 대한 생존율을 높일 수 있다.
또한, 종래의 구급활동에서는 수동으로 구급활동 표준지침을 참고하는 과정에서 실수를 유발할 가능성이 많았지만, 본 발명에서 제안하는 인공지능 기반의 지식 DB를 활용한다면 실수 가능성 또한 현저히 감소시킬 수 있다.
또한, 일반적인 구급활동 표준지침은 여러가지 질환에 대하여 500페이지 분량으로 응급처치를 제공하고 있어, 구급대원은 500페이지 가량이나 되는 구급활동 표준지침을 숙지해야 하는 부담을 느낄 수 밖에 없지만 본 발명의 지식 DB를 구축함으로써 구급대원의 구급활동 표준지침 의존도가 줄어들게 되어 부담감을 줄일 수 있게 됨에 따라 현장에서의 구급대원의 실수를 줄일 수 있다.
그리고, 구급활동 표준지침에서는 방대한 양으로 응급 처치를 제공하고 있지만 일반화된 응급 처치만을 제공하고 있으며, 실제 응급 현장에서는 같은 질환을 가진 환자일지라도 각기 다른 증상을 보이고, 응급처치를 제공할 수 있는 상황이 매번 달라지기 때문에 일반화된 응급 처치만으로는 환자에게 알맞은 조치를 취하는데 어려움이 있으나, 본 발명에서 제공하는 지식 DB를 활용하여 환자 맞춤형 또는 상황 맞춤형 응급처치를 자동으로 제공하게 됨으로써 환자에게 최적의 응급처치를 취할 수 있어 생존 확률을 훨씬 더 높일 수 있다.
도 1은 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템이 적용된 전체 구성을 개략적으로 나타낸 도면이다.
도 2a 및 도 2b는 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템의 내부 구성을 개략적으로 나타낸 구성도이다.
도 3은 본 발명의 실시 예에 따른 인공 지능부의 기능 블록을 나타낸 구성도이다.
도 4는 본 발명의 실시 예에 따른 뉴로블록체인 콤비네이션을 이용하여, 자가 조직 모듈에서 DNA 미션을 자가 조직하는 방법을 예를 들어 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 뉴로블록체인 콤비네이션을 이용하여, 자가 구성 모듈에서 DNA 모델을 자가 구성하는 방법의 예를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 딥 러닝 기반의 자가 적응 학습 기술을 이용한 인공 지능부에서 DNA 툴을 더 포함하는 구성을 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
[부호의 설명]
100 : 인공지능 기반 구급활동 지침 제공 시스템 200: 측정 장비
110 : 데이터저장부 120: 입력부
130 : 인공 지능부 140: 출력부
10 : 요소 도출기 11: 텍스트 변환 모듈
12 : 정보 추출 모듈 13: 요소 도출 모듈
20 : 학습 엔진 21: 조직 모듈
22 : 구성 모듈 23: 학습 모듈
30 : 조치기 31: 이해 및 스케줄링 모듈
32 : 판단 및 예측 모듈 33: 추천 및 조치 모듈
40 : DNA 툴 41: 변환 툴
42 : 추출 툴 43: 콤비네이션 툴
44: 자가 적응 툴 112 : 데이터베이스
이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우 뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.
제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.
여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.
"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
도 1은 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템이 적용된 전체 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템(100)은, 구급 대원이 휴대하는 태블릿(100)에 적용하여 실시할 수 있다. 따라서 본 발명의 실시 예에서 태블릿(100)은 인공지능 기반 구급활동 지침 제공 시스템(100)을 의미하는 것이며, 동일한 참조번호를 사용한다.
또한, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템(100)은, 한 예로 태블릿(100)에 적용하여 실시하였으나, 이에 한정되지 않고 태블릿(100) 이외에도 구급 대원이 휴대하는 스마트 폰(Smart Phone)을 포함한 무선 단말기에도 적용하여 실시할 수 있다.
도 1에 도시된 바와 같이, 구급차와 함께 구급 대원이 구급 현장에 도착하면, 구급 대원은 휴대하는 태블릿(100)을 구동하여, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템(100)을 작동시킨다.
이때, 구급 현장에 있는 측정 장비(200)는 응급 환자에 대해 측정한 측정값들을 클라우드(Cloud) 서버로 전송하여 클라우드 서버에 저장할 수 있다.
따라서, 구급 현장에 있는 태블릿(100)은 클라우드 서버로부터 해당 응급 환자의 측정값들을 전송받아서 구급 대원이 확인할 수 있도록 영상이나 음성으로 제공할 수 있다.
또한, 태블릿(100)은 구급 현장에서 응급 환자의 증상을 측정하기 위한 측정 장비(200)와 유선 또는 무선으로 연동하여, 측정 장비(200)로부터 응급 환자의 상태에 관한 측정값들을 전송받을 수 있다.
또한, 태블릿(100)은 인공지능 기반 구급활동 지침 제공 시스템으로서, 4대 중증 질환에 대한 각 구급활동 지침을 제공하는 구급활동 지침 프로토콜을 이용할 수 있다.
구급 대원은 환자의 증상에 따른 질환명을 태블릿(100)에 입력하기 위해, 환자의 의식, 호흡을 확인하고, 외상과 맥박을 확인한다. 확인 후, 구급 대원은 환자의 의식, 호흡, 외상 및 맥박에 따라 4대 중증 질환 중 하나로 판별한 질환명을 태블릿(100)에 입력한다.
여기서, 태블릿(100)의 인공지능은 구급 대원으로부터 입력받은 질환명 이외에도 음성, 생체 신호, 영상, 기타 정보(중증도 분류, 질환별 이벤트 스크리닝)를 활용한다.
인공지능 기반 음성 기술은 구급대원의 환자 처치 상황 및 환자 상태를 실시간으로 기록하고, 세부 상황표에 따른 상황별 이벤트를 체크하여 구급대원을 보조하는데 이용된다. 음성의 경우, 첫 번째로 실제 구급 현장에서 발생하게 되는 수많은 잡음들을 제거하여 화자(구급대원과 환자 간의 대화 또는 구급대원과 목격자 간의 대화 또는 구급대원과 보호자 간의 대화)를 분리한다. 또한 잡음이 심한 구급차 내부 상황에서 잡음을 인공지능 기반으로 효과적으로 제거를 진행하고, 화자간 음성 분리를 통해 정확한 음성분석을 수행한다. 두 번째로는 잡음이 제거되고 화자를 분리한 대화내용 속에서 실제 구급 현장에서 구급대원이 물어봐야 할 질문 세트(Question Set)와 구급대원에게 대답할 수 있는 답변 세트(Answer Set)를 기반으로 DB 형태로 구축한 QA Set을 기반으로 화자들의 대화를 음성 분석해 신속 정확하게 질환별 세부 상황표에 체크되도록 한다.
생체 신호의 경우, 생체 신호를 측정하기 위한 장비와의 연동을 통해 실시간으로 얻어지는 생체 신호와, 연동이 불가능하여 장비에 나타나게 되는 영상을 통해 얻어지는 생체 신호가 있다. 장비와의 연동을 통해 실시간으로 얻어지는 생체 신호의 경우는 실시간으로 구급활동 일지에 기록되며, 실시간으로 환자의 상태에 따라 업데이트 된다. 장비와의 연동을 통해 얻어질 수 없는 생체 신호의 경우는 생체 신호가 나타나게 되는 장비를 인식하기 위한 인공지능 기반 영상 인식 기술을 이용한다. 영상인식 기술을 통해 장비의 모니터에 나타나게 되는 환자의 생체 신호는 질환 별 세부 상황표에 자동으로 입력된다.
인공지능 기반 영상 기술은 구급활동 시 구급대원의 행동을 인식하여 구급처치 순서나 처치 보조수단으로 활용된다. 따라서 구급대원이 구급처치를 인식하고 알맞은 구급처치를 제공했을 시 그 다음 구급처치 순서를 제공해야 하기 때문에 구급대원의 구급처치 활동을 인식하여 다음 구급처치 순서를 제공하는 것을 보조한다. 예를 들면, CPR을 수행하는 경우 환자에게 가해지는 압력 정도나 횟수 등을 영상을 통해 가이드해 줄 수 있다.
중증도 분류 및 질환별 이벤트 스크리닝을 포함한 인공지능 기반 기타 기술은 각 환자의 상태에 따라 각 질환별로 나타날 수 있는 질환별 주요 이벤트가 각각 다르기 때문에, 각 중증 질환별로 주요 이벤트를 따로 구성하여 각 환자 상태에 따라 어떠한 이벤트가 발생하게 되는지를 측정한다.
도 2a 및 도 2b는 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템의 주요 구성을 개략적으로 나타낸 구성도이다.
도 2a 및 도 2b를 참조하면, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템(100)은, 데이터 저장부(110), 입력부(120), 인공 지능부(130) 및 출력부(140)를 포함할 수 있다.
데이터 저장부(110)는 질환명 및 질환별 증상에 대응하는 구급활동 지침을 데이터로 저장하고 있다.
또한, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 시스템(100)은, 내부적으로 데이터 저장부(110)를 이용하는 것 이외에도 도 2b에 도시된 바와 같이 원격지에 설치되어 있는 데이터베이스(DB)(112)를 이용할 수 있다. 즉, 데이터베이스(112)는 질환명 및 질환별 증상에 대응하는 구급활동 지침을 데이터로 저장하고 있다. 이때, 데이터베이스(110)는 원격지에서 태블릿(100)과 연동하여 동작하는 별도의 장치이다.
이 경우에, 태블릿(100)은 데이터베이스(112)로부터 데이터를 무선으로 가져올 수 있고, 또한 태블릿(100)에서 처리한 데이터를 무선으로 데이터베이스(112)로 전송하여, 데이터베이스(112)에 저장할 수 있다. 예를 들면, 구급 현장에서 어떤 환자에 대해 그 환자가 가지고 있는 질환명에 대응되는 특정 구급활동 지침을 제공한 경우에, 태블릿(100)은 현재 제공한 구급 처치를 데이터베이스(112)로 전송하여 저장할 수 있다. 이는 기구축된 데이터베이스(112)에 저장되어 있는 특정 질환에 대한 일련의 순서가 있는 구급처치 프로토콜들 중 한 단계의 구급처치를 제공했으므로 다음 단계의 구급처치를 제공해야 함을 알리는 용도로 사용할 수 있다.
입력부(120)는 구급 현장에서 구급 대원으로부터 환자 정보와 더불어 질환명이나 증상 정보를 입력받는다.
이를 위해, 입력부(120)는, 구급 현장에서 환자 관련 텍스트를 입력받기 위한 데이터 입력부; 구급 현장에서 발생되는 음향을 입력받는 음향 입력부; 구급 현장을 촬영하여 영상 데이터를 획득하는 영상 입력부; 및 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정 장비들로부터 측정값들을 입력받는 장비 연동부를 포함할 수 있다.
인공 지능부(130)는, 질환명 및 질환별 세부 증상에 대응하는 구급활동 지침을 딥러닝(Deep Learning) 방식으로 학습하여 데이터 저장부(110) 또는 데이터베이스(112)에 저장하고, 입력부(120)를 통해 입력된 데이터를 입력 변수로 딥 러닝 학습을 실행하여 질환명과 질환별 세부 증상에 대응하는 최적의 구급활동 지침을 도출하며, 도출된 최적의 구급활동 지침을 제공한다.
출력부(140)는 구급활동 지침을 음성 또는 화면으로 출력할 수 있다.
이를 위해, 출력부(140)는 구급활동 지침을 음성으로 출력하는 스피커, 화면 상에 텍스트 형태로 출력하는 표시부를 포함할 수 있다.
또한, 인공 지능부(130)는, 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하여 최적의 구급활동 지침을 도출하는데 이용하거나, 장비 연동부를 통해 입력된 환자의 생체 신호로부터 환자의 질환명에 따른 질환별 증상을 인식하고, 인식된 환자의 질환별 증상에 대응되는 최적의 구급활동 지침을 도출하는데 이용하며, 도출된 최적의 구급활동 지침을 제공할 수 있다.
또한, 인공 지능부(130)는, 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 세부 증상을 인식하여 최적의 구급활동 지침을 도출하는데 이용할 수 있다.
따라서, 인공 지능부(130)는 입력부(120)를 통해 중증 외상 질환, 뇌혈관 질환, 심혈관 질환, 심정지 질환 중 하나를 중증 질환명으로 입력받고, 입력받은 중증 질환명과 상기와 같은 질환별 세부 증상을 입력 변수로 하여 학습 데이터를 근거로 빠른 시간 내에 중증 질환명에 대응하는 구급활동 지침을 도출할 수 있다.
또한, 데이터 저장부(110) 및 데이터베이스(112)는, 구급대원이 대상에게 물어보는 질문 세트(Question Set)와, 구급대원에게 대답하는 답변 세트(Answer Set)를 저장할 수 있다. 따라서, 인공 지능부(130)는, 음향 입력부를 통해 입력받은 음향으로부터 질문 세트와 답변 세트를 기반으로 화자들의 대화내용 음성을 분석해 질환별 세부 증상을 인식할 수 있다.
또한, 인공 지능부(130)는, 학습 데이터에 근거해 중증 외상 질환, 뇌혈관 질환, 심혈관 질환, 심정지 질환 중 하나를 중증 질환명으로 입력받거나, 환자 관련 텍스트, 대화내용 음성, 영상 데이터, 환자의 생체신호 중 적어도 하나 이상을 입력 변수로 딥 러닝 학습을 실행하여, 중증 질환명에 대응하는 최적의 구급활동 지침을 도출할 수 있다.
또한, 인공 지능부(130)는, 질환별 세부 증상을 인식하여 질환별 세부 상황표에 체크하거나, 장비들과의 연동을 통해 실시간으로 얻어지는 환자의 생체신호를 구급활동 일지에 실시간으로 기록하고, 실시간으로 파악되는 환자의 상태에 따라 질환별 세부 상황표 또는 구급활동 일지를 실시간으로 업데이트할 수 있다.
또한, 인공 지능부(130)는, 장비 연동부를 통해 다른 장비와의 연동을 통해 실시간으로 얻어지는 환자의 생체 신호를 구급활동 일지에 실시간으로 기록하고, 장비와의 연동을 통해 얻어질 수 없는 생체 신호의 경우, 영상 입력부를 통해 입력되는 환자의 생체 신호를 질환별 세부 상황표에 자동으로 기록할 수 있다.
도 3은 본 발명의 실시 예에 따른 인공 지능부의 기능 블록을 나타낸 구성도이다.
도 3을 참조하면, 본 발명의 실시 예에 따른 인공 지능부(130)는, 요소 도출기(10), 학습 엔진(20) 및 조치기(30)를 포함할 수 있다.
즉, 본 발명에서는, 구조화된 데이터 및 비구조화된 데이터를 요소 도출기(10)에서 처리하여 요소를 도출하고, 학습 엔진(20)에서 요소를 이용해 자가 적응 학습을 할 수 있으며, 학습 결과를 이용하는 조치기(30)를 포함하여, 상황 이해 및 스케줄링, 의사결정 및 예측, 추천 및 상황 조치 등을 할 수 있는 시스템을 모듈식으로 제공할 수 있고, 다양한 상황에 맞는 시스템을 맞춤식으로 제공할 수 있다.
예를 들면, 요소 도출기(10)에서는 질환명, 질환별 세부 증상, 환자 상태 관련 데이터들을 입력받아, 학습에 이용할 주 요소를 도출하고, 학습 엔진(20)에서는 주 요소를 이용하여, 일반적 현장 상황에서의 현장 구급처치 지침, 특수 상황별 지침, 술기 지침, 약물 지침 중 어느 지침을 이용하는지 이용 지침을 분류하여 자가 적응 학습을 실행하며, 조치기(30)에서는 환자의 (중증) 질환명에 대응하는 최적의 구급활동 지침을 추천하여 제공하는 것이다.
요소 도출기(10)는 입력 데이터를 처리하여 요소(Elements)를 도출할 수 있다. 즉, 요소 도출기(10)는 구조화된 데이터 및 비구조화된 데이터를 포함하는 입력 데이터로부터 학습 엔진(20)의 입력정보인 요소를 도출할 수 있다.
요소 도출기(10)는, 텍스트 변환 모듈(11), 정보 추출 모듈(12) 및 요소 도출 모듈(13)을 포함하여 구성될 수 있다.
텍스트 변환 모듈(11)은, 입력 데이터 중 텍스트를 제외한 비구조화된 데이터를 텍스트 데이터로 변환할 수 있다(Text Conversion). 특히, 텍스트 변환 모듈(11)은, 텍스트를 제외한 이미지, 영상, 음성을 포함하는 비구조화된 데이터를 텍스트 데이터로 변환할 수 있다.
정보 추출 모듈(12)은, 텍스트 변환 모듈(11)에서 변환된 텍스트 데이터로부터 정보를 추출할 수 있다(Information Extraction). 또한, 정보 추출 모듈(12)은, 텍스트 변환 모듈(11)에서의 변환 대상이 아닌, 텍스트 형태의 입력 데이터로부터도 필요한 정보를 추출할 수 있다.
요소 도출 모듈(13)은, 추출된 정보로부터 학습 엔진(20)에 입력될 요소를 도출할 수 있다(Element Identification & Elicitation).
학습 엔진(20)은, 요소 도출기(10)에서 도출된 요소를 이용하여 DNA 미션(DNA Mission)을 자가조직하고, 자가 조직된 DNA 미션을 이용하여 딥 러닝 기반의 인공신경망 DNA 모델(DNA Model)을 자가 구성하며, 자가 구성된 DNA 모델을 학습시킬 수 있다. 본 발명은, 자가 적응 기술과 딥 러닝 기반의 학습 기술을 결합하여, DNA 미션을 자가 조직하고 DNA 모델을 자가 구성하는 학습 엔진(20)을 포함함으로써, 상황을 이해해서 스스로 미션을 파악하고 모델을 만들어 상황을 해결하는 인간 두뇌 메커니즘을 효과적으로 구현할 수 있다. 도 1에 도시된 바와 같이, 학습 엔진(20)은, 조직 모듈(21), 구성 모듈(22) 및 학습 모듈(23)을 포함하여 구성될 수 있다.
조직 모듈(21)은, 요소 도출기(10)에서 도출된 요소를 이용하여 구급활동별 DNA 미션을 자가 조직할 수 있다(Self-Organization of DNA Mission). 보다 구체적으로는, 조직 모듈(21)은, 입력받은 주 요소에 근거해 i) 구급활동 표준지침 개요 ii) 구급대 운영지침, iii) 일반적 현장 상황에서의 현장 구급처치 지침, iv) 특수 상황별 지침, v) 술기 지침, vi) 약물 지침 등을 비교 및 평가하여, 구급활동 DNA 미션을 스스로 조직해서 생성할 수 있다. 여기에서, 미션은 미리 정의된 조직의 미션이고, DNA 미션은 본 발명의 조직모듈(21)이 자가 조직하는 미션으로 서로 상이하다.
한편, 조직 모듈(21)이 조직하는 구급활동 DNA 미션은, 구급활동지침 조직의 블록(Blocks of Organization)과 체인(Chains)의 콤비네이션일 수 있다. 즉, 조직 모듈(21)은, 뉴로 블록체인 콤비네이션(Block Chain Combination) 기술을 이용하여, 조직의 블록과 체인을 조합하여 DNA 미션을 조직할 수 있다. 또한, 실시예에 따라서는, DNA 미션은, 체인(Chains)의 콤비네이션으로 구성되는 특수 DNA 미션(Special DNA Mission)을 포함할 수 있다.
또한, DNA 미션은, 미션 모듈의 합으로 구성될 수 있으며, 미션 모듈은 요소 도출기(10)로부터 전달받은 요소와 구급활동지침 조직의 포지션(Positions of Organization)의 함수일 수 있다. 이때, 조직 구성원의 포지션은 미리 정해질 수 있다.
본 발명에서는, 인공지능부(130)가 인간의 임무(미션)를 지원하도록 하기 위하여, 환자의 질환명(중증 외상 질환, 중증 외상 질환, 뇌혈관 질환, 심혈관 질환, 심정지 질환등), 질환별 증상에 대해 미션을 수행하는 구급 활동, 및 그 구급 활동 지침이 속해 있거나 위치해 있는 구급 활동 지침의 포지션(지침)을 고려할 수 있다. 이러한 조직은 예를 들면, 계층형 트리 구조의 형태를 띠거나 병렬형 구조를 띠고 있으며, 계층형 트리 구조에서는 노드와 노드 간 연결(즉, 질환명 내에서의 포지션과 포지션간 연결(체인))이 되어 있고, 이를 조직 전체로 확장해 보면 일정 트리 구조(블록)로 구성된 그룹(조직 내 지침) 간의 연결 즉, 체인으로 볼 수 있다.
조직 모듈(21)에서 뉴로 블록체인 콤비네이션 기술을 이용할 때, 체인이란 구급활동 내에서의 포지션(지침1)과 포지션(지침2) 간 연결 그리고 일정한 구급활동 지침을 가진 그룹들(일반적 현장 상황에서의 현장 구급처치 지침 그룹, 특수 상황별 지침 그룹, 술기 지침 그룹, 약물 지침 그룹) 간 연결이고, 구급활동지침 조직의 블록이란 일정한 구급활동 내에서의 포지션과 포지션이 서로 연결되어 모여 있는 그룹으로, 하나의 구급활동 지침이 하나의 블록으로 구성되거나 또는 하나의 구급활동이 여러 개의 지침 블록으로 구성될 수 있다.
도 4는 본 발명의 실시예에 따른 뉴로 블록체인 콤비네이션을 이용하여, 조직 모듈(21)에서 DNA 미션을 자가 조직하는 방법을 예를 들어 도시한 도면이다.
본 발명의 실시예에 따른 딥 러닝 기반의 학습엔진(20)의 조직 모듈(21)은, 도 4에 도시된 바와 같은 조직의 블록(Block i, Block j, Block k 등)과 체인(Chain l, Chain m, Chain n 등)을 조합하여 DNA 미션을 구성할 수 있다. 구성된 DNA 미션은 요소와 질환명의 구급활동 포지션의 함수인 미션 모듈의 합으로 표현될 수 있다.
또한, DNA 미션은, 체인(Chains)의 콤비네이션으로 구성되는 특수 DNA 미션(Special DNA Mission)을 포함할 수 있다. 즉, 실시예에 따라서는, 조직의 블록 없이 체인들만의 조합으로 DNA 미션을 구성할 수도 있다.
즉, 도 4에서, 각 블록은 일반적 현장 상황에서의 현장 구급처치 지침 블록, 특수 상황별 지침 블록, 술기 지침 블록, 약물 지침 블록 중 하나일 수 있다.
구성 모듈(22)은, 자가 조직된 DNA 미션을 이용하여, 딥 러닝 기반의 인공 신경망 DNA 모델을 자가 구성할 수 있다(Self-Composition of DNA Model). 즉, 구성 모듈(22)은, 조직 모듈(21)로부터 DNA 미션을 전달받아, 딥 러닝 기반으로 학습할 수 있는 인공 신경망 DNA 모델을 스스로 구성해서 만들 수 있다. 구성 모듈(22)에 의해 자가 구성되는 DNA 모델은, 시간의 흐름에 따라 입력되는 요소에 의해 자가 조직된 DNA 미션을 이용해 구성되기 때문에, 입력 데이터에 따라 유연하게 변화하는 모델일 수 있다.
DNA 모델은, 기능 블록(Blocks of Function)과 체인(Chains)의 콤비네이션일 수 있다. 즉, 구성 모듈(22)은, 뉴로 블록체인 콤비네이션(Block Chain Combination) 기술을 이용하여, 기능의 블록과 체인을 조합하여 DNA 모델을 조직할 수 있다.
또한, 구성 모듈(22)은, 기능적 하위 모델(Functional Submodel)의 합으로 구성되는 DNA 모델을 자가 구성할 수 있다.
여기에서, 기능 블록은, 인간 뇌의 상황 판단 방식을 모방하여 인공 신경망 모델에서 학습이 가능하도록 하는 상황에 대한 기능별 집합으로서, DNA 미션에서의 하나의 조직의 블록은 DNA 모델에서 하나의 기능 블록으로 구성될 수 있다. 단순한 상황은 인간이 한 번의 생각만으로도 판단이 가능하겠지만, 복잡한 상황은 한 번의 생각이 아니라 여러 번의 생각에 의해 판단이 가능하다는 가정을 할 수 있다. 미션을 해결하기 위한 모델을 구성하는 과정에서는, 이와 같은 개념을 이용하여, 복잡한 상황을 기능별로 구분하고 판단을 위해 그룹화하는 방식으로 기능 블록과 체인을 조합하여 DNA 모델을 자가 조직할 수 있다.
전술한 바와 같이, 중증 질환명, 즉, 중증 외상 질환, 뇌혈관 질환, 심혈관 질환, 심정지 질환 등이 서로 다른 증상과 그에 따른 서로 다른 구급활동 지침을 가지고 있으면, 조직의 블록은 4개가 되는데, 미션의 수행을 위해 4 개의 조직의 블록이 각각의 기능별로 하위 임무를 맡아 4 개의 기능 블록으로 변환될 수 있다.
도 5는 본 발명의 실시예에 따른 뉴로 블록체인 콤비네이션을 이용하여, 구성 모듈(22)에서 DNA 모델을 자가 구성하는 방법을 예를 들어 도시한 도면이다.
본 발명의 실시예에 따른 딥 러닝 기반의 학습엔진(20)의 구성 모듈(22)은, 도 5에 도시된 바와 같은, 기능 블록(Block)과 체인(Chain)들을 뉴로 블록체인 콤비네이션 기술을 통해 조합하여 기능적 하위 모델(Functional Submodel i, Functional Submodel j, Functional Submodel k, Functional Submodel m, Functional Submodel n 등)을 구성하고, 기능적 하위 모델의 합으로 DNA 모델을 구성할 수 있다.
예를 들면, 환자의 질환명으로 심혈관 질환이 입력되고, 이 외에도 현장에서 측정된 측정 데이터, 그리고 환자 상태 관련 데이터가 입력된 경우, 입력된 데이터에 근거하여 조직 모듈(21)에서 일반적 현장 상황에서의 현장 구급처치 지침 블록, 특수 상황별 지침 블록, 술기 지침 블록, 약물 지침 블록 등을 자가 조직한 것을 이용하여, 구성 모듈(22)은 최적의 구급활동 지침을 도출하기 위해, 현장 구급처치 지침에서 어느 지침을 이용할 지 적어도 하나 이상을 선택하고, 특수 상황별 지침에서 어느 지침을 이용할 지 적어도 하나 이상을 선택하며, 술기 지침에서 어느 지침을 이용할 지 적어도 하나 이상을 선택하며, 약물 지침에서 어느 지침을 이용할 지 적어도 하나 이상을 선택하여, 이들을 체인으로 연결하여 기능의 블록을 구성하는 것이다.
한편, 도 3에서, 학습 모듈(23)은, 자가 구성된 DNA 모델을 자가 학습할 수 있다(Self-Learning of DNA Model). 즉, 학습 모듈(23)은, 구성 모듈(22)에서 구성된 DNA 모델을 학습시키는 구성으로서, 인공 신경망 기술을 통해 학습을 할 수 있으며, 학습 결과를 조치기(30)에 전달할 수 있다.
조치기(30)는, 이해 및 스케줄링 모듈(31), 판단 및 예측 모듈(32), 및 추천 및 조치 모듈(33)을 통해 학습 엔진(20)의 학습 결과에 따른 기능을 수행할 수 있다. 도 3에 도시된 바와 같이, 조치기(30)는 이해 및 스케줄링 모듈(31), 판단 및 예측 모듈(32), 추천 및 조치 모듈(33)을 포함하여 구성될 수 있으며, 각 모듈이 공통 소프트웨어가 될 수 있다. 본 발명에서는 조치기(30)의 구조적인 측면에 대하여 설명하도록 한다.
이해 및 스케줄링 모듈(31)은, 주어진 상황을 이해하거나 의도를 파악하고, 상황 이해 또는 의도 파악 결과를 이용해 의사 결정권자에게 스케줄링을 제공할 수 있다(Understanding & Scheduling).
판단 및 예측 모듈(32)은, 주어진 상황에 대한 판단 및 분석 결과를 제공하고, 발생 가능한 상황을 예측하여 제공할 수 있다(Decision & Prediction).
추천 및 조치 모듈(33)은, 분석 결과 및 예측 결과를 이용하여, 주어진 상황에 대한 의사결정을 추천하고 이에 따른 조치를 제공할 수 있다(Recommendation & Action). 이를 위해, 추천 및 조치 모듈(33)은, 판단 및 예측모듈(32)로부터 분석 결과 및 예측 결과를 전달받을 수 있다.
도 6은 본 발명의 실시예에 따른 딥 러닝 기반의 자가 적응 학습 기술을 이용한 인공 지능부에서 DNA 툴(40)을 더 포함하는 구성을 도시한 도면이다.
도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 딥러닝 기반의 자가 적응 학습 기술을 이용한 인공 지능부(130)는, DNA 툴(40)을 더 포함하여 구성될 수 있다.
DNA 툴(40)은, 요소 도출기(10), 학습 엔진(20) 및 조치기(30)에 복수의 툴을 제공할 수 있다. 즉, DNA 툴(40)은, 요소 도출기(10), 학습 엔진(20) 및 조치기(30)가 각각의 기능을 수행하는 데에 도움을 주는 툴을 제공할 수 있다.
보다 구체적으로는, DNA 툴(40)은, 비구조화된 데이터를 텍스트로 변환시키는 변환 툴(Conversion Tool)(41), 정보를 추출하는 추출 툴(Extraction Tool)(42), 및 DNA 미션의 자가 조직 및 DNA 모델의 자가 구성에 필요한 블록과 체인을 연결하는 콤비네이션 툴(Combination Tool)(43)을 포함할 수 있다.
또한, 조직 모듈(21), 구성 모듈(22) 및 학습 모듈(23)이, DNA 미션을 자가 조직, DNA 모델을 자가 구성 및 자가 학습할 수 있도록 도움을 주는 자가 적응 툴(Self-Adapted Tool)(44)을 더 포함하여 구성될 수 있다.
도 7은 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 제공 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 7을 참조하면, 본 발명의 실시 예에 따른 인공지능 기반 구급활동 지침 시스템(100)은, 먼저 인공 지능부(130)가 데이터 저장부(110)에 저장되어 있는 질환명과 질환별 증상에 대응하는 구급활동 지침을 딥러닝(Deep Learning) 방식으로 학습한다(S710).
즉, 인공 지능부(130)는 데이터 저장부(110) 또는 데이터베이스(112)에 저장되어 있는 질환명고 질환별 증상에 대응되는 구급활동 지침에 관한 데이터를 도 4 및 도 5에 도시된 바와 같이 딥러닝 방식으로 학습하는 것이다. 예를 들면, 인공 지능부(130)는 환자가 의식이 없고, 척추 손상기 전이고, 신경학적 검사 후 운동 신경의 마비와 감각 소실이 있으며, 척추 손상을 인지하지 못하는 다른 손상이 있으며, 척수 검사 결과 비정상인 경우에, 그에 대응하는 구급활동 지침으로 환자에게 척추 고정이 필요하다는 메시지를 출력하는 것을 학습하는 것이다.
이어, 인공 지능부(130)는 학습된 데이터를 데이터 저장부(110) 또는 데이터베이스(112)에 저장한다(S720).
이는, 인공 지능부(130)가 구급 현장에서 구급대원으로부터 질환명을 입력받거나 또는 질환별 세부 증상을 입력받을 때, 그에 해당하는 최적의 구급활동 지침을 도출할 때 학습된 데이터를 이용하기 위함이다.
이어, 입력부(120)는 구급 현장에서 질환명, 질환별 증상 및 환자 상태 관련 데이터 중 적어도 하나 이상을 입력받는다(S730).
이때, 입력부(120)는, 구급 현장에서 구급대원으로부터 환자 상태 관련 데이터를 입력받거나, 구급 현장에서 발생되는 음향을 음향 입력부를 통해 입력받거나, 장비 연동부를 통해 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정값들을 입력받을 수 있다.
이어, 인공 지능부(130)는 학습된 데이터에 근거해 상기 입력된 데이터를 입력변수로 하여 딥 러닝 학습을 실행하여 질환명 또는 질환별 증상에 대응하는 구급활동 지침을 도출한다(S740).
예를 들면, 인공 지능부(130)는 도 4 및 도 5에 도시된 바와 같은 과정을 실행하여, 환자 상태 관련 데이터로, 의식 소실을 포함한 의식 변화, 고위험 손상기전, 고속 충돌 사고, 환자 위를 지나가는 사고, 1m 이상 또는 5 계단 이상에서 낙상, 다이빙 등 척추에 착용하는 손상, 자전거 또는 오토바이 사고, 척추 가운데 통증 또는 압통, 운동 및 감각 이상 등을 입력받은 경우에, 다발성 외상에 따라 척추 고정이 필요한 경우라는 구급활동 지침을 도출할 수 있다.
이때, 인공 지능부(130)는 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하거나, 장비 연동부를 통해 입력된 환자의 생체 신호를 분석하여 환자의 상태를 인식할 수 있다.
또한, 인공 지능부(130)는 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 세부 증상을 인식할 수 있다.
이어, 인공 지능부(130)는 도출된 구급활동 지침을 음성이나 화면으로 제공한다(S750).
예를 들면, 인공 지능부(130)는 환자의 질환명으로, 심혈관 질환을 입력받은 경우에, 구급활동 지침으로, 폐음을 청진하고, 환자를 진정시키고, 편안한 자세를 취해주며, 병력을 청취하고, 발기부전 치료제 복용력을 확인하라는 지침을 제공할 수 있다.
예를 들면, 인공 지능부(130)는 환자 상태 관련 데이터로, 구토 반사가 없는 두부 손상을 입력받은 경우, 구급활동 지침으로, 기도 개방에 대한 도수를 조작하고, 두개골 골절 징후에 따라 코나 귀에 혈액이 흐르면 막지 말고 닦아주라고 하며, 모든 두부 손상 환자에 대해 경추를 고정하며, 외부 출혈 시에 멸균된 소독 거즈로 압박 지혈하라는 지침을 제공할 수 있다.
예를 들면, 인공 지능부(130)는 환자 상태 관련 데이터로, 복부 및 골반 손상의 관통상을 입력받은 경우, 개방성 기흉에 대해 상면 밀봉 드레싱을 하고, 생명을 위협하는 외부 출혈이 있으면 멸균 거즈로 압박 지혈하라는 지침을 제공할 수 있다.
예를 들면, 인공 지능부(130)는 환자 상태 관련 데이터로, 팔다리 손상으로 심각한 출혈 상태를 입력받은 경우, 팩/드레싱, 압박 드레싱, 지혈 드레싱, 지혈대 적용 등 지혈 처치에 관한 지침을 제공하고, 출혈이 심각하지 않은 경우에 손상 부위 처치 및 보호에 관해 거즈 및 붕대 감기, 움직임 최소화를 위한 고정, 부종에 얼음 찜질을 하라는 지침을 제공하며, 골절인 경우에 손상 의심 부위 피복을 모두 제거하고, 변형된 사지를 무리하게 정복 시도하지 않고, 부목 고정시 관철 상하부 포함해 적용하며, 신체 돌출 부위, 부목의 딱딱한 곳을 두꺼운 패드로 고정하라는 지침을 제공할 수 있다.
또한, 중증 질환에 대한 세부 증상은, 다발성 외상, 두부 손상, 흉부 손상, 복부 골반 손상, 팔 다리 손상, 안과적 손상, 치과적 손상 중 적어도 하나 이상을 포함할 수 있다.
여기서, 다발성 외상은, 출혈 부위, 의식 저하 또는 머리 척추 손상, 손상 부위, 골절 부위를 포함하고, 두부 손상은 의식 장애 유무, 비대칭 동공, 구토 반사 유무, 두개골 골절 여부, 뇌탈출 징후 유무를 포함할 수 있다.
또한, 흉부 손상은, 관통상, 생명 위협 외부 출혈 유무, 둔상, 동요 가슴 유무, 경추 손상 유무, 심전도 모니터링에 관한 데이터를 포함하고, 복부 골반 손상은, 복부 상체 외부 출혈 유무, 장기 노출 유무, 잘린 물질 박힘 유무, 골반 뼈 골절 유무를 포함하며, 팔다리 손상은, 일정 기준 이상 출혈 유무, 골절 유무, 절단 유무를 포함할 수 있다.
그리고, 안과적 손상은, 안구내 출혈 유무, 동공 크기, 외상, 심전도 모니터링에 관한 데이터를 포함하고, 치과적 손상은, 구강내 상처 유무, 빠진 치아 유무에 관한 데이터를 포함할 수 있다.
전술한 바와 같이 본 발명에 의하면, 환자의 질환명과 질환별 세부 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 데이터로 저장하고, 구급 현장에서 구급 대원이 환자의 증상을 파악하여 그에 해당하는 질환명을 입력하면, 학습 데이터 근거하여 질환명과 구급 현장의 음성 등을 입력 변수로 딥러닝 방식으로 학습을 실행하여, 해당 질환명에 대응하는 최적의 구급활동 지침을 신속히 구급대원에게 제공함으로써 환자의 골든타임을 확보하고 빠른 시간 내에 환자에게 알맞은 응급처치를 하여 중증 환자의 생존율을 높일 수 있도록 하는, 인공지능 기반 구급활동 지침 제공 시스템 및 방법을 실현할 수 있다.
본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (13)

  1. 질환명과 질환별 증상에 대응하는 구급활동 지침을 데이터로 저장하고 있는 저장부;
    상기 질환명, 상기 질환별 증상 및 환자 관련 데이터를 입력받는 입력부;
    상기 질환명과 상기 질환별 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하여 저장하고, 상기 학습된 데이터에 근거하여 상기 입력된 데이터를 입력 변수로 딥 러닝 학습을 실행하여 상기 질환명에 대응하는 구급활동 지침을 제공하는 인공 지능부; 및
    상기 구급활동 지침을 음성 또는 화면으로 출력하는 출력부;
    를 포함하는 인공지능 기반 구급활동 지침 제공 시스템.
  2. 제 1 항에 있어서,
    상기 입력부는,
    구급 현장에서 환자 관련 텍스트를 입력받기 위한 데이터 입력부;
    구급 현장에서 발생되는 음향을 입력받는 음향 입력부; 및
    상기 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정값들을 입력받는 장비 연동부;
    를 포함하는, 인공지능 기반 구급활동 지침 제공 시스템.
  3. 제 2 항에 있어서,
    상기 인공 지능부는, 상기 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하거나, 장비 연동부를 통해 입력된 환자의 생체 신호로부터 환자의 질환별 증상을 인식하고, 인식된 환자의 질환별 증상에 따라 최적의 구급활동 지침을 선정하며, 선정된 최적의 구급활동 지침을 제공하는, 인공지능 기반 구급활동 지침 제공 시스템.
  4. 제 3 항에 있어서,
    상기 인공 지능부는, 상기 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 세부 증상을 인식하는, 인공지능 기반 구급활동 지침 제공 시스템.
  5. 제 4 항에 있어서,
    상기 인공 지능부는, 상기 인식된 질환별 세부 증상과 상기 질환명에 대응하는 구급활동 지침을 제공하되, 상기 구급활동 지침에 따른 구급처치 순서를 가이드하는, 인공지능 기반 구급활동 지침 제공 시스템.
  6. 제 1 항에 있어서,
    상기 저장부는, 구급대원이 대상에게 물어보는 질문 세트(Question Set)와, 구급대원에게 대답하는 답변 세트(Answer Set)를 포함하고,
    상기 인공 지능부는, 상기 음향 입력부를 통해 입력받은 음향으로부터 상기 질문 세트와 상기 답변 세트를 기반으로 화자들의 대화내용 음성을 분석해 질환별 세부 증상을 인식하는, 인공지능 기반 구급활동 지침 제공 시스템.
  7. 제 1 항, 제 3 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 인공 지능부는, 상기 질환별 세부 증상을 인식하여 질환별 세부 상황표에 체크하거나, 상기 장비들과의 연동을 통해 실시간으로 얻어지는 환자의 생체신호를 구급활동 일지에 실시간으로 기록하고, 실시간으로 파악되는 환자의 상태에 따라 상기 질환별 세부 상황표 또는 상기 구급활동 일지를 실시간으로 업데이트하는, 인공지능 기반 구급활동 지침 제공 시스템.
  8. 제 1 항에 있어서,
    상기 인공 지능부는, 상기 장비 연동부를 통해 다른 장비와의 연동을 통해 실시간으로 얻어지는 환자의 생체 신호를 구급활동 일지에 실시간으로 기록하는, 인공지능 기반 구급활동 지침 제공 시스템.
  9. (a) 인공 지능부가 질환명과 질환별 증상에 대응하는 구급활동 지침을 딥러닝 방식으로 학습하는 단계;
    (b) 상기 인공 지능부가 상기 학습된 데이터를 저장하는 단계;
    (c) 입력부가 상기 질환명, 상기 질환별 증상 및 환자 관련 데이터 중 적어도 하나 이상을 입력받는 단계;
    (d) 상기 인공 지능부가 상기 학습된 데이터에 근거해 상기 입력된 데이터를 입력변수로 하여 딥 러닝 학습을 실행하여 상기 질환명 또는 상기 질환별 증상에 대응하는 구급활동 지침을 도출하는 단계; 및
    (e) 상기 인공 지능부가 상기 도출된 구급활동 지침을 제공하는 단계;
    를 포함하는 인공지능 기반 구급활동 지침 제공 방법.
  10. 제 9 항에 있어서,
    상기 (c) 단계에서 상기 입력부는, 구급 현장에서 구급대원으로부터 환자 상태 관련 데이터를 입력받거나, 구급 현장에서 발생되는 음향을 음향 입력부를 통해 입력받거나, 장비 연동부를 통해 상기 질환별 증상을 측정하는 장비들과 유선 또는 무선으로 연동하여 측정값들을 입력받는, 인공지능 기반 구급활동 지침 제공 방법.
  11. 제 9 항에 있어서,
    상기 (d) 단계에서 상기 인공 지능부는, 상기 입력받은 음향으로부터 대화내용 음성을 분리하고, 분리한 대화내용 음성들을 분석해 질환별 증상을 인식하거나, 상기 장비 연동부를 통해 입력된 환자의 생체 신호를 분석하여 질환별 증상을 인식하는, 인공지능 기반 구급활동 지침 제공 방법.
  12. 제 9 항에 있어서,
    상기 (d) 단계에서 상기 인공 지능부는, 음향 입력부를 통해 입력받은 음향으로부터 구급대원과 환자 간의 대화내용 음성, 구급대원과 목격자 간의 대화내용 음성, 구급대원과 보호자 간의 대화내용 음성들을 분리하고, 분리한 대화내용 음성들을 분석하여 질환별 세부 증상을 인식하는, 인공지능 기반 구급활동 지침 제공 방법.
  13. 제 9 항에 있어서,
    상기 (d) 단계에서 상기 인공 지능부는, 질환별 세부 증상을 인식하여 질환별 세부 상황표에 체크하거나, 장비들과의 연동을 통해 실시간으로 얻어지는 환자의 생체 신호를 구급활동 일지에 실시간으로 기록하고, 실시간으로 파악되는 환자의 상태에 따라 질환별 세부 상황표 또는 구급활동 일지를 실시간으로 업데이트하는, 인공지능 기반 구급활동 지침 제공 방법.
PCT/KR2021/002948 2020-03-18 2021-03-10 인공지능 기반 구급활동 지침 제공 시스템 및 방법 WO2021187795A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200033029A KR102329416B1 (ko) 2020-03-18 2020-03-18 인공지능 기반 구급활동 지침 제공 시스템 및 방법
KR10-2020-0033029 2020-03-18

Publications (1)

Publication Number Publication Date
WO2021187795A1 true WO2021187795A1 (ko) 2021-09-23

Family

ID=77768461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002948 WO2021187795A1 (ko) 2020-03-18 2021-03-10 인공지능 기반 구급활동 지침 제공 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102329416B1 (ko)
WO (1) WO2021187795A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080004124A (ko) * 2006-07-04 2008-01-09 오해석 개인휴대단말기를 이용한 응급구조 시스템
JP4936094B2 (ja) * 2001-09-28 2012-05-23 株式会社エクォス・リサーチ エージェント装置
KR20130083067A (ko) * 2011-12-28 2013-07-22 경북대학교 산학협력단 응급 진료 가능 의료기관 조회 시스템 및 방법
KR20180010573A (ko) * 2016-07-21 2018-01-31 오유경 스마트 구급차
KR20200027091A (ko) * 2018-08-31 2020-03-12 주식회사 비플컨설팅 환자의 주증상과 진단 관계에 대하여 인공신경망 기법을 이용하여 유사성 정도를 추론하여 진단 사례를 추천하는 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8862448B2 (en) 2009-10-19 2014-10-14 Theranos, Inc. Integrated health data capture and analysis system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4936094B2 (ja) * 2001-09-28 2012-05-23 株式会社エクォス・リサーチ エージェント装置
KR20080004124A (ko) * 2006-07-04 2008-01-09 오해석 개인휴대단말기를 이용한 응급구조 시스템
KR20130083067A (ko) * 2011-12-28 2013-07-22 경북대학교 산학협력단 응급 진료 가능 의료기관 조회 시스템 및 방법
KR20180010573A (ko) * 2016-07-21 2018-01-31 오유경 스마트 구급차
KR20200027091A (ko) * 2018-08-31 2020-03-12 주식회사 비플컨설팅 환자의 주증상과 진단 관계에 대하여 인공신경망 기법을 이용하여 유사성 정도를 추론하여 진단 사례를 추천하는 시스템

Also Published As

Publication number Publication date
KR102329416B1 (ko) 2021-11-22
KR20210117370A (ko) 2021-09-29

Similar Documents

Publication Publication Date Title
US6053864A (en) Method and system for giving remote emergency medical counsel to arrest patients
DE102008054442A1 (de) Verfahren zur ferndiagnostischen Überwachung und Unterstützung von Patienten sowie Einrichtung und telemedizinisches Zentrum
WO2012033244A1 (ko) 자가진찰방법 및 자가진찰장치
HALLER JR et al. Organization and function of a regional pediatric trauma center: does a system of management improve outcome?
WO2019172563A1 (ko) Vr 또는 ar을 기반으로 하는 병원에서의 진료 체험 제공 시스템
WO2021187795A1 (ko) 인공지능 기반 구급활동 지침 제공 시스템 및 방법
Alvarado-Díaz et al. Implementation of a brain-machine interface for controlling a wheelchair
JP4330866B2 (ja) 医療用通信システム
Kilner et al. Triage decisions of United Kingdom police firearms officers using a multiple-casualty scenario paper exercise
JP2005512608A (ja) 患者監視におけるセンサ信号と主観的情報の相関
CN115153571A (zh) 一种智能生命支持一体机
CN114649088A (zh) 紧急征兆早期检测、警告和响应系统及其使用方法
WO2022225199A1 (ko) 카메라 기반 생체 징후 데이터 추출과 전자 문진을 통한 비대면 건강상태 측정 시스템 및 그 방법
WO2023101223A1 (ko) 모빌리티 클리닉 차량을 구비하는 감염병 진료 시스템
WO2023122226A2 (en) Medical decision support system with rule-driven interventions
WO2020143871A1 (de) Audio-videokonferenzsystem der telemedizin
Rizzo et al. Telemedicine for airline passengers, seafarers and islanders
Halliwell et al. The revision of the primary survey: a 2011 review
DE102015226175B4 (de) Anordnung und Verfahren zur Überwachung von Patienten
RU2813942C1 (ru) Многофункциональное портативное устройство для дистанционного контроля и мониторинга физиологических данных пациента в домашних условиях
WO2021085912A2 (ko) 응급환자 처치 훈련 제공 방법 및 장치
Fager et al. Access to AAC for individuals with acquired conditions: challenges and solutions in early recovery
KR102284347B1 (ko) 응급 이송환자의 크로스체크를 통한 응급환경 조성시스템과 조성방법
WO2024112116A1 (ko) 의료 실습을 위한 확장현실(xr) 임상시뮬레이션 시스템 및 방법
CN217394950U (zh) 一种校园儿童意外伤害医疗健康服务机器人

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21772551

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21772551

Country of ref document: EP

Kind code of ref document: A1