KR102457342B1 - System for endotracheal intubation training, and control method - Google Patents

System for endotracheal intubation training, and control method Download PDF

Info

Publication number
KR102457342B1
KR102457342B1 KR1020200179241A KR20200179241A KR102457342B1 KR 102457342 B1 KR102457342 B1 KR 102457342B1 KR 1020200179241 A KR1020200179241 A KR 1020200179241A KR 20200179241 A KR20200179241 A KR 20200179241A KR 102457342 B1 KR102457342 B1 KR 102457342B1
Authority
KR
South Korea
Prior art keywords
mannequin
trainee
camera
processing module
organ
Prior art date
Application number
KR1020200179241A
Other languages
Korean (ko)
Other versions
KR20220089005A (en
Inventor
강구현
장용수
김원희
최현영
김재국
이윤재
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200179241A priority Critical patent/KR102457342B1/en
Publication of KR20220089005A publication Critical patent/KR20220089005A/en
Application granted granted Critical
Publication of KR102457342B1 publication Critical patent/KR102457342B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Image Analysis (AREA)

Abstract

기관 삽관 교육을 위한 시스템의 제어 방법이 개시된다. 본 제어 방법은, 카메라 모듈이, 기관 삽관 교육을 위한 마네킹의 기관 내에 구비되어 기관의 입구 방향을 바라보는 카메라를 통해, 이미지를 획득하는 단계, 프로세싱 모듈이, 획득된 이미지를 기반으로, 피교육자가 마네킹의 성문을 보았는지 여부를 판단하는 단계를 포함한다.A method of controlling a system for tracheal intubation training is disclosed. In this control method, the camera module is provided in the trachea of the mannequin for tracheal intubation training and acquires an image through the camera facing the entrance direction of the trachea, the processing module, based on the acquired image, the trainee and determining whether the mannequin's gates have been viewed.

Description

기관 삽관 교육을 위한 시스템 및 제어 방법{ SYSTEM FOR ENDOTRACHEAL INTUBATION TRAINING, AND CONTROL METHOD }SYSTEM FOR ENDOTRACHEAL INTUBATION TRAINING, AND CONTROL METHOD

본 개시는 기관 삽관 교육을 위한 시스템에 관한 것으로, 보다 상세하게는, 기관 삽관 교육용 마네킹에 부착된 카메라를 이용하여 피교육자가 성문 및 기관을 찾았는지 여부를 판단하는 시스템에 관한 것이다.The present disclosure relates to a system for tracheal intubation education, and more particularly, to a system for determining whether a trainee has found the glottis and trachea using a camera attached to a mannequin for tracheal intubation education.

기관 삽관은 응급환자의 생명을 구하기 위해 매우 필수적인 의료행위에 해당한다. 다만, 기관 삽관은 매우 어렵고 주의를 요하는 술기라는 점에서, 그 교육이 매우 중요하다.Tracheal intubation is a very essential medical practice to save the life of an emergency patient. However, since tracheal intubation is a very difficult and careful technique, its education is very important.

일반적으로 마네킹을 이용하여 기관 삽관 교육이 진행되고 있으며, 피교육자들은 마네킹의 기도를 확보한 이후 마네킹의 성문(기관)이 눈에 보이면 그 성문을 통해 기관 내관(endotracheal tube)을 통과시켜 삽관을 진행하는 방식으로 실습을 수행하고 있다.In general, tracheal intubation education is conducted using a mannequin, and after securing the mannequin's airway, if the mannequin's glottis (trachea) is visible, the trainees pass through the endotracheal tube through the glottis to proceed with intubation. method is being practiced.

도 1a 내지 도 1b는 마네킹을 통해 실제로 진행되는 기관 삽관 교육을 개략적으로 설명하기 위한 도면들이다.1A to 1B are diagrams for schematically explaining tracheal intubation training actually performed through a mannequin.

도 1a와 같이, 피교육자들은 마네킹의 머리(고개)를 젖혀 기도를 확보하는 한편, 삽관을 수행하게 된다.As shown in FIG. 1A , the trainees tilt the mannequin's head (head) to secure an airway and perform intubation.

구체적으로, 도 1b와 같이, 기관의 입구에 있는 성문(성대)이 보이는 경우, 피교육자는 성문 사이의 기관으로 삽관을 수행하게 된다.Specifically, as shown in Figure 1b, when the glottis (vocal cord) at the entrance of the organ is visible, the trainee performs intubation into the organ between the glottis.

만약, 피교육자의 눈에 성문은 거의 안보이고 식도 부분까지만 보이거나 또는 성문의 극히 일부만이 보이는 경우라면, 기관의 입구가 명확히 확인된 상황이 아니므로 그 상태로 삽관을 진행하는 것은 적절하지 않다고 볼 수 있다.If the glottis is almost invisible to the trainee's eyes and only the esophagus is visible, or only a small part of the glottis is visible, it is not appropriate to proceed with intubation in that state because the entrance to the trachea is not clearly identified. have.

다만, 이러한 교육의 효과를 정량화하여 평가하기는 매우 어려운 실정이다. 그 이유는, 피교육자들이 실제로 마네킹 내의 성문을 눈으로 확인했는지 여부를 판단할 근거가 단지 피교육자 본인의 “보입니다”라는 말에만 의존하고 있기 때문이다.However, it is very difficult to quantify and evaluate the effect of such education. The reason is that the basis for judging whether or not the trainees actually visually checked the voice gates in the mannequins only relies on the trainees' own words of “I see”.

그리고, 실제로 마네킹의 성문이 보이지 않아도 결과적으로는 삽관이 잘 되는 경우가 많기 때문에, 교육이 효과적이었는지, 그리고 이렇게 교육받은 피교육자가 실제 환자에게 삽관을 시행하도록 하는 것이 안전한지에 대해 담보하기가 어려운 상황이다.And, since intubation is often successful even if the glottis of the mannequin is not actually visible, it is difficult to guarantee whether the training was effective and whether it is safe for the educated trainee to perform intubation on the actual patient. to be.

공개특허공보 제10-2017-0129089호(훈련 및 평가가 가능한 기도삽관 실습장치)Unexamined Patent Publication No. 10-2017-0129089 (airway intubation practice device capable of training and evaluation)

본 개시는, 기관 삽관 교육을 받는 피교육자가 적절한 삽관을 순서에 맞게 실행하고 있는지를 정량적이고 명확하게 판단할 수 있는 시스템 및 제어 방법을 제공한다.The present disclosure provides a system and a control method that can quantitatively and clearly determine whether a trainee receiving tracheal intubation training is performing appropriate intubation in order.

본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Objects of the present disclosure are not limited to the above-mentioned purposes, and other objects and advantages of the present disclosure that are not mentioned may be understood by the following description, and will be more clearly understood by examples of the present disclosure. Moreover, it will be readily apparent that the objects and advantages of the present disclosure may be realized by the means and combinations thereof indicated in the claims.

본 개시의 일 실시 예에 따른 기관 삽관 교육을 위한 시스템의 제어 방법은, 카메라 모듈이, 기관 삽관 교육을 위한 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 카메라를 통해, 이미지를 획득하는 단계, 프로세싱 모듈이, 상기 획득된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는 단계를 포함한다.In a control method of a system for tracheal intubation education according to an embodiment of the present disclosure, a camera module is provided in the trachea of a mannequin for tracheal intubation education and acquires an image through a camera facing the entrance direction of the trachea and determining, by the processing module, whether the trainee saw the voice print of the mannequin based on the acquired image.

상기 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는 단계는, 상기 이미지 내에서 상기 피교육자의 동공을 식별하고, 상기 식별된 동공의 각도 및 모양 중 적어도 하나를 기반으로 상기 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단할 수 있다.The step of determining whether the trainee saw the glottis of the mannequin may include identifying the pupil of the trainee in the image, and based on at least one of the identified angle and shape of the pupil, the trainee checks the glottis of the mannequin. You can judge whether you have seen it or not.

여기서, 상기 시스템의 제어 방법은, 상기 피교육자가 상기 마네킹의 성문을 보았는지 여부에 따라 상기 피교육자의 기관 삽관에 대한 스코어를 산정하는 단계를 더 포함할 수 있다. 그리고, 상기 스코어를 산정하는 단계는, 상기 이미지 내에서 상기 피교육자의 동공이 식별되지 않는 경우, 상기 피교육자의 기관 삽관에 제1 스코어를 부여하고, 상기 이미지 내에서 상기 피교육자의 동공이 식별되었으나 상기 피교육자가 상기 마네킹의 성문을 보지 않은 것으로 판단된 경우, 상기 피교육자의 기관 삽관에 상기 제1 스코어보다 높은 제2 스코어를 부여하고, 상기 피교육자가 상기 마네킹의 성문을 본 것으로 판단된 경우, 상기 피교육자의 기관 삽관에 상기 제2 스코어보다 높은 제3 스코어를 부여할 수 있다.Here, the control method of the system may further include calculating a score for tracheal intubation of the trainee according to whether the trainee saw the voice gate of the mannequin. And, in the calculating of the score, if the pupil of the trainee is not identified in the image, a first score is given to the intubation of the trainee's organ, and the pupil of the trainee is identified in the image, but the trainee When it is determined that the trainee has not seen the voice print of the mannequin, a second score higher than the first score is given to the intubation of the trainee's organ, and when it is determined that the trainee has seen the voice print of the mannequin, the trainee's organ The intubation may be awarded a third score higher than the second score.

또한, 상기 스코어를 산정하는 단계는, 상기 피교육자가 상기 마네킹의 성문을 보기까지 걸린 시간을 기반으로 스코어를 산정할 수도 있다.In addition, in the calculating of the score, the score may be calculated based on the time taken for the trainee to see the voice gate of the mannequin.

한편, 상기 이미지를 획득하는 단계는, 상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 복수의 카메라 각각을 통해 복수의 이미지를 획득할 수 있다. 이 경우, 상기 시스템의 제어 방법은, 상기 프로세싱 모듈이, 상기 획득된 복수의 이미지를 기반으로, 상기 피교육자에게 보인 상기 마네킹의 성문의 비율을 식별하는 단계를 더 포함할 수 있다.Meanwhile, in the acquiring of the image, a plurality of images may be acquired through each of a plurality of cameras provided in the organ of the mannequin and facing the entrance direction of the organ. In this case, the control method of the system may further include, by the processing module, identifying a ratio of the glottis of the mannequin shown to the trainee based on the plurality of acquired images.

상기 시스템의 제어 방법은, 상기 카메라를 통해 촬영된 이미지를 기반으로, 상기 카메라가 바라보는 방향이 상기 마네킹의 기관의 입구 방향인지 여부를 식별하는 단계, 상기 식별된 방향이 상기 기관의 입구 방향과 다른 경우, 상기 기관의 입구 방향에 따라 상기 카메라의 각도를 조절하도록 상기 카메라 모듈을 제어하는 단계를 더 포함할 수도 있다.The control method of the system includes, based on the image captured by the camera, identifying whether the direction the camera is looking is the entrance direction of the organ of the mannequin, the identified direction is the entrance direction of the organ In another case, the method may further include controlling the camera module to adjust the angle of the camera according to the entrance direction of the organ.

본 개시의 일 실시 예에 따른 기관 삽관 교육을 위한 시스템은, 기관 삽관 교육을 위한 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 촬영하도록 설치된 카메라를 제어하기 위한, 카메라 모듈, 상기 카메라를 통해 촬영된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는, 프로세싱 모듈을 포함한다.A system for tracheal intubation training according to an embodiment of the present disclosure is provided in the trachea of a mannequin for tracheal intubation training and for controlling a camera installed to photograph the entrance direction of the trachea, a camera module, shooting through the camera and a processing module, which determines whether or not the trainee saw the voice gate of the mannequin based on the displayed image.

본 개시의 일 실시 예에 따른 기관 삽관 교육을 위한 마네킹은, 상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 촬영하도록 설치된 카메라를 제어하기 위한, 카메라 모듈, 상기 카메라를 통해 촬영된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는, 프로세싱 모듈을 포함한다.The mannequin for tracheal intubation education according to an embodiment of the present disclosure is provided in the trachea of the mannequin to control a camera installed to photograph the entrance direction of the trachea, a camera module, based on an image taken through the camera , including a processing module, which determines whether the trainee saw the voice print of the mannequin.

본 개시에 따른 시스템 및 제어 방법은, 마네킹을 통한 기관 삽관 교육의 품질을 강화한다는 효과가 있다.The system and control method according to the present disclosure has the effect of enhancing the quality of tracheal intubation training through a mannequin.

구체적으로, 본 개시에 따른 시스템 및 제어 방법은, 피교육자가 마네킹의 성문을 확실히 확인했는지 여부를 정확한 기준에 따라 일관되게 평가하여 실습 교육의 질을 높일 수 있다.Specifically, the system and control method according to the present disclosure can increase the quality of practical education by consistently evaluating whether the trainee has reliably checked the voice print of the mannequin according to an accurate criterion.

도 1a 내지 도 1b는 마네킹을 통해 실제로 진행되는 기관 삽관 교육을 개략적으로 설명하기 위한 도면들,
도 2는 본 개시의 일 실시 예에 따른 시스템의 구성을 설명하기 위한 블록도,
도 3a 내지 도 3b는 본 개시의 일 실시 예에 따른 시스템 내 카메라의 위치를 설명하기 위한 도면들,
도 4는 본 개시의 일 실시 예에 따른 시스템의 동작을 설명하기 위한 흐름도,
도 5는 본 개시의 일 실시 예에 따른 시스템이 카메라를 통해 촬영된 이미지를 기반으로 피교육자의 시선을 추적하는 동작을 설명하기 위한 도면,
도 6a 내지 도 6b는 본 개시의 일 실시 예에 따른 시스템이 복수의 카메라를 이용하는 경우를 설명하기 위한 도면들, 그리고
도 7은 본 개시의 다양한 실시 예에 따른 시스템의 구성 및 동작을 설명하기 위한 블록도이다.
1A to 1B are diagrams for schematically explaining tracheal intubation training actually conducted through a mannequin;
2 is a block diagram for explaining the configuration of a system according to an embodiment of the present disclosure;
3A to 3B are diagrams for explaining the position of a camera in a system according to an embodiment of the present disclosure;
4 is a flowchart for explaining the operation of a system according to an embodiment of the present disclosure;
5 is a view for explaining the operation of the system tracking the gaze of the trainee based on the image taken through the camera according to an embodiment of the present disclosure;
6A to 6B are diagrams for explaining a case in which a system according to an embodiment of the present disclosure uses a plurality of cameras, and
7 is a block diagram for explaining the configuration and operation of a system according to various embodiments of the present disclosure.

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meaning defined in the present specification, and if there is no specific term definition, it may be interpreted based on the general content of the present specification and common technical knowledge in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numerals or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number, such as "first" and "second", may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. For example, the components combined with such an ordinal number should not be limited in the order of use or arrangement by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented as individual specific hardware, and thus at least one processor. can be implemented as

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included without excluding other components unless otherwise stated.

도 2는 본 개시의 일 실시 예에 따른 시스템의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating the configuration of a system according to an embodiment of the present disclosure.

도 2를 참조하면, 시스템(1000)은 카메라 모듈(100) 및 프로세싱 모듈(200)을 포함할 수 있다. Referring to FIG. 2 , the system 1000 may include a camera module 100 and a processing module 200 .

시스템(1000)에 포함된 각 모듈들은 서로 유선 또는 무선으로 직/간접 통신을 수행할 수 있으며, 각 모듈들은 동일한 장치에 포함되거나 또는 복수의 장치에 각각 포함될 수도 있다.Each module included in the system 1000 may perform direct/indirect communication with each other by wire or wirelessly, and each module may be included in the same device or may be included in a plurality of devices, respectively.

일 예로, 카메라 모듈(100) 및 프로세싱 모듈(200)이 모두 기관 삽관 교육을 위한 마네킹에 포함되어 있을 수도 있고, 또는 카메라 모듈(100)은 마네킹에 포함되어 있고 프로세싱 모듈(200)은 적어도 하나의 모니터링 장치 또는 단말 장치에 포함될 수도 있다.As an example, both the camera module 100 and the processing module 200 may be included in a mannequin for tracheal intubation training, or the camera module 100 is included in the mannequin and the processing module 200 is at least one It may be included in a monitoring device or a terminal device.

시스템(1000)에 포함된 각 모듈들은 각 모듈의 동작을 위한 제어용 IC(Integrated Circuit)를 포함하거나 및/또는 적어도 하나의 프로세서 및 메모리를 포함할 수 있다.Each module included in the system 1000 may include an integrated circuit (IC) for controlling the operation of each module and/or may include at least one processor and memory.

카메라 모듈(100)은 기관을 바라보는 피교육자의 시선을 추적하는 데에 이용되는 이미지를 획득하기 위한 모듈이다.The camera module 100 is a module for acquiring an image used to track the gaze of the trainee looking at the institution.

이를 위해, 카메라 모듈(100)은 기관 삽관 교육을 위한 마네킹의 기관 내에 구비된 적어도 하나의 카메라를 포함할 수 있다.To this end, the camera module 100 may include at least one camera provided in the trachea of the mannequin for tracheal intubation training.

카메라는 기관 내에서 기관의 입구 방향을 바라보도록 설치될 수 있다.The camera may be installed to face the entrance direction of the trachea within the trachea.

카메라는 적어도 하나의 광 센서 내지는 이미지 센서를 포함할 수 있으며, RGB 카메라, 뎁스 카메라, 스테레오 카메라 등 다양한 종류의 카메라로 구현될 수 있다.The camera may include at least one optical sensor or an image sensor, and may be implemented as various types of cameras, such as an RGB camera, a depth camera, and a stereo camera.

카메라 모듈(100)은 카메라의 촬영을 제어하고 이미지를 생성 및 저장하기 위한 적어도 하나의 회로 내지는 칩을 포함할 수 있다. 구체적으로, 카메라 모듈(100)은 카메라의 초점, 조리개 개방 등 다양한 촬영 요소를 자동으로 조정하여 촬영을 수행할 수 있다.The camera module 100 may include at least one circuit or chip for controlling photographing of a camera and generating and storing an image. Specifically, the camera module 100 may perform photographing by automatically adjusting various photographing factors, such as a focus of a camera and an aperture opening.

또한, 카메라 모듈(100)은 카메라(100)가 바라보는 각도를 조정하기 위한 다양한 기계적 구성을 포함할 수 있다. 일 예로, 카메라 모듈(100)은 카메라(100)가 바라보는 각도를 변경하기 위한 적어도 하나의 회전 부재 내지는 롤링 부재를 이용할 수 있다.In addition, the camera module 100 may include various mechanical components for adjusting the viewing angle of the camera 100 . For example, the camera module 100 may use at least one rotating member or a rolling member for changing the viewing angle of the camera 100 .

도 3a 내지 도 3b는 본 개시의 일 실시 예에 따른 시스템 내 카메라의 위치를 설명하기 위한 도면들이다.3A to 3B are diagrams for explaining a position of a camera in a system according to an embodiment of the present disclosure.

도 3a는 마네킹을 옆에서 본 단면에 해당한다.Figure 3a corresponds to a cross-section of the mannequin viewed from the side.

도 3a를 참조하면, 카메라(301)는 기관 내벽 중 식도와 반대쪽에 위치하는 내벽 상에 부착될 수 있으며, 기관의 입구 방향을 바라보도록 설치될 수 있다.Referring to FIG. 3A , the camera 301 may be attached to an inner wall of the trachea opposite to the esophagus, and may be installed to face the entrance direction of the trachea.

여기서, 마네킹의 머리가 뒤로 젖혀지고 턱이 들리는 경우, 성문이 위치하는 기관의 입구가 마네킹의 입을 통해 외부로 보이게 될 수 있다. 이때는, 카메라(301) 역시 외부로 보여지는 동시에 카메라(301)가 외부를 촬영할 수 있게 된다.Here, when the head of the mannequin is tilted back and the chin is raised, the entrance of the organ in which the glottis is located may be externally visible through the mouth of the mannequin. In this case, the camera 301 is also viewed from the outside, and the camera 301 can photograph the outside.

도 3b는 (마네킹의 머리가 뒤로 젖혀진 결과) 외부에서 마네킹의 입을 통해 볼 수 있는 성문 및 기관의 입구, 그리고 주변 부위의 모습을 도시한 이미지이다.FIG. 3B is an image showing the entrance of the glottis and trachea, as well as the surrounding area, which can be seen through the mouth of the mannequin from the outside (as a result of the mannequin's head tilted back).

도 3b를 참조하면, 도 3a의 카메라(301)는 기관 내부에 위치함에 따라 성문 사이에 위치하는 것으로 보일 수 있다.Referring to FIG. 3B , the camera 301 of FIG. 3A may be seen to be positioned between the glottis as it is positioned inside the trachea.

한편, 도 3a 내지 도 3b는 카메라의 위치에 대한 일 실시 예에 불과할 뿐, 이밖에 다양한 위치가 이용될 수 있음은 물론이다. 예를 들어, 카메라는 기관의 입구 내지는 성문의 외면에 부착될 수도 있고, 기관의 내벽 중 식도와 반대쪽에 위치하는 내벽 외의 다른 쪽의 내벽(ex. 식도와 가까운 쪽의 내벽 또는 좌/우측의 내벽) 상에 부착되는 것도 가능하다.Meanwhile, it goes without saying that FIGS. 3A to 3B are merely exemplary of the location of the camera, and various other locations may be used. For example, the camera may be attached to the entrance to the trachea or the outer surface of the glottis, and one of the inner walls of the trachea other than the inner wall opposite to the esophagus (ex. the inner wall close to the esophagus or the left/right inner wall) ) can also be attached to the top.

프로세싱 모듈(200)은 시스템(1000)에 포함된 구성(모듈)을 전반적으로 제어하기 위한 모듈이다.The processing module 200 is a module for overall controlling the components (modules) included in the system 1000 .

일 예로, 프로세싱 모듈(200)은 카메라 모듈(100)로 하여금 촬영을 수행하도록 하는 제어 신호를 카메라 모듈(100)로 전송할 수도 있다.For example, the processing module 200 may transmit a control signal for causing the camera module 100 to perform photographing to the camera module 100 .

프로세싱 모듈(200)은 하나 이상의 프로세서 및 메모리를 포함할 수 있다.The processing module 200 may include one or more processors and memory.

프로세서는 CPU(Central Processing Unit), AP(Application Processor), GPU(Graphic Processing Unit), VPU(Video Processing Unit), NPU(Neural Processing Unit) 등 다양한 유닛으로 구성될 수 있다.The processor may include various units such as a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), a video processing unit (VPU), and a neural processing unit (NPU).

메모리는 프로세싱 모듈(200)은 전반적인 동작을 제어하기 위한 운영체제, 인스트럭션 또는 데이터 등을 저장하기 위한 구성이다.The memory is a configuration for storing an operating system, instructions, or data for controlling the overall operation of the processing module 200 .

도 4는 본 개시의 일 실시 예에 따른 시스템의 동작을 설명하기 위한 흐름도이다.4 is a flowchart illustrating an operation of a system according to an embodiment of the present disclosure.

도 4를 참조하면, 카메라 모듈(100)은 상술한 카메라를 통해 적어도 하나의 이미지를 획득할 수 있다(S410). 구체적으로, 프로세싱 모듈(200)로부터 촬영 수행을 요청하는 제어 신호가 수신되면, 카메라 모듈(100)은 카메라를 통해 촬영을 수행할 수 있다.Referring to FIG. 4 , the camera module 100 may acquire at least one image through the aforementioned camera (S410). Specifically, when a control signal requesting to perform photographing is received from the processing module 200 , the camera module 100 may perform photographing through the camera.

일 실시 예로, 기관 삽관 실습이 시작되었음을 알리는 적어도 하나의 사용자 명령(버튼 조작, 터치 패드 조작, 음성 명령 등)이 수신되면, 프로세싱 모듈(200)은 촬영 수행을 요청하는 제어 신호를 카메라 모듈(100)로 전송할 수 있다.In one embodiment, when at least one user command (button manipulation, touch pad manipulation, voice command, etc.) notifying that tracheal intubation practice has started is received, the processing module 200 transmits a control signal requesting to perform imaging to the camera module 100 ) can be transmitted.

또는, 마네킹 내에 구비된 적어도 하나의 센서를 통해 마네킹의 머리가 젖혀지거나 또는 입이 벌어지는 등의 이벤트가 감지되는 경우, 프로세싱 모듈(200)은 촬영 수행을 요청하는 제어 신호를 카메라 모듈(100)로 전송할 수 있다.Alternatively, when an event such as tilting of the mannequin's head or opening of its mouth is detected through at least one sensor provided in the mannequin, the processing module 200 transmits a control signal requesting photographing to the camera module 100 . can be transmitted

또는, 마네킹의 기관의 입구에 구비된 별도의 광 센서를 통해 기관 입구의 조도가 임계치 이상으로 밝아진 것으로 식별되면, 프로세싱 모듈(200)은 촬영 수행을 요청하는 제어 신호를 카메라 모듈(100)로 전송할 수 있다. 즉, 마네킹의 입이 벌려지고 머리가 젖혀지면서 외부의 빛이 기관 입구로 들어오는 것이 감지됨에 따라 촬영이 시작될 수 있다.Alternatively, when it is identified that the illuminance of the entrance of the organ is brighter than the threshold through a separate optical sensor provided at the entrance of the organ of the mannequin, the processing module 200 transmits a control signal requesting to perform the photographing to the camera module 100 . can That is, as the mannequin's mouth is opened and its head is tilted, it is sensed that external light enters the trachea, and thus shooting may start.

그리고, 도 4를 참조하면, 프로세싱 모듈(200)은, 획득된 이미지를 기반으로, 피교육자가 마네킹의 성문을 보았는지 여부를 판단할 수 있다(S420).And, referring to FIG. 4 , the processing module 200 may determine whether the trainee saw the voice gate of the mannequin based on the acquired image ( S420 ).

여기서, 프로세싱 모듈(200)은 획득된 이미지에 포함된 눈 또는 동공을 식별하고, 식별된 눈 또는 동공의 방향(각도), 위치, 및 모양 중 적어도 하나를 이용하여 피교육자가 마네킹의 성문을 보는지 여부를 판단할 수 있다.Here, the processing module 200 identifies the eye or pupil included in the acquired image, and whether the trainee sees the glottis of the mannequin using at least one of the identified eye or pupil direction (angle), position, and shape. can be judged

관련하여, 도 5는 본 개시의 일 실시 예에 따른 시스템이 카메라를 통해 촬영된 이미지를 기반으로 피교육자의 시선을 추적하는 동작을 설명하기 위한 도면이다.In relation to this, FIG. 5 is a diagram for explaining an operation in which a system according to an embodiment of the present disclosure tracks a gaze of a trainee based on an image captured by a camera.

도 5를 참조하면, 프로세싱 모듈(200)은 카메라 모듈(100)을 통해 촬영된 이미지(510) 내에서 동공(511)을 식별할 수 있다.Referring to FIG. 5 , the processing module 200 may identify a pupil 511 in an image 510 captured by the camera module 100 .

이를 위해, 프로세싱 모듈(200)은 이미지가 입력되면 동공 또는 눈을 식별하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수 있다.To this end, the processing module 200 may use at least one artificial intelligence model trained to identify a pupil or an eye when an image is input.

인공지능 모델은 CNN(Convolutional Neural Networks) 기반으로 훈련된 객체 인식 모델일 수 있으나 이에 한정되지 않는다. 인공지능 모델은 프로세싱 모듈(200)의 메모리 또는 프로세싱 모듈(200)과 연결된 별도의 메모리 내에 데이터 형태로 저장되어 있을 수 있다.The AI model may be an object recognition model trained based on Convolutional Neural Networks (CNN), but is not limited thereto. The artificial intelligence model may be stored in the form of data in a memory of the processing module 200 or a separate memory connected to the processing module 200 .

프로세싱 모듈(200)은 카메라 모듈(100)을 통해 순차적으로 촬영된 복수의 이미지 각각에 포함된 동공(511)을 식별하면서 동공(511)을 추적할 수도 있다.The processing module 200 may track the pupil 511 while identifying the pupil 511 included in each of a plurality of images sequentially photographed through the camera module 100 .

그리고, 프로세싱 모듈(200)은 동공(511)의 각도, 모양 등을 기반으로 동공(511)이 카메라 및 성문을 바라보고 있는지 여부를 판단할 수 있다.In addition, the processing module 200 may determine whether the pupil 511 is looking at the camera and the glottis based on the angle, shape, etc. of the pupil 511 .

구체적인 예로, 이미지(510)에 포함된 동공(511)의 모양이 균일한 원에 가까울수록, 동공(511)이 성문을 바라보고 있을 가능성이 높게 판단될 수 있다.As a specific example, the closer the shape of the pupil 511 included in the image 510 is to a uniform circle, the higher the probability that the pupil 511 is facing the glottis may be determined.

반면, 이미지(510)에 포함된 동공(511)의 모양이 찌그러진 타원 형태인 경우라면, 프로세싱 모듈(200)은 피교육자가 성문을 바라보지 않는 것으로 식별할 수 있다.On the other hand, if the shape of the pupil 511 included in the image 510 is a distorted oval shape, the processing module 200 may identify that the trainee does not look at the glottis.

또한, 프로세싱 모듈(200)은 동공이 바라보는 시선 방향을 식별하도록 훈련된 인공지능 모델에 이미지(510)를 입력할 수도 있다.In addition, the processing module 200 may input the image 510 into an artificial intelligence model trained to identify a gaze direction in which the pupil is looking.

여기서, 인공지능 모델을 통해 판단된 동공의 시선 방향이 카메라(성문이 있는 방향)를 바라보는 방향에 매칭되는지 여부에 따라, 프로세싱 모듈(200)은 피교육자가 성문 방향(카메라 방향)을 바라보는지 여부를 식별할 수 있다.Here, according to whether the gaze direction of the pupil determined through the artificial intelligence model matches the direction looking at the camera (the direction of the glottis), the processing module 200 determines whether the trainee looks at the direction of the glottis (camera direction) can be identified.

한편, 프로세싱 모듈(200)은 피교육자가 마네킹의 성문을 보았는지 여부에 따라 피교육자의 기관 삽관에 대한 스코어를 산정할 수도 있다. 스코어는, 피교육자가 수행한 기관 삽관이 절차적으로 얼마나 성공적이었는지를 나타내는 척도로 이용될 수 있다.On the other hand, the processing module 200 may calculate a score for the intubation of the trainee according to whether the trainee saw the glottis of the mannequin. The score may be used as a measure of how successful the tracheal intubation performed by the trainee was procedurally.

구체적인 예로, 프로세싱 모듈(200)은, 이미지 내에서 피교육자의 동공이 식별되지 않는 경우, 피교육자의 기관 삽관에 제1 스코어를 부여할 수 있다. 그리고, 이미지 내에서 피교육자의 동공이 식별되었으나 피교육자가 마네킹의 성문을 보지 않은 것으로 판단된 경우, 프로세싱 모듈(200)은 피교육자의 기관 삽관에 제1 스코어보다 높은 제2 스코어를 부여할 수 있다. 그리고, 피교육자가 마네킹의 성문을 본 것으로 판단된 경우, 프로세싱 모듈(200)은 피교육자의 기관 삽관에 제2 스코어보다 높은 제3 스코어를 부여할 수 있다.As a specific example, the processing module 200 may assign a first score to tracheal intubation of the trainee when the pupil of the trainee is not identified in the image. In addition, when the pupil of the trainee is identified in the image, but it is determined that the trainee has not seen the glottis of the mannequin, the processing module 200 may give a second score higher than the first score to the trainee's tracheal intubation. And, when it is determined that the trainee has seen the glottis of the mannequin, the processing module 200 may give a third score higher than the second score to the trainee's tracheal intubation.

다만, 프로세싱 모듈(200)은 피교육자가 마네킹의 성문을 보았는지 여부 외에, 피교육자가 마네킹의 성문을 보는 데까지 걸린 시간, 기관 내로 기관 삽관이 되었는지 여부, 기관 삽관이 얼마나 빠르게 수행되었는지 등의 요소를 추가로 고려하여 상술한 스코어를 산정할 수도 있다.However, the processing module 200, in addition to whether the trainee saw the glottis of the mannequin, the time it took for the trainee to see the glottis of the mannequin, whether the trachea was intubated into the trachea, and how quickly the tracheal intubation was performed. Taking this into consideration, the above-mentioned score may be calculated.

일 실시 예로, 프로세싱 모듈(200)은 피교육자가 마네킹의 성문을 보기까지 걸린 시간을 식별할 수 있다.In an embodiment, the processing module 200 may identify the time taken for the trainee to see the voice print of the mannequin.

일 예로, 프로세싱 모듈(200)은 기관 삽관 실습의 시작을 알리는 적어도 하나의 사용자 명령(버튼 조작, 터치 패드 조작, 음성 명령 등)이 수신된 시점을 기준으로 하여, 피교육자(실습자)가 마네킹의 성문을 보기까지 시점까지 걸린 시간을 측정할 수 있다.As an example, the processing module 200 determines that at least one user command (button manipulation, touch pad manipulation, voice command, etc.) for notifying the start of tracheal intubation practice is received, based on the time point at which the trainee (trainee) can use the mannequin You can measure the time it takes to see the gates.

여기서, 사용자 명령은, 프로세싱 모듈(200)과 통신을 수행하는 모니터링 장치, 단말 장치, 또는 원격 제어 장치 등의 사용자 입력 모듈(ex. 버튼, 터치 패드, 마이크 등 포함)을 통해 입력되는 교육자 또는 피교육자의 명령일 수 있다.Here, the user command is an educator or trainee inputted through a user input module (eg, including a button, a touch pad, a microphone, etc.) such as a monitoring device, a terminal device, or a remote control device that communicates with the processing module 200 . may be a command of

또는, 사용자 명령은, 마네킹에 부착되어 프로세싱 모듈(200)과 연결된 사용자 입력 모듈(ex. 버튼, 터치 패드 등 포함)을 통해 수신된 교육자 또는 피교육자의 명령일 수도 있다.Alternatively, the user command may be an educator or trainee command received through a user input module (eg, including a button, a touch pad, etc.) attached to the mannequin and connected to the processing module 200 .

다른 예로, 프로세싱 모듈(200)은 마네킹의 표면에 대한 터치 또는 마네킹의 머리가 젖혀짐이 적어도 하나의 센서를 통해 감지되는 시점을 기준으로 하여, 피교육자가 마네킹의 성문을 보기까지 걸린 시간을 측정할 수도 있다.As another example, the processing module 200 measures the time it takes for the trainee to see the glottis of the mannequin based on a point in time when a touch to the surface of the mannequin or tilting of the mannequin's head is sensed through at least one sensor. may be

상술한 실시 예에 따라 피교육자가 마네킹의 성문을 보기까지 걸린 시간이 측정되면, 프로세싱 모듈(200)은 그 시간이 짧을수록 스코어를 더 높게 산정할 수 있다.According to the above-described embodiment, if the time taken for the trainee to see the voice print of the mannequin is measured, the processing module 200 may calculate a higher score as the time is shorter.

이렇듯 피교육자가 성문을 확실히 보고 기관 삽관을 수행했는지 여부, 성문을 얼마나 빨리 찾았는지 여부 등이 정확하게 판단되어 실습의 성취도가 판단됨에 따라, 마네킹을 이용한 기관 삽관 교육의 효과가 더 커질 수 있다.As such, the effectiveness of tracheal intubation training using a mannequin can be increased as the performance of the practice is judged by accurately determining whether the trainee saw the glottis and performed tracheal intubation, and how quickly the glottis was found.

또한, 일 실시 예로, 프로세싱 모듈(200)은 마네킹의 기관 내에 관이 성공적으로 삽입되었는지 여부를 판단할 수 있다.Also, in one embodiment, the processing module 200 may determine whether the tube has been successfully inserted into the organ of the mannequin.

일 예로, 마네킹의 기관의 내벽에 삽입되는 관을 감지하기 위한 적어도 하나의 센서(ex. 압력 센서, 전류/전압 센서 등)가 기관의 내벽 또는 기관의 입구에 설치된 경우를 가정한다.As an example, it is assumed that at least one sensor (eg, a pressure sensor, a current/voltage sensor, etc.) for detecting a tube inserted into the inner wall of the organ of the mannequin is installed on the inner wall of the organ or the inlet of the organ.

여기서, 해당 센서를 통해 기관 내 삽입된 관이 감지되면, 프로세싱 모듈(200)은 기관 내에 관이 성공적으로 삽입된 것으로 식별될 수 있다.Here, when a tube inserted into the trachea is detected through the sensor, the processing module 200 may identify that the tube has been successfully inserted into the trachea.

그리고, 관이 성공적으로 삽입된 경우, 관이 삽입되지 않거나 식도로 삽입된 경우보다 스코어가 더 높게 산정될 수 있다.And, when the tube is successfully inserted, the score can be calculated higher than when the tube is not inserted or is inserted into the esophagus.

또한, 일 실시 예로, 프로세싱 모듈(200)은 기관 내에 관이 삽입되기까지 걸린 시간을 식별할 수도 있다.Also, in one embodiment, the processing module 200 may identify the time taken for the tube to be inserted into the trachea.

이때, 프로세싱 모듈(200)은 기관 내에 관이 삽입되기까지 걸린 시간을 기반으로 스코어를 산정할 수 있다. 여기서, 기관 내에 관이 삽입되기까지 걸린 시간이 짧을수록 스코어가 더 높게 산정될 수 있다.In this case, the processing module 200 may calculate a score based on the time taken until the tube is inserted into the organ. Here, the shorter the time it takes for the tube to be inserted into the trachea, the higher the score can be calculated.

한편, 본 개시의 일 실시 예에 따르면, 카메라 모듈(100)은 마네킹의 기관 내에 구비된 복수의 카메라를 이용할 수도 있다.Meanwhile, according to an embodiment of the present disclosure, the camera module 100 may use a plurality of cameras provided in the organ of the mannequin.

관련하여, 도 6a 내지 도 6b는 본 개시의 일 실시 예에 따른 시스템이 복수의 카메라를 이용하는 경우를 설명하기 위한 도면들이다.In relation to this, FIGS. 6A to 6B are diagrams for explaining a case in which a system according to an embodiment of the present disclosure uses a plurality of cameras.

도 6a를 참조하면, 카메라 모듈(100)은 기관 내벽에 각각 부착되어 기관 입구를 바라보는 복수의 카메라(601, 602, 603)를 포함할 수 있다.Referring to FIG. 6A , the camera module 100 may include a plurality of cameras 601 , 602 , and 603 respectively attached to the inner wall of the trachea and looking at the tracheal entrance.

그리고, 도 6b는, 도 6a의 상황에서 마네킹의 머리가 젖혀지는 경우, 외부에서 마네킹 내부를 바라보는 피교육자의 눈에 보일 수 있는 성문과 기관 내부의 구조를 도시한 것이다. And, Figure 6b, when the head of the mannequin is tilted in the situation of Figure 6a, shows the internal structure of the glottis and organs that can be seen by the trainee looking at the inside of the mannequin from the outside.

도 6b를 참조하면, 도 6a의 카메라들(601, 602, 603) 각각이 보이는 위치는 식도로부터 점차 멀어질 수 있다.Referring to FIG. 6B , positions at which each of the cameras 601 , 602 , and 603 of FIG. 6A are viewed may gradually move away from the esophagus.

이때, 프로세싱 모듈(200)은, 복수의 카메라(601, 602, 603) 각각을 통해 획득된 복수의 이미지를 기반으로, 피교육자에게 보여지는 (마네킹의) 성문의 비율을 식별할 수 있다. 즉, 피교육자가 성문 전체의 몇 퍼센트를 보았는지 여부가 판단될 수 있다.In this case, the processing module 200, based on the plurality of images acquired through each of the plurality of cameras (601, 602, 603), may identify the ratio of the (mannequin's) glottis shown to the trainee. That is, it can be determined whether or not the learner saw what percentage of the entire glottis.

이 경우, 프로세싱 모듈(200)은 카메라들(601, 602, 603) 각각을 통해 획득된 이미지 내에 피교육자의 동공이 포함되는지 여부를 판단할 수 있다.In this case, the processing module 200 may determine whether the pupil of the trainee is included in the image acquired through each of the cameras 601 , 602 , and 603 .

그리고, 일 예로, 카메라(601)를 통해 획득된 이미지 내에서만 피교육자의 동공이 식별되고 다른 카메라들(602, 603)을 통해 획득된 이미지들 내에서는 피교육자의 동공이 식별되지 않는 경우, 프로세싱 모듈(200)은 피교육자가 성문의 20퍼센트 까지만 본 것으로 판단할 수 있다.And, as an example, when the pupil of the trainee is identified only in the image acquired through the camera 601 and the pupil of the trainee is not identified in the images acquired through the other cameras 602 and 603, the processing module ( 200) can be judged that the trainee saw only 20% of the text.

다른 예로, 카메라(601) 및 카메라(602)를 통해 획득된 이미지들 내에서만 피교육자의 동공이 식별되고 다른 카메라(603)를 통해 획득된 이미지 내에서는 피교육자의 동공이 식별되지 않는 경우, 프로세싱 모듈(200)은 피교육자가 성문의 50퍼센트 까지만 본 것으로 판단할 수 있다.As another example, when the pupil of the trainee is identified only in the images acquired through the camera 601 and the camera 602 and the pupil of the trainee is not identified in the images acquired through the other camera 603, the processing module ( 200) can be judged that the trainee saw only 50% of the text.

다른 예로, 카메라들(601, 602, 603)을 통해 획득된 이미지들 모두에 피교육자의 동공이 포함된 경우, 프로세싱 모듈(200)은 피교육자가 성문의 100퍼센트를 본 것으로 판단할 수 있다.As another example, when the pupil of the trainee is included in all of the images acquired through the cameras 601 , 602 , and 603 , the processing module 200 may determine that the trainee saw 100% of the glottis.

그리고, 프로세싱 모듈(200)은, 피교육자가 본 성문의 비율이 높을수록, 상술한 스코어를 더 높게 산정할 수 있다.In addition, the processing module 200 may calculate the above-mentioned score to be higher as the ratio of the glottis seen by the trainee is higher.

한편, 일 실시 예에 따르면, 프로세싱 모듈(200)은 카메라 모듈(100)을 통해 촬영된 이미지를 기반으로 카메라 모듈(100)이 바라보는 방향이 기관의 입구 방향인지 여부를 식별할 수 있다.Meanwhile, according to an embodiment, the processing module 200 may identify whether the direction the camera module 100 looks at is the entrance direction of the organ based on the image captured by the camera module 100 .

그리고, 식별된 방향이 기관의 입구 방향과 다른 경우, 프로세싱 모듈(200)은 기관의 입구 방향에 따라 카메라의 각도를 조절하도록 카메라 모듈(100)을 제어할 수 있다.And, when the identified direction is different from the entrance direction of the organ, the processing module 200 may control the camera module 100 to adjust the angle of the camera according to the entrance direction of the organ.

구체적인 예로, 프로세싱 모듈(200)은 카메라를 통해 촬영되는 이미지 내 기설정된 영역(ex. 중앙) 내에 기관의 입구가 포함되도록 카메라의 각도를 조정할 수 있다.As a specific example, the processing module 200 may adjust the angle of the camera so that the entrance of the organ is included in a preset area (eg, the center) in the image captured by the camera.

이를 위해, 프로세싱 모듈(200)은 이미지 내에서 기관의 입구를 식별할 수 있으며, 기관 내벽과 기관 입구를 구분하기 위한 적어도 하나의 알고리즘 내지는 인공지능 모델을 이용할 수 있다.To this end, the processing module 200 may identify the entrance of the trachea in the image, and may use at least one algorithm or artificial intelligence model for distinguishing the endotracheal wall and the entrance to the trachea.

상술한 실시 예에 따라, 카메라가 기관 내벽만을 촬영하거나 또는 기관 내 더 깊숙한 곳을 촬영하는 등 엉뚱한 방향을 촬영하는 상황이 방지될 수 있다.According to the above-described embodiment, a situation in which the camera takes pictures of only the inner wall of the trachea or a deeper part of the trachea may be prevented from being photographed in the wrong direction.

한편, 도 7은 본 개시의 다양한 실시 예에 따른 시스템의 구성 및 동작을 설명하기 위한 블록도이다.Meanwhile, FIG. 7 is a block diagram for explaining the configuration and operation of a system according to various embodiments of the present disclosure.

도 7을 참조하면, 시스템(1000)은 카메라 모듈(100) 및 프로세싱 모듈(200) 외에 출력 모듈(300), 센서 모듈(400), 사용자 입력 모듈(500) 등을 더 포함할 수 있다.Referring to FIG. 7 , the system 1000 may further include an output module 300 , a sensor module 400 , a user input module 500 , and the like in addition to the camera module 100 and the processing module 200 .

상술한 모듈들 각각은 마네킹에 포함되거나 또는 적어도 하나의 단말 장치, 모니터링 장치, 원격 제어 장치 등에 포함될 수 있다.Each of the above-described modules may be included in a mannequin or may be included in at least one terminal device, a monitoring device, a remote control device, or the like.

프로세싱 모듈(200)은 시스템(1000)에 포함되는 각 모듈들과 무선 또는 유선 통신으로 연결되어 각 모듈을 제어할 수 있다.The processing module 200 may be connected to each module included in the system 1000 through wireless or wired communication to control each module.

출력 모듈(300)은 교육자 또는 피교육자에게 다양한 정보를 제공하기 위한 모듈이다.The output module 300 is a module for providing various information to an educator or trainee.

출력 모듈(300)은 적어도 하나의 디스플레이, 스피커, LED 전구 등을 포함할 수 있다.The output module 300 may include at least one display, a speaker, an LED light bulb, and the like.

일 예로, 프로세싱 모듈(200)은 피교육자가 성문을 보았는지 여부를 알려주는 정보를 출력 모듈(300)의 디스플레이 상에 표시하거나 또는 출력 모듈(300)의 스피커를 통해 음성으로 출력할 수 있다.As an example, the processing module 200 may display information indicating whether the trainee saw the voice print on the display of the output module 300 or output it as a voice through the speaker of the output module 300 .

또한, 일 예로, 프로세싱 모듈(200)은 피교육자가 성문을 보기 전까지는 출력 모듈(300)의 LED 전구가 적색 빛을 출력하도록 제어하다가, 피교육자가 성문을 본 것으로 판단된 이후에는 LED 전구가 녹색 빛을 출력하도록 제어할 수 있다.In addition, as an example, the processing module 200 controls the LED bulb of the output module 300 to output a red light until the trainee sees the voice gate, and after it is determined that the trainee sees the voice gate, the LED bulb turns on a green light output can be controlled.

또한, 프로세싱 모듈(200)은 피교육자가 성문을 보기까지 걸린 시간, 기관 내 관의 삽입 여부, 기관 내 관이 삽입되는 데에 걸린 시간 등에 대한 정보를 출력하도록 출력 모듈(300)을 제어할 수 있다.In addition, the processing module 200 may control the output module 300 to output information about the time it takes for the trainee to see the glottis, whether the intratracheal tube is inserted, the time it takes for the intratracheal tube to be inserted, etc. .

또한, 프로세싱 모듈(200)은 피교육자의 실습에 따라 산정된 스코어를 제공하도록 출력 모듈(300)을 제어할 수도 있다.Also, the processing module 200 may control the output module 300 to provide a score calculated according to the trainee's practice.

센서 모듈(400)은 마네킹과 관련된 다양한 정보를 획득하기 위한 구성이다.The sensor module 400 is configured to acquire various information related to the mannequin.

센서 모듈(400)은 다양한 센서를 포함할 수 있다. 구체적으로, 센서 모듈(400)은 마네킹 표면에 대한 피교육자의 터치를 감지하기 위한 센서, 마네킹의 입이 열렸는지 여부를 감지하기 위한 센서, 마네킹의 기관 입구의 조도를 측정하기 위한 센서, 마네킹의 기관 내에 관이 삽입되었는지 여부를 감지하기 위한 센서, 마네킹의 식도 내 관이 삽입되었는지 여부를 감지하기 위한 센서, 마네킹의 구강/기관/식도 내 적어도 일부 영역에 대한 임계치 이상의 불필요한 충격을 감지하기 위한 센서 등 다양한 센서를 포함할 수 있다.The sensor module 400 may include various sensors. Specifically, the sensor module 400 includes a sensor for detecting the trainee's touch on the mannequin surface, a sensor for detecting whether the mouth of the mannequin is open, a sensor for measuring the illuminance of the entrance of the mannequin's organ, and the mannequin's organ A sensor for detecting whether a tube has been inserted into the esophagus, a sensor for detecting whether a tube has been inserted into the mannequin's esophagus, a sensor for detecting unnecessary impacts above a threshold value on at least some areas in the mouth/trachea/esophagus of the mannequin, etc. It may include various sensors.

사용자 입력 모듈(500)은 기관 삽관 교육과 관련된 다양한 사용자 명령을 수신하기 위한 구성이다.The user input module 500 is configured to receive various user commands related to tracheal intubation training.

사용자 입력 모듈(500)은 적어도 하나의 버튼, 터치 패드, 마이크 등을 포함할 수 있다.The user input module 500 may include at least one button, a touch pad, a microphone, and the like.

프로세싱 모듈(200)은 사용자 입력 모듈(500)을 통해 기관 삽관 실습의 시작을 위한 사용자 명령을 수신할 수 있다.The processing module 200 may receive a user command for initiating a tracheal intubation exercise through the user input module 500 .

또한, 프로세싱 모듈(200)은 사용자 입력 모듈(500)을 통해 수신되는 사용자 명령에 따라 시스템(1000)을 활성화시킬 수도 있다. In addition, the processing module 200 may activate the system 1000 according to a user command received through the user input module 500 .

구체적으로, 프로세싱 모듈(200)은 사용자 명령에 따라 카메라 모듈(100)을 활성화시켜 촬영을 수행하도록 제어할 수 있다. 그리고, 프로세싱 모듈(200)은 활성화된 카메라 모듈(100)을 통해 촬영된 이미지를 분석하여 피교육자가 성문을 보았는지 여부를 판단할 수 있다.Specifically, the processing module 200 may control to activate the camera module 100 according to a user command to perform photographing. Then, the processing module 200 may analyze the image taken through the activated camera module 100 to determine whether the trainee saw the voice gate.

한편, 이상에서 설명된 다양한 실시 예들은 서로 저촉되지 않는 한 복수의 실시 예가 결합되어 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented by combining a plurality of embodiments as long as they do not conflict with each other.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 시스템 내 각 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기 내지는 시스템 내의 적어도 하나의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따라 시스템에 포함되는 각 모듈에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions or a computer program for performing a processing operation in each device in the system according to various embodiments of the present disclosure described above are stored in a non-transitory computer-readable medium. can be saved. The computer instructions or computer program stored in such a non-transitory computer-readable medium are specific devices or computer programs that, when executed by at least one processor in the system, describe the processing operation in each module included in the system according to the various embodiments described above. Let the device do it.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is commonly used in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of

1000: 시스템 100: 카메라 모듈
200: 프로세싱 모듈
1000: system 100: camera module
200: processing module

Claims (9)

기관 삽관 교육을 위한 시스템의 제어 방법에 있어서,
카메라 모듈이, 기관 삽관 교육을 위한 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 카메라를 통해, 이미지를 획득하는 단계; 및
프로세싱 모듈이, 상기 획득된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는 단계;를 포함하고,
상기 이미지를 획득하는 단계는,
상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 복수의 카메라 각각을 통해 복수의 이미지를 획득하고,
상기 시스템의 제어 방법은,
상기 프로세싱 모듈이, 상기 획득된 복수의 이미지를 기반으로, 상기 피교육자에게 보인 상기 마네킹의 성문의 비율을 식별하는 단계;를 더 포함하는, 시스템의 제어 방법.
In the control method of a system for tracheal intubation training,
The camera module is provided in the trachea of a mannequin for tracheal intubation training, and acquiring an image through a camera facing the entrance direction of the trachea; and
Including, by the processing module, based on the acquired image, determining whether the trainee saw the voice gate of the mannequin;
Acquiring the image includes:
It is provided in the organ of the mannequin to acquire a plurality of images through each of a plurality of cameras facing the entrance direction of the organ,
The control method of the system,
The step of the processing module, based on the obtained plurality of images, identifying the ratio of the glottis of the mannequin shown to the trainee; further comprising a control method of the system.
제1항에 있어서,
상기 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는 단계는,
상기 이미지 내에서 상기 피교육자의 동공을 식별하고,
상기 식별된 동공의 각도 및 모양 중 적어도 하나를 기반으로 상기 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는, 시스템의 제어 방법.
According to claim 1,
The step of determining whether the trainee saw the voice gate of the mannequin,
identifying the pupil of the trainee within the image;
The control method of the system, which determines whether the trainee saw the glottis of the mannequin based on at least one of the identified angle and shape of the pupil.
제2항에 있어서,
상기 시스템의 제어 방법은,
상기 피교육자가 상기 마네킹의 성문을 보았는지 여부에 따라 상기 피교육자의 기관 삽관에 대한 스코어를 산정하는 단계;를 더 포함하고,
상기 스코어를 산정하는 단계는,
상기 이미지 내에서 상기 피교육자의 동공이 식별되지 않는 경우, 상기 피교육자의 기관 삽관에 제1 스코어를 부여하고,
상기 이미지 내에서 상기 피교육자의 동공이 식별되었으나 상기 피교육자가 상기 마네킹의 성문을 보지 않은 것으로 판단된 경우, 상기 피교육자의 기관 삽관에 상기 제1 스코어보다 높은 제2 스코어를 부여하고,
상기 피교육자가 상기 마네킹의 성문을 본 것으로 판단된 경우, 상기 피교육자의 기관 삽관에 상기 제2 스코어보다 높은 제3 스코어를 부여하는, 시스템의 제어 방법.
3. The method of claim 2,
The control method of the system,
Calculating a score for tracheal intubation of the trainee according to whether the trainee saw the glottis of the mannequin; further comprising,
The step of calculating the score is
If the pupil of the trainee is not identified in the image, a first score is given to tracheal intubation of the trainee;
When the pupil of the trainee is identified in the image, but it is determined that the trainee has not seen the glottis of the mannequin, a second score higher than the first score is given to the tracheal intubation of the trainee;
When it is determined that the trainee has seen the glottis of the mannequin, a third score higher than the second score is given to the tracheal intubation of the trainee.
제3항에 있어서,
상기 스코어를 산정하는 단계는,
상기 피교육자가 상기 마네킹의 성문을 보기까지 걸린 시간을 기반으로 스코어를 산정하는, 시스템의 제어 방법.
4. The method of claim 3,
The step of calculating the score is
A method for controlling a system, wherein a score is calculated based on the time taken for the trainee to see the voice gate of the mannequin.
삭제delete 제1항에 있어서,
상기 시스템의 제어 방법은,
상기 카메라를 통해 촬영된 이미지를 기반으로, 상기 카메라가 바라보는 방향이 상기 마네킹의 기관의 입구 방향인지 여부를 식별하는 단계; 및
상기 식별된 방향이 상기 기관의 입구 방향과 다른 경우, 상기 기관의 입구 방향에 따라 상기 카메라의 각도를 조절하도록 상기 카메라 모듈을 제어하는 단계;를 더 포함하는, 시스템의 제어 방법.
According to claim 1,
The control method of the system,
based on the image captured by the camera, identifying whether the direction in which the camera is looking is the entrance direction of the organ of the mannequin; and
When the identified direction is different from the entrance direction of the engine, controlling the camera module to adjust the angle of the camera according to the entrance direction of the engine; further comprising, the control method of the system.
기관 삽관 교육을 위한 시스템에 있어서,
기관 삽관 교육을 위한 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 촬영하도록 설치된 카메라를 제어하기 위한, 카메라 모듈; 및
상기 카메라를 통해 촬영된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는, 프로세싱 모듈;을 포함하고,
상기 카메라 모듈은,
상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 복수의 카메라 각각을 통해 복수의 이미지를 획득하고,
상기 프로세싱 모듈은,
상기 획득된 복수의 이미지를 기반으로, 상기 피교육자에게 보인 상기 마네킹의 성문의 비율을 식별하는, 시스템.
A system for tracheal intubation education, comprising:
a camera module provided in the trachea of a mannequin for tracheal intubation training to control a camera installed to photograph the entrance direction of the trachea; and
Based on the image taken through the camera, a processing module that determines whether the trainee saw the voice gate of the mannequin; includes;
The camera module,
It is provided in the organ of the mannequin to obtain a plurality of images through each of a plurality of cameras facing the entrance direction of the organ,
The processing module,
identifying a proportion of the glottis of the mannequin shown to the trainee based on the acquired plurality of images.
기관 삽관 교육을 위한 마네킹에 있어서,
상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 촬영하도록 설치된 카메라를 제어하기 위한, 카메라 모듈; 및
상기 카메라를 통해 촬영된 이미지를 기반으로, 피교육자가 상기 마네킹의 성문을 보았는지 여부를 판단하는, 프로세싱 모듈;을 포함하고,
상기 카메라 모듈은,
상기 마네킹의 기관 내에 구비되어 상기 기관의 입구 방향을 바라보는 복수의 카메라 각각을 통해 복수의 이미지를 획득하고,
상기 프로세싱 모듈은,
상기 획득된 복수의 이미지를 기반으로, 상기 피교육자에게 보인 상기 마네킹의 성문의 비율을 식별하는, 마네킹.
In the mannequin for tracheal intubation education,
a camera module provided in the organ of the mannequin for controlling a camera installed to photograph the entrance direction of the organ; and
Based on the image taken through the camera, a processing module that determines whether the trainee saw the voice gate of the mannequin;
The camera module,
It is provided in the organ of the mannequin to acquire a plurality of images through each of a plurality of cameras facing the entrance direction of the organ,
The processing module,
A mannequin for identifying a ratio of the glottis of the mannequin shown to the trainee based on the acquired plurality of images.
삭제delete
KR1020200179241A 2020-12-21 2020-12-21 System for endotracheal intubation training, and control method KR102457342B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200179241A KR102457342B1 (en) 2020-12-21 2020-12-21 System for endotracheal intubation training, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200179241A KR102457342B1 (en) 2020-12-21 2020-12-21 System for endotracheal intubation training, and control method

Publications (2)

Publication Number Publication Date
KR20220089005A KR20220089005A (en) 2022-06-28
KR102457342B1 true KR102457342B1 (en) 2022-10-20

Family

ID=82268140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200179241A KR102457342B1 (en) 2020-12-21 2020-12-21 System for endotracheal intubation training, and control method

Country Status (1)

Country Link
KR (1) KR102457342B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240059918A (en) 2022-10-28 2024-05-08 한림대학교 산학협력단 Device and method for evaluating airway using picture of face and neck

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050244801A1 (en) * 2004-04-28 2005-11-03 Desalvo Antonino System and method of training the proper placement of airway adjuncts in a training manikin
JP2010085687A (en) 2008-09-30 2010-04-15 Waseda Univ Position-detecting device, program thereof, monitoring system, and device for training person to insert tube into trachea
JP2013020201A (en) 2011-07-14 2013-01-31 Nippon Dental Univ Medical training system
JP2016080752A (en) * 2014-10-10 2016-05-16 学校法人早稲田大学 Medical activity training appropriateness evaluation device
US20190019434A1 (en) 2016-01-15 2019-01-17 The Regents Of The University Of California Parametrically adjustable airway training mannequin with instrumented parameter assessment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101883321B1 (en) 2017-11-16 2018-07-30 주식회사 비티 intubation training apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050244801A1 (en) * 2004-04-28 2005-11-03 Desalvo Antonino System and method of training the proper placement of airway adjuncts in a training manikin
JP2010085687A (en) 2008-09-30 2010-04-15 Waseda Univ Position-detecting device, program thereof, monitoring system, and device for training person to insert tube into trachea
JP2013020201A (en) 2011-07-14 2013-01-31 Nippon Dental Univ Medical training system
JP2016080752A (en) * 2014-10-10 2016-05-16 学校法人早稲田大学 Medical activity training appropriateness evaluation device
US20190019434A1 (en) 2016-01-15 2019-01-17 The Regents Of The University Of California Parametrically adjustable airway training mannequin with instrumented parameter assessment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240059918A (en) 2022-10-28 2024-05-08 한림대학교 산학협력단 Device and method for evaluating airway using picture of face and neck

Also Published As

Publication number Publication date
KR20220089005A (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US20100165092A1 (en) Image output apparatus, image output method and image output program
US20070229660A1 (en) Image recording apparatus, image recording method and image recording program
CN104781830B (en) The recognition methods of living person's eyes and identification device
US8150118B2 (en) Image recording apparatus, image recording method and image recording program stored on a computer readable medium
JP6809226B2 (en) Biometric device, biometric detection method, and biometric detection program
US9498123B2 (en) Image recording apparatus, image recording method and image recording program stored on a computer readable medium
JP4888217B2 (en) Person attribute estimation device
US20140062862A1 (en) Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
KR102457342B1 (en) System for endotracheal intubation training, and control method
CN111582238A (en) Living body detection method and device applied to face shielding scene
US20110279665A1 (en) Image recording apparatus, image recording method and image recording program
CN110135370A (en) The method and device of face In vivo detection, electronic equipment, computer-readable medium
JP4840978B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN106557752A (en) A kind of security protection control system and its method based on iris identification
WO2009107704A1 (en) Iris authentication device
KR20110006062A (en) System and method for face recognition
US11583728B2 (en) System and method for tracking and analyzing golf shot
JP2023166176A (en) Display control apparatus, method and program
KR101996039B1 (en) Apparatus for constructing training template of facial emotion recognition and method thereof
CN114466172B (en) Method and apparatus for determining biometric data using an infrared illuminator array
KR20210028199A (en) How to assess a child's risk of neurodevelopmental disorders
WO2024128315A1 (en) Program, computer device, and method
CN213781037U (en) Face identification attendance machine with prevent function of practising fraud
CN112597935A (en) Attention level detection method and device, computing equipment and storage medium
JP2024086582A (en) Program, computer device and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant