KR102149167B1 - 인공지능 기반의 캐뉼라 수술 진단 장치 - Google Patents
인공지능 기반의 캐뉼라 수술 진단 장치 Download PDFInfo
- Publication number
- KR102149167B1 KR102149167B1 KR1020180135636A KR20180135636A KR102149167B1 KR 102149167 B1 KR102149167 B1 KR 102149167B1 KR 1020180135636 A KR1020180135636 A KR 1020180135636A KR 20180135636 A KR20180135636 A KR 20180135636A KR 102149167 B1 KR102149167 B1 KR 102149167B1
- Authority
- KR
- South Korea
- Prior art keywords
- surgical
- cannula
- stroke
- patient
- data
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3417—Details of tips or shafts, e.g. grooves, expandable, bendable; Multiple coaxial sliding cannulas, e.g. for dilating
- A61B17/3421—Cannulas
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3415—Trocars; Puncturing needles for introducing tubes or catheters, e.g. gastrostomy tubes, drain catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2074—Interface software
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Radiology & Medical Imaging (AREA)
- Gynecology & Obstetrics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Surgical Instruments (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Urology & Nephrology (AREA)
Abstract
본 발명은 인공지능 기반의 캐뉼라 수술 진단 장치에 관한 것으로, 환자의 수술 과정에서 발생되는 캐뉼라(Cannula)의 스트로크(stroke)를 감지하는 캐뉼라 스트로크 감지부, 상기 캐뉼라의 스트로크를 기초로 생성된 수술 데이터를 수신하는 수술 데이터 처리부 및 기 학습된 수술 데이터를 기초로 상기 수신된 수술 데이터를 분석하여 상기 환자에 대한 수술 예후 정보를 생성하는 수술 예후 정보 생성부를 포함한다. 따라서, 본 발명은 캐뉼라의 움직임을 기초로 수술 결과를 예측하고 잘못된 움직임을 실시간으로 알려줄 수 있다.
Description
본 발명은 인공지능 기반의 캐뉼라 수술 진단 기술에 관한 것으로, 보다 상세하게는 캐뉼라의 움직임을 기초로 수술 결과를 예측하고 잘못된 움직임을 실시간으로 알려줄 수 있는 인공지능 기반의 캐뉼라 수술 진단 장치에 관한 것이다.
지방흡입술은 시술자가 피시술자를 시술하는 동안 고도의 집중력을 유지하여 시술장치를 조종하거나, 시술도구를 이용하여 시술시간 내내 직접 시술하기 때문에 시술자의 심각한 피로감을 유발하며, 오랜 시간의 시술로 인하여 저하된 집중력으로 출혈, 근육 파열 등의 시술사고가 증가하고, 이로 인한 환자의 부작용이 증가할 수 있는 문제점이 있다. 또한, 지방흡입술은 시술이 종료된 후 데이터화 된 결과를 알기 어려워 피시술자마다 각각의 시술 결과에 따른 후관리법이 아닌 일반적인 후관리법을 처방하기 때문에 완벽한 후관리가 힘든 문제점도 있다.
한국공개특허 제10-2012-0047896(2012.05.14)호는 센서와 하나 또는 그 이상의 캐뉼라들을 가진 전달 장치에 관한 것으로, 피하에 배치된 적어도 하나의 캐뉼라를 구비하거나 그것에 연결될 수 있는 베이스 파트를 제공하고, 베이스 파트는 환자의 피부에 베이스 파트를 고정하기 위한 접촉면 또는 장착면, 사용시 베이스 파트에 공급 약물 등을 연결하는 고정 수단, 및 센서 및/또는 전송기(transmitter) 유니트를 구비하고, 적어도 하나의 캐뉼라는 후퇴(retraction) 수단에 부착되거나 그것을 구비하고, 후퇴 수단은 적어도 하나의 캐뉼라를 그 피하적 사용 위치로부터 제거할 수 있고 환자의 피부와 결합하지 않은 위치로 캐뉼라를 후퇴시킬 수 있다.
한국공개특허 제10-2012-0115486(2012.10.18)호는 곡선형 캐뉼라 수술 시스템에 관한 것으로, 환자 몸의 동일한 개구를 통해서 연장된 강성 곡선형 캐뉼라들을 갖도록 로봇 수술 시스템이 구성될 수 있고, 의사가 직관적인 제어를 체험할 수 있도록 하는 방식으로 곡선형 캐뉼라들과 이들의 관련된 기구들을 움직이는 원격조종 제어 시스템을 개시하고 있다.
본 발명의 일 실시예는 캐뉼라의 움직임을 기초로 수술 결과를 예측하고 잘못된 움직임을 실시간으로 알려줄 수 있는 인공지능 기반의 캐뉼라 수술 진단 장치를 제공하고자 한다.
본 발명의 일 실시예는 수술자가 피수술자의 신체 정보를 확인하면서 수술이 가능하고, 삽입된 캐뉼라의 깊이를 실시간으로 확인이 가능하여 피수술자 체형에 따라 정확하고 안정성 높은 수술을 시행할 수 있는 인공지능 기반의 캐뉼라 수술 진단 장치를 제공하고자 한다.
본 발명의 일 실시예는 과거의 캐뉼라 수술에 대한 데이터를 인공지능 학습하여 이를 기초로 캐뉼라 움직임에 관한 실시간 피드백과 함께 수술 완료 이후 수술 결과를 예측하여 제공할 수 있는 인공지능 기반의 캐뉼라 수술 진단 장치를 제공하고자 한다.
실시예들 중에서, 인공지능 기반의 캐뉼라 수술 진단 장치는 환자의 수술 과정에서 발생되는 캐뉼라(Cannula)의 스트로크(stroke)를 감지하는 캐뉼라 스트로크 감지부, 상기 캐뉼라의 스트로크를 기초로 생성된 수술 데이터를 수신하는 수술 데이터 처리부 및 기 학습된 수술 데이터를 기초로 상기 수신된 수술 데이터를 분석하여 상기 환자에 대한 수술 예후 정보를 생성하는 수술 예후 정보 생성부를 포함한다.
상기 캐뉼라 스트로크 감지부는 상기 캐뉼라에 장착된 스트로크 감지 센서를 통해 상기 스트로크의 왕복 이동을 감지할 수 있다.
상기 캐뉼라 스트로크 감지부는 상기 스트로크의 왕복경로를 산출할 수 있다.
상기 수술 데이터 처리부는 상기 수술의 수행 전에 상기 환자의 천공 위치를 입력받고 상기 스트로크의 왕복경로를 상기 환자의 신체 내의 수술경로로 변환할 수 있다.
상기 수술 데이터 처리부는 상기 수술의 수행 전에 상기 환자의 스캔을 통해 획득된 신체 데이터를 입력받고, 상기 환자의 천공 위치를 상기 신체 데이터에 맵핑할 수 있다.
상기 수술 데이터 처리부는 상기 환자의 신체 내의 수술경로를 기초로 해당 스트로크의 실패 확률을 산출하고 상기 실패 확률이 기준 확률을 초과하는 경우 실시간 알림을 제공할 수 있다.
상기 수술 예후 정보 생성부는 상기 신체 데이터를 기초로 상기 수신된 수술 데이터에 상기 기 학습된 수술 데이터를 적용하여 상기 수술의 성공 확률을 상기 수술 예후 정보로서 생성할 수 있다.
상기 수술 예후 정보 생성부는 상기 수신된 수술 데이터 및 상기 환자에 대한 수술 예후 정보를 기초로 학습 데이터를 생성하여 상기 기 학습된 수술 데이터를 갱신할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 인공지능 기반의 캐뉼라 수술 진단 장치는 수술자가 피수술자의 신체 정보를 확인하면서 수술이 가능하고, 삽입된 캐뉼라의 깊이를 실시간으로 확인이 가능하여 피수술자 체형에 따라 정확하고 안정성 높은 수술을 시행할 수 있다.
본 발명의 일 실시예에 따른 인공지능 기반의 캐뉼라 수술 진단 장치는 과거의 캐뉼라 수술에 대한 데이터를 인공지능 학습하여 이를 기초로 캐뉼라 움직임에 관한 실시간 피드백과 함께 수술 완료 이후 수술 결과를 예측하여 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 캐뉼라 수술 진단 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 캐뉼라 수술 진단 장치를 설명하는 블록도이다.
도 3은 도 1에 있는 캐뉼라 수술 진단 장치에서 수행되는 캐뉼라 수술 진단 과정을 설명하는 순서도이다.
도 4는 도 2에 있는 수술 데이터 처리부가 수술 데이터를 처리하는 일 실시예를 설명하는 예시도이다.
도 2는 도 1에 있는 캐뉼라 수술 진단 장치를 설명하는 블록도이다.
도 3은 도 1에 있는 캐뉼라 수술 진단 장치에서 수행되는 캐뉼라 수술 진단 과정을 설명하는 순서도이다.
도 4는 도 2에 있는 수술 데이터 처리부가 수술 데이터를 처리하는 일 실시예를 설명하는 예시도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 캐뉼라 수술 진단 시스템을 설명하는 도면이다.
도 1을 참조하면, 인공지능 기반의 캐뉼라 수술 진단 시스템(100)은 캐뉼라(110), 캐뉼라 수술 진단 장치(130), 데이터베이스(150) 및 영상 표시 장치(170)를 포함할 수 있다.
캐뉼라(Cannula)(110)는 환자의 신체에 해당하는 수술 부위에 삽입되어 지방 등을 흡입할 수 있는 장치에 해당할 수 있다. 캐뉼라(110)는 몸속에 삽입하는 가늘고 긴 형태의 관을 포함할 수 있고, 해당 관의 선단부는 밀폐되고 후단부는 개방되며, 수술 부위- 예를 들어, 지방층 -에 삽입하여 전/후 방향으로 움직임으로써 지방 세포를 파괴하여 지방 세포를 외부로 추출할 수 있다. 캐뉼라(110)는 밀폐되는 선단부가 유선형으로 형성되어 수술 부위 삽입시 신체 내부 기관 또는 근육에 상처내는 것을 방지할 수 있다.
또한, 캐뉼라(110)는 액체나 공기를 통하게 하는 의료 기구에 해당하고 흉강이나 복강에 삽입하여 액체를 추출 또는 혈관 내에 삽입하여 채혈할 수 있으며, 기관절개술을 수행하는 경우 기관 내에 삽입하여 호흡할 수 있도록 하는 등 다양한 용도로 사용될 수 있다. 캐뉼라(110)는 홀의 사이즈와 개수 및 모양에 따라 다양한 형태로 구현될 수 있고, 수술 부위 및 용도에 따라 선택될 수 있다. 캐뉼라(110)는 캐뉼라 수술 진단 장치(130)와 유선으로 직접 연결되거나 네트워크를 통해 연결될 수 있다.
캐뉼라 수술 진단 장치(130)는 데이터베이스(150)와 연동하여 캐뉼라(110)의 움직임을 감지하고 캐뉼라 수술에 대한 진단을 제공할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 여기에서, 캐뉼라 수술은 캐뉼라(110)를 이용하여 수행되는 수술에 해당할 수 있고, 예를 들어, 캐뉼라(110)를 이용한 지방흡입술을 포함할 수 있다. 캐뉼라 수술 진단 장치(130)는 캐뉼라(110) 및 영상 표시 장치(170)와 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 유선 또는 무선 네트워크를 통해 캐뉼라(110) 및 영상 표시 장치(170)와 통신을 수행할 수 있다.
일 실시예에서, 캐뉼라 수술 진단 장치(130)는 데이터베이스(150)와 연동하여 캐뉼라 수술에 필요한 정보를 저장할 수 있다. 한편, 캐뉼라 수술 진단 장치(130)는 도 1과 달리, 캐뉼라(110), 데이터베이스(150) 또는 영상 표시 장치(170)를 내부에 포함하여 구현될 수 있다. 또한, 캐뉼라 수술 진단 장치(130)는 프로세서, 메모리, 사용자 입출력부 및 네트워크 입출력부를 포함하여 구현될 수 있다.
일 실시예에서, 캐뉼라 수술 진단 장치(130)는 사전에 다양한 수술 데이터를 학습하여 캐뉼라 수술 진단을 위하여 인공 지능 모델을 구축할 수 있다. 인공 지능 모델은 학습된 결과를 기초로 캐뉼라 수술 과정에서 수집된 수술 데이터에 대한 분석을 수행할 수 있고 해당 수술 데이터에 대한 예측 결과를 출력으로서 제공할 수 있다. 예를 들어, 인공 지능 모델은 다양한 지방흡입 수술에서 수집된 환자의 신체 정보, 캐뉼라(110)의 움직임에 관한 정보 및 수술 이후 경과 정보를 학습하여 구축될 수 있고, 실제 지방흡입 수술 과정에서 수집되는 수술 데이터를 분석하여 예상되는 캐뉼라(110) 스트로크의 정확성, 지방 흡입의 성공 확률 등에 대한 정보를 실시간으로 제공할 수 있다.
데이터베이스(150)는 캐뉼라 수술 진단 장치(130)가 캐뉼라의 움직임에 따라 예상되는 수술 결과를 제공하는 과정에서 필요한 다양한 정보들을 저장할 수 있다. 예를 들어, 데이터베이스(150)는 캐뉼라(110)의 움직임을 감지하여 생성된 수술 데이터를 저장할 수 있고, 캐뉼라 수술 진단을 위해 기 학습된 수술 데이터를 저장할 수 있으며, 반드시 이에 한정되지 않고, 캐뉼라 수술에 관한 진단 결과를 제공하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
영상 표시 장치(170)는 캐뉼라 수술 진단 결과를 표시할 수 있는 디스플레이 장치에 해당할 수 있다. 영상 표시 장치(170)는 CRT, LCD, PDP로 구현될 수 있고, 반드시 이에 한정되지 않고, 다양한 디바이스로도 구현될 수 있다. 영상 표시 장치(170)은 캐뉼라 수술 진단 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 영상 표시 장치(170)들은 캐뉼라 수술 진단 장치(130)와 동시에 연결될 수 있다.
도 2는 도 1에 있는 캐뉼라 수술 진단 장치를 설명하는 블록도이다.
도 2를 참조하면, 캐뉼라 수술 진단 장치(130)는 캐뉼라 스트로크 감지부(210), 수술 데이터 처리부(230), 수술 예후 정보 생성부(250) 및 제어부(270)를 포함할 수 있다.
캐뉼라 스트로크 감지부(210)는 환자의 수술 과정에서 발생되는 캐뉼라 (110)의 스트로크(stroke)를 감지할 수 있다. 캐뉼라(110)의 스트로크(stroke)는 캐뉼라(110)의 움직임으로서 일정한 구간내에서 전/후 방향으로 반복적으로 왕복하는 캐뉼라(110)의 움직임을 구성하는 단위 움직임에 해당할 수 있다. 즉, 캐뉼라(110)의 스트로크는 전/후 방향으로 한 번 왕복하는 움직임에 해당할 수 있고, 캐뉼라(110)의 움직임은 연속적인 복수의 스트로크들로 구성될 수 있다. 캐뉼라 스트로크 감지부(210)는 캐뉼라(110)의 스트로크에 관한 다양한 데이터들을 캐뉼라(110)로부터 수신하고 이를 통해 캐뉼라(110)의 스트로크를 감지할 수 있다.
일 실시예에서, 캐뉼라 스트로크 감지부(210)는 캐뉼라(110)에 장착된 스트로크 감지 센서를 통해 스트로크의 왕복 이동을 감지할 수 있다. 캐뉼라 스트로크 감지부(210)는 캐뉼라(110)와 유선 또는 무선으로 통신할 수 있으며 캐뉼라(110)는 스트로크 감지 센서를 통해 캐뉼라(110)의 움직임을 센싱할 수 있다. 스트로크 감지 센서는 캐뉼라(110)의 스트로크에 관한 데이터를 측정할 수 있는 센서로서 다양한 동작 감지 센서를 포함할 수 있다. 스트로크 감지 센서는 단일의 센서만으로 구현되거나 또는 복수의 센서들을 포함하여 구현될 수 있다.
스트로크 감지 센서는 변위 센서, 각도 센서, 자이로 센서 등을 포함할 수 있다. 변위 센서(displacement sensor)는 물체가 이동한 거리 또는 위치를 계측할 수 있는 센서에 해당하고, 각도 센서(angle sensor)는 미세 각도 또는 축의 회전각도와 같은 비교적 큰 각도를 측정할 수 있는 센서에 해당하며, 자이로 센서(gyro sensor)는 각속도를 검출할 수 있는 센서에 해당할 수 있다. 스트로크 감지 센서에 포함된 복수의 센서들은 각각의 센싱 메커니즘(mechanism)에 따라 실시간 또는 주기적으로 센싱 정보를 수집할 수 있고, 캐뉼라 수술 진단 장치(130)는 복수의 센서들로부터 수집된 센싱 신호들을 환자와 연관시켜 데이터베이스(150)에 저장할 수 있다.
일 실시예에서, 캐뉼라 스트로크 감지부(210)는 스트로크의 왕복경로를 산출할 수 있다. 캐뉼라 스트로크 감지부(210)는 스트로크 감지 센서를 통해 스트로크의 왕복 이동을 감지할 수 있고, 왕복 이동에 관한 센싱 신호를 기초로 스트로크의 왕복경로를 산출할 수 있다. 예를 들어, 캐뉼라 스트로크 감지부(210)는 캐뉼라(110)의 스트로크 감지 센서를 통해 다양한 센싱 신호를 수집할 수 있고, 센싱 신호를 기초로 캐뉼라(110)의 스트로크에 관한 정보로서 거리, 속도, 각도 등의 정보를 획득할 수 있다.
또한, 캐뉼라 스트로크 감지부(210)는 획득된 다양한 정보들을 기초로 스트로크의 왕복 거리, 왕복 각도, 왕복 방향 등을 산출할 수 있고, 이를 기초로 스트로크의 왕복 경로를 산출할 수 있다. 스트로크의 왕복 경로는 캐뉼라(110)가 전/후 방향으로 반복하여 왕복하는 단위 움직임에 대한 왕복 거리와 왕복 방향으로 표현될 수 있고, 왕복 거리는 반복 구간의 거리와 반복 시간에 대한 정보를 포함할 수 있으며, 왕복 방향은 스트로크의 진행 전/후 방향으로서 진행 각도와 진행 속도에 대한 정보를 포함할 수 있다.
수술 데이터 처리부(230)는 캐뉼라(110)의 스트로크를 기초로 생성된 수술 데이터를 수신할 수 있다. 수술 데이터는 환자의 수술과 관련되고 캐뉼라 수술 진단을 위해 사용되는 정보로서 캐뉼라(110)의 움직임에 관한 정보를 기초로 생성될 수 있다. 예를 들어, 수술 데이터는 캐뉼라(110)의 움직임에 관한 거리, 속도, 각도, 세기 등에 관한 정보를 포함하여 생성될 수 있다. 캐뉼라 스트로크 감지부(210)는 캐뉼라(110)의 스트로크를 감지할 수 있고 감지된 데이터는 수술 데이터 처리부(230)에 전송할 수 있다. 다른 실시예에서, 캐뉼라 스트로크 감지부(210)는 캐뉼라(110) 내부에 포함되어 구현될 수 있고, 캐뉼라(110)가 캐뉼라 수술 진단 장치(130)와 무선으로 연결된 경우 캐뉼라 스트로크 감지부(210)는 무선 통신을 통해 수술 데이터 처리부(230)에게 데이터를 전송할 수 있다.
일 실시예에서, 수술 데이터 처리부(230)는 수술의 수행 전에 환자의 천공 위치를 입력받고 스트로크의 왕복경로를 상기 환자의 신체 내의 수술경로로 변환할 수 있다. 여기에서, 천공 위치는 캐뉼라(110)가 신체 내부로 삽입되는 위치에 해당할 수 있다. 수술 데이터 처리부(230)는 수술을 수행하는 의사로부터 환자의 천공 위치를 입력 받을 수 있고, 예를 들어, 영상 표시 장치(170)에 표시된 환자의 신체 데이터 상에서 삽입 위치를 의사가 직접 터치함으로써 천공 위치를 입력 받을 수 있다. 또한, 수술 데이터 처리부(230)는 반드시 이에 한정되지 않고 다양한 입력 방법을 통해 환자의 천공 위치를 입력 받을 수 있다.
보다 구체적으로, 수술 데이터 처리부(230)는 환자의 신체 데이터 상에 맵핑된 천공 위치를 기준으로 스트로크의 왕복경로를 정렬시킴으로써 실제 환자에게 시행되는 수술경로로의 변환을 수행할 수 있다. 캐뉼라 수술 진단 장치(130)는 수술 데이터 처리부(230)에 의해 변환된 수술경로를 영상 표시 장치(170)를 통해 표시할 수 있고, 시간의 흐름에 따라 차례대로 표시함으로써 수술 경과를 영상으로 표현할 수 있다.
일 실시예에서, 수술 데이터 처리부(230)는 수술의 수행 전에 환자의 스캔을 통해 획득된 신체 데이터를 입력받고, 환자의 천공 위치를 신체 데이터에 맵핑(mapping)할 수 있다. 캐뉼라 수술 진단 장치(130)는 외부 스캔 장치를 통해 환자의 신체를 스캔할 수 있고, 획득된 신체 데이터는 2차원 데이터 또는 3차원 데이터에 해당할 수 있으며 데이터베이스(150)에 저장될 수 있다. 수술 데이터 처리부(230)는 환자의 신체 데이터 상에 천공 위치를 맵핑함으로써 캐뉼라 스트로크 감지부(210)에 의해 감지되는 캐뉼라(110)의 스트로크가 실제 환자에게 수행되는 수술경로를 산출할 수 있다.
일 실시예에서, 수술 데이터 처리부(230)는 환자의 신체 내의 수술경로를 기초로 해당 스트로크의 실패 확률을 산출하고 실패 확률이 기준 확률을 초과하는 경우 실시간 알림을 제공할 수 있다. 수술 데이터 처리부(230)는 환자의 신체 정보 및 캐뉼라(110)의 스트로크에 의한 수술경로를 기초로 각 스트로크에 대한 실패 확률을 산출할 수 있다. 스트로크의 실패 확률은 환자의 신체 데이터를 기준으로 해당 천공 위치에서의 적정 스트로크 범위와의 차이에 기초하여 산출될 수 있다. 수술 데이터 처리부(230)는 실패 확률을 기준 확률과 비교할 수 있고, 기준 확률은 캐뉼라 수술 진단 장치(130)에 의해 사전에 설정될 수 있다.
또한, 수술 데이터 처리부(230)는 실패 확률이 기준 확률을 초과하는 경우 수술을 수행하는 의사에게 실시간으로 알릴 수 있으며, 예를 들어, 캐뉼라(110)의 진동, 영상 표시 장치(170)의 주의 영상 재생, 별도의 스피커를 통한 주의 음악 재생 등 다양한 방식으로 캐뉼라(110)의 스트로크의 실패를 알릴 수 있다.
일 실시예에서, 수술 데이터 처리부(230)는 단위 시간 동안 환자의 신체 내의 수술경로를 수집할 수 있고 해당 단위 시간 동안 수집된 전체 스트로크의 개수에 대한 실패 스트로크의 개수의 비율을 산출할 수 있다. 실패 스트로크는 스트로크의 실패 확률이 기준 확률을 초과한 스트로크에 해당할 수 있다. 수술 데이터 처리부(230)는 해당 비율을 기초로 수술 결과를 미리 설정된 복수의 성공 단계들 중 어느 하나로 결정할 수 있다.
예를 들어, 수술 데이터 처리부(230)는 수술 진행 도중에 수집된 전체 스트로크 수가 1000개이고 실패 스트로크의 수가 200개인 경우 200 / 1000 = 0.2 비율을 산출할 수 있고, 미리 정해진 5개의 단계들 중에서 4단계의 수술 성공 단계로 결정할 수 있다. 수술 성공 단계는 1단계부터 5단계로 구성될 수 있고 높은 단계일수록 수술이 실패할 가능성이 높을 수 있다. 따라서, 1000개의 스트로크 중에서 200개의 스트로크가 발생한 경우 수술 성공 단계는 4단계에 해당할 수 있고, 해당 수술은 실패할 가능성이 높은 것으로 결정될 수 있다.
수술 예후 정보 생성부(250)는 기 학습된 수술 데이터를 기초로 수신된 수술 데이터를 분석하여 환자에 대한 수술 예후 정보를 생성할 수 있다. 수술 예후 정보 생성부(250)는 기계학습을 통해 생성된 인공 지능 모델을 이용하여 수술 데이터를 분석할 수 있고, 인공 지능 모델은 기 학습된 수술 데이터에 해당할 수 있으며, 데이터베이스(150)에 저장될 수 있다. 수술 예후 정보 생성부(250)는 수술 데이터를 분석하여 환자에 대한 수술 예후 정보를 생성할 수 있고, 수술 데이터는 캐뉼라(110)의 스트로크에 관한 정보를 기초로 생성될 수 있다. 수술 예후 정보는 캐뉼라(110) 수술에 대한 예측 결과로서 지방흡입량, 신체변화 예측, 회복 예상기간, 수술 성공 확률 등을 포함할 수 있다.
일 실시예에서, 수술 예후 정보 생성부(250)는 신체 데이터를 기초로 수신된 수술 데이터에 기 학습된 수술 데이터를 적용하여 수술의 성공 확률을 수술 예후 정보로서 생성할 수 있다. 캐뉼라 수술 진단 장치(130)는 환자의 신체 데이터를 미리 정의된 복수의 유형으로 분류할 수 있고, 각 분류별 학습 데이터를 별도로 구축할 수 있다. 수술 예후 정보 생성부(250)는 환자의 신체 데이터에 따라 가장 유사한 유형의 학습 데이터를 결정할 수 있고, 해당 학습 데이터를 기초로 환자의 수술 데이터를 분석할 수 있다.
예를 들어, 수술 예후 정보 생성부(250)는 환자의 수술 데이터를 기초로 인공 지능 모델에 입력할 입력 벡터를 생성할 수 있고, 인공 지능 모델에 의해 출력된 결과를 기초로 수술 예후 정보를 생성할 수 있다. 인공 지능 모델은 예측 결과로서 해당 수술에 대한 성공 확률을 출력할 수 있고, 수술 예후 정보 생성부(250)는 수술에 대한 성공 확률을 수술 예후 정보로서 생성할 수 있다.
일 실시예에서, 수술 예후 정보 생성부(250)는 수신된 수술 데이터 및 환자에 대한 수술 예후 정보를 기초로 학습 데이터를 생성하여 기 학습된 수술 데이터를 갱신할 수 있다. 수술 예후 정보 생성부(250)는 수술 과정에서 수신된 캐뉼라(110)의 스트로크에 관한 정보, 각 스트로크에 대한 왕복 경로와 천공 위치에 따른 수술 경로 및 인공 지능 모델을 통해 예측되는 수술 예후 정보를 기초로 학습 데이터를 생성할 수 있고, 해당 학습 데이터를 학습하여 기존의 인공 지능 모델을 갱신할 수 있다. 예를 들어, 학습 데이터는 환자의 신체 정보와 캐뉼라(110)의 스트로크 정보에 대응하여 예측된 수술 예후 정보를 포함하여 생성될 수 있고, 캐뉼라(110)의 스트로크 정보와 각 스트로크에 대한 수술경로에 대응하여 예측된 수술 성공 확률을 포함하여 생성될 수 있으며, 반드시 이에 한정되지 않고, 다양한 요소를 고려하여 예측 가능한 정보를 포함하여 생성될 수 있다.
일 실시예에서, 수술 예후 정보 생성부(250)는 스캔을 통해 획득한 환자의 신체 데이터를 기초로 지방흡입량, 신체 변화도, 시술후 관리 데이터 중 적어도 하나를 수술 예후 정보로서 생성할 수 있다. 예를 들어, 수술 예후 정보 생성부(250)는 수술이 종료된 경우, 환자의 신체 데이터에 수술 데이터를 반영하여 '환자 A의 지방흡입술이 완료되었으며, 환자 A의 추출된 지방량은 2000cc, 줄어든 허벅지의 둘레는 2cm(12% 감소), 수술 성공 확률은 80%입니다.' 라는 수술 예후 정보를 생성할 수 있고, 이와 함께 '이에 따른 회복 예상기간은 회복 프로그램 - B를 진행하실 경우 약 4주가 예상되며, 주의하실 약물과 금지사항을 확인하여 주시기 바란다'는 정보를 함께 생성할 수 있다.
제어부(270)는 캐뉼라 수술 진단 장치(130)의 전체적인 동작을 제어하고, 캐뉼라 스트로크 감지부(210), 수술 데이터 처리부(230) 및 수술 예후 정보 생성부(250) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 3은 도 1에 있는 캐뉼라 수술 진단 장치에서 수행되는 캐뉼라 수술 진단 과정을 설명하는 순서도이다.
도 3을 참조하면, 캐뉼라 수술 진단 장치(130)는 캐뉼라 스트로크 감지부(210)를 통해 환자의 수술 과정에서 발생되는 캐뉼라(110)의 스트로크를 감지할 수 있다(단계 S310). 캐뉼라 수술 진단 장치(130)는 수술 데이터 처리부(230)를 통해 캐뉼라(110)의 스트로크를 기초로 생성된 수술 데이터를 수신할 수 있다(단계 S330). 캐뉼라 수술 진단 장치(130)는 수술 예후 정보 생성부(250)를 통해 기 학습된 수술 데이터를 기초로 수신된 수술 데이터를 분석하여 환자에 대한 수술 예후 정보를 생성할 수 있다(단계 S350).
도 4는 도 2에 있는 수술 데이터 처리부가 수술 데이터를 처리하는 일 실시예를 설명하는 예시도이다.
도 4를 참조하면, 캐뉼라 수술 진단 장치(130)는 수술 데이터 처리부(230)를 통해 캐뉼라(110)의 스트로크를 기초로 생성된 수술 데이터를 수신할 수 있다. 일 실시예에서, 수술 데이터 처리부(230)는 캐뉼라 수술 수행 전에 환자의 천공 위치(410)와 신체 데이터를 입력 받을 수 있고, 환자의 천공 위치(410)를 신체 데이터에 맵핑할 수 있다. 그림 (a)에서, 수술 데이터 처리부(230)는 수술 부위가 허벅지에 해당하는 경우 영상 표시 장치(170)에 표시된 허벅지 이미지 상에 천공 위치(410)에 대한 입력을 수신함으로써 천공 위치(410)에 대한 정보를 획득할 수 있다. 수술 데이터 처리부(230)는 환자의 허벅지와 천공 위치(410)를 맵핑한 후 영상 표시 장치(170)를 통해 표시할 수 있다.
또한, 수술 데이터 처리부(230)는 환자의 천공 위치(410)를 기준으로 스트로크의 왕복경로(431 ~ 433)를 신체 내의 수술경로(451 ~ 453)로 변환할 수 있다. 보다 구체적으로, 수술 데이터 처리부(230)는 캐뉼라 스트로크 감지부(210)를 통해 감지된 복수의 스트로크의 왕복경로(431 ~ 433)들의 시작지점이 환자의 천공 위치(410)와 일치되도록 정렬시키는 방식을 통해 스트로크의 왕복경로를 신체 내의 수술경로로 변환할 수 있다. 그림 (c)에서, 수술 데이터 처리부(230)에 의해 변환된 복수의 수술경로(451 ~ 453)들 중 수술 부위의 정상 범위를 벗어난 수술경로(453)가 발생할 수 있다. 이 경우, 수술 데이터 처리부(230)는 실패 확률이 높은 캐뉼라(110)의 스트로크가 발생하였음을 실시간으로 알릴 수 있고, 이를 통해 캐뉼라 수술에 대한 주의를 환기시킬 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 인공지능 기반의 캐뉼라 수술 진단 시스템
110: 캐뉼라 130: 캐뉼라 수술 진단 장치
150: 데이터베이스 170: 영상 표시 장치
210: 캐뉼라 스트로크 감지부 230: 수술 데이터 처리부
250: 수술 예후 정보 생성부 270: 제어부
410: 천공 위치 431 ~ 433: 왕복경로
451 ~ 453: 수술경로
110: 캐뉼라 130: 캐뉼라 수술 진단 장치
150: 데이터베이스 170: 영상 표시 장치
210: 캐뉼라 스트로크 감지부 230: 수술 데이터 처리부
250: 수술 예후 정보 생성부 270: 제어부
410: 천공 위치 431 ~ 433: 왕복경로
451 ~ 453: 수술경로
Claims (8)
- 환자의 수술 과정에서 발생되는 캐뉼라(Cannula)의 스트로크(stroke)를 감지하는 캐뉼라 스트로크 감지부;
상기 캐뉼라의 스트로크를 기초로 생성된 수술 데이터를 수신하는 수술 데이터 처리부; 및
기 학습된 수술 데이터를 기초로 상기 수신된 수술 데이터를 분석하여 상기 환자에 대한 수술 예후 정보를 생성하는 수술 예후 정보 생성부를 포함하되,
상기 수술 데이터 처리부는 상기 수술의 수행 전에 상기 환자의 스캔을 통해 획득된 신체 데이터와 상기 환자의 천공 위치를 입력받고, 상기 환자의 천공 위치를 상기 신체 데이터에 맵핑하며, 상기 스트로크의 왕복경로를 상기 환자의 신체 내의 수술경로로 변환하고,
상기 수술 예후 정보 생성부는 상기 신체 데이터를 기초로 상기 수신된 수술 데이터에 상기 기 학습된 수술 데이터를 적용하여 상기 수술의 성공 확률을 상기 수술 예후 정보로서 생성하며,
상기 기 학습된 수술 데이터는 인공 지능 모델로서 상기 신체 데이터와 천공 위치, 상기 왕복경로 및 상기 수술경로에 관한 입력 데이터를 수신하는 것을 특징으로 하는 것을 특징으로 하는 인공지능 기반의 캐뉼라 수술 진단 장치.
- 제1항에 있어서, 상기 캐뉼라 스트로크 감지부는
상기 캐뉼라에 장착된 스트로크 감지 센서를 통해 상기 스트로크의 왕복 이동을 감지하는 것을 인공지능 기반의 캐뉼라 수술 진단 장치.
- 제2항에 있어서, 상기 캐뉼라 스트로크 감지부는
상기 스트로크의 왕복경로를 산출하는 것을 인공지능 기반의 캐뉼라 수술 진단 장치.
- 삭제
- 삭제
- 제1항에 있어서, 상기 수술 데이터 처리부는
상기 환자의 신체 내의 수술경로를 기초로 해당 스트로크의 실패 확률을 산출하고 상기 실패 확률이 기준 확률을 초과하는 경우 실시간 알림을 제공하는 것을 특징으로 하는 인공지능 기반의 캐뉼라 수술 진단 장치.
- 삭제
- 제1항에 있어서, 상기 수술 예후 정보 생성부는
상기 수신된 수술 데이터 및 상기 환자에 대한 수술 예후 정보를 기초로 학습 데이터를 생성하여 상기 기 학습된 수술 데이터를 갱신하는 것을 특징으로 하는 인공지능 기반의 캐뉼라 수술 진단 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135636A KR102149167B1 (ko) | 2018-11-07 | 2018-11-07 | 인공지능 기반의 캐뉼라 수술 진단 장치 |
US16/389,397 US11534201B2 (en) | 2018-11-07 | 2019-04-19 | Artificial intelligence-based cannula surgery diagnostic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135636A KR102149167B1 (ko) | 2018-11-07 | 2018-11-07 | 인공지능 기반의 캐뉼라 수술 진단 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200055169A KR20200055169A (ko) | 2020-05-21 |
KR102149167B1 true KR102149167B1 (ko) | 2020-08-31 |
Family
ID=70459619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180135636A KR102149167B1 (ko) | 2018-11-07 | 2018-11-07 | 인공지능 기반의 캐뉼라 수술 진단 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11534201B2 (ko) |
KR (1) | KR102149167B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102537304B1 (ko) * | 2020-10-21 | 2023-05-30 | 주식회사 삼육오엠씨(365mc) | 음파 탐지를 이용한 캐뉼라 기반의 지방흡입 장치 및 위험도 모니터링 방법 |
KR102586775B1 (ko) * | 2020-12-22 | 2023-10-11 | 주식회사 삼육오엠씨(365mc) | 초음파 프로브 장치 및 이를 이용한 지방층 감지 방법 |
KR102703399B1 (ko) * | 2022-01-14 | 2024-09-06 | 주식회사 삼육오엠씨(365mc) | 인공지능 기반의 지방흡입 수술 예후 예측 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100726028B1 (ko) * | 2005-12-14 | 2007-06-08 | 한양대학교 산학협력단 | 환자환부의 증강현실영상 투영시스템 및 그 방법 |
KR101862360B1 (ko) * | 2017-12-28 | 2018-06-29 | (주)휴톰 | 수술결과에 대한 피드백 제공방법 및 프로그램 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7384417B2 (en) * | 1990-12-14 | 2008-06-10 | Cucin Robert L | Air-powered tissue-aspiration instrument system employing curved bipolar-type electro-cauterizing dual cannula assembly |
US7241307B2 (en) * | 2001-12-31 | 2007-07-10 | Medcool, Inc. | Method and apparatus for managing temperature in a patient |
CN102548598B (zh) | 2009-08-07 | 2014-09-17 | 犹诺医药有限公司 | 具有传感器和一个或多个插管的传送装置 |
JP5824456B2 (ja) | 2009-11-13 | 2015-11-25 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 湾曲カニューレ、ロボットマニピュレーター、および受動的に可撓性であるシャフトを有する外科手術器具 |
EP4205721B1 (en) * | 2017-03-24 | 2024-07-10 | CareFusion 303, Inc. | Waste container for automatic drug compounder |
KR20180109559A (ko) * | 2017-03-28 | 2018-10-08 | 주식회사 삼육오엠씨네트웍스 | 지능형 지방흡입 수술 시스템 및 방법 |
US11278668B2 (en) * | 2017-12-22 | 2022-03-22 | Glysens Incorporated | Analyte sensor and medicant delivery data evaluation and error reduction apparatus and methods |
-
2018
- 2018-11-07 KR KR1020180135636A patent/KR102149167B1/ko active IP Right Grant
-
2019
- 2019-04-19 US US16/389,397 patent/US11534201B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100726028B1 (ko) * | 2005-12-14 | 2007-06-08 | 한양대학교 산학협력단 | 환자환부의 증강현실영상 투영시스템 및 그 방법 |
KR101862360B1 (ko) * | 2017-12-28 | 2018-06-29 | (주)휴톰 | 수술결과에 대한 피드백 제공방법 및 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
US11534201B2 (en) | 2022-12-27 |
KR20200055169A (ko) | 2020-05-21 |
US20200138476A1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102149167B1 (ko) | 인공지능 기반의 캐뉼라 수술 진단 장치 | |
US8886577B2 (en) | Feedback during surgical events | |
US20220172354A1 (en) | Ultrasound System with Pressure and Flow Determination Capability | |
CN105491946A (zh) | 信息提供方法和用于提供信息的医学诊断设备 | |
JP7449267B2 (ja) | 超音波システム及び方法 | |
JP2024516814A (ja) | 超音波画像における血管の表示 | |
JP2020137974A (ja) | 超音波プローブ用ナビゲートシステム、および、そのナビゲート表示装置 | |
KR102263345B1 (ko) | 지방흡입의 시술상황 실시간 체크장치 | |
KR102182134B1 (ko) | 마커를 이용하는 니들 시술 가이드 기능을 가진 초음파 영상 기기 | |
EP4011296A1 (en) | Guiding system and guiding method for ultrasound scanning operation | |
KR20190091755A (ko) | 파킨슨병의 진단을 위한 입력 패턴 분석 장치 및 방법 | |
CN112955927A (zh) | 用于针对血管造影-ffr的2d脉管分割的取向检测 | |
CN116194048A (zh) | 膈肌的超声测量方法及系统 | |
WO2015023179A1 (en) | System and method for monitoring a condition of a plurality of patients | |
CN106232021B (zh) | 用于检测快速移动的手术设备的方法和系统 | |
KR102537304B1 (ko) | 음파 탐지를 이용한 캐뉼라 기반의 지방흡입 장치 및 위험도 모니터링 방법 | |
CN115776870A (zh) | 用于评估对象的鼻病理学的系统和方法系统 | |
EP3392862B1 (en) | Medical simulations | |
US20240245385A1 (en) | Click-to-correct for automatic vessel lumen border tracing | |
US20240081785A1 (en) | Key frame identification for intravascular ultrasound based on plaque burden | |
US20240086025A1 (en) | Graphical user interface for intravascular ultrasound automated lesion assessment system | |
US20240087147A1 (en) | Intravascular ultrasound co-registration with angiographic images | |
US20240331152A1 (en) | Graphical user interface for intravascular plaque burden indication | |
US20240081781A1 (en) | Graphical user interface for intravascular ultrasound stent display | |
TWI793643B (zh) | 超音波掃描操作引導系統與超音波掃描操作引導方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |