KR101914303B1 - 전문 기술을 정량화하는 방법 및 시스템 - Google Patents

전문 기술을 정량화하는 방법 및 시스템 Download PDF

Info

Publication number
KR101914303B1
KR101914303B1 KR1020117024589A KR20117024589A KR101914303B1 KR 101914303 B1 KR101914303 B1 KR 101914303B1 KR 1020117024589 A KR1020117024589 A KR 1020117024589A KR 20117024589 A KR20117024589 A KR 20117024589A KR 101914303 B1 KR101914303 B1 KR 101914303B1
Authority
KR
South Korea
Prior art keywords
surgical
data
users
training
level
Prior art date
Application number
KR1020117024589A
Other languages
English (en)
Other versions
KR20120013955A (ko
Inventor
그레고리 디. 해거
발라크리시난 바라다라잔
산지브 쿠단퍼
라제시 쿠마르
캐롤 이. 레일리
헨리 씨. 린
Original Assignee
더 존스 홉킨스 유니버시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더 존스 홉킨스 유니버시티 filed Critical 더 존스 홉킨스 유니버시티
Publication of KR20120013955A publication Critical patent/KR20120013955A/ko
Application granted granted Critical
Publication of KR101914303B1 publication Critical patent/KR101914303B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers

Abstract

다음을 포함하는 사용자의 임상술을 정량화하는 시스템 및 방법: 수술 장치를 사용하는 사용자에 의해 행해진 수술 작업과 관련한 데이터를 수집하는 단계; 수술 작업에 대한 데이터를 다른 비슷한 수술 작업에 대한 다른 데이터와 비교하는 단계; 수술 작업에 대한 데이터와 다른 비슷한 수술 작업에 대한 다른 데이터와의 비교에 기초하여 사용자의 임상술을 정량화하는 단계; 사용자의 임상술을 출력하는 단계.

Description

전문 기술을 정량화하는 방법 및 시스템{METHOD AND SYSTEM FOR QUANTIFYING TECHNICAL SKILL}
본 출원은 2009년 3월 20일자로 출원되고, 제목이 "동작 훈련 기술을 자동적으로 평가하는 방법"인 특허출원 제61/162,007호를 우선권으로 주장하며, 본원에 참고문헌으로 도입된다.
본 발명은 NSF 및 NSF 대학 졸업자 연구 장학금 프로그램(Graduate Research Fellowship Program)에서 수상한 0534359, EEC9731478 및 0205348 하에서 정부의 지원으로 만들어졌다. 정부는 본 발명에 일정한 권리를 가진다.
본 발명은 훈련 분야, 한 실시양태에서는 수술 훈련 분야에 속한다.
가상 훈련 시스템이 최근 몇 년간 점차 수용되고 정교해지는 추세이다. 그러나 부적절한 훈련은 높은 실수 발생률을 야기할 수 있다. 그러므로, 임상의는 임상 전문 기술을 정량화하는 더 객관적인 방법을 원한다.
가상 시스템을 포함하는 인간-기계 인터페이스에 관여하는 다양한 시스템은 성질이 무작위적인 인간의 동작과 관련될 수 있다. 사람이 반복적인 작업을 여러 번 수행하면 동작 수치(예컨대, 힘, 속도, 위치, 등)들이 같은 수준의 기술로 수행된 같은 작업을 나타내는 것임에도 다른 동작 수치들이 발생한다. 따라서, 기술 모형화(modeling)는 측정 가능한 동작 데이터에서 숨겨진 기술의 근본적인 특징을 알아내고 결정해야 한다.
그러한 시스템의 한 예로 인간-기계 인터페이스가 로봇식의 수술 시스템을 원격조종 하는 것, 예컨대 인튜이티브 서지칼 잉크(Intuitive Surgical, Inc)에서 상업화한 다빈치® 수술 시스템을 들 수 있다. 비록 많은 작업 수행 가운데 수술자가 많은 작은 동작 특징의 변화를 보여도, 숙련된 수술자는 원격조종되는 로봇식의 수술 시스템을 이용한다면 특정 작업들을 여러 번 수행할 수 있다. 그리고, 덜 능숙한 기술을 가진 수술자는 특정 일을 수행할 경우 숙련된 수술자의 그 일에 대한 동작 특징과는 상당히 다른 동작 특징을 종종 보일 것이다.
바라는 것은, 어떻게 숙련된 수술자의 동작 특징과 서투른 또는 덜 숙련된 수술자의 동작 특징을 비교하여 서투른 또는 덜 숙련된 수술자의 작업 숙달 정도를 객관적이게 정량화할 수 있는지를 확인하는 방법이다. 또한 바라는 것은, 수술자가 보다 높은 기술 수준으로 수행하도록 훈련하는 것을 돕는데 이용될 수 있는 수술자의 기술 수준의 객관적인 정량화를 제공하는 방법이다. 특히, 원격조종 수술 시스템을 이용하는 것을 학습하고 있는 수술자의 특정한 수술 작업 수행을 객관적이게 정량화하고, 그 후 그 작업 수행 정보를 이용하여 수술자로 하여금 더 능숙한 수행 수준을 달성하게끔 돕는 것이 바람직하다.
도 1, 9 및 13-14는 몇몇 실시양태에 따른, 전문 기술의 정량화에 대한 수술 시스템과 관련된 세부사항을 도시한다.
도 2 내지 8 및 12는 여러 실시양태에 따른, 전문 기술의 정량화의 예들을 도시한다.
도 10 내지 11은 몇몇 실시양태에 따른, 전문 기술의 정량화 방법을 도시한다.
전문 기술의 정량화에 대한 시스템 및 방법이 제공된다. 사용자가 수행한 수술 작업에 대한 데이터가 수집될 수 있다. 데이터는 그 후 같은 수술 작업에 대한 다른 데이터와 비교될 수 있다. 사용자의 전문성 수준은 그 후 그 비교에 기초하여 측정될 수 있으며, 사용자의 임상술이 정량화될 수 있다.
몇몇 실시양태에서, 숙련된 사용자가 수술 작업을 어떻게 수행하는지를 나타내는 데이터가 수집될 수 있으며, 이 데이터는 두 번째 사용자가 수술 작업을 어떻게 수행하는지를 나타내는 수집된 데이터와 비교될 수 있으며, 이는 두 번째 사용자의 임상술을 측정하기 위함이다. 몇몇 실시양태에서, 숙련된 사용자가 어떻게 수술 작업을 수행하는지를 나타내는 수집된 데이터는 두 번째 사용자를 훈련시키는데 사용될 수 있다.
전문 기술의 정량화 시스템
도 1은 한 실시양태에 따른 수술 시스템(100)을 도시한다. 시스템(100)에서, 데이터가 수집되고 보관된다. 한 실시양태에서, 수술 시스템(100)은 인튜이티브 서지칼 잉크에서 상업화한 다빈치® 수술 시스템일 수 있다. 다빈치® 수술 시스템에 대한 추가 정보는, 예를 들어 미국 특허 제6,441,577호(2001년 4월 3일에 출원되었으며 "로봇식 수술을 위한 조작기 위치 선정 연결장치"를 개시한다) 및 제7,155,315호(2005년 12월 12일에 출원되었으며, "최소한으로 침습적인 수술 기구에서의 카메라 참조 조종"을 개시한다)에서 찾을 수 있으며, 둘 모두는 본원에 참고문헌으로 도입된다. 비록 다빈치® 수술 시스템이 한 실시양태에서 이용될 수 있으나, 당업자는 임의의 수술 시스템도 이용될 수 있음을 알 수 있을 것이다. 당업자는 또한 데이터를 수집하는 다른 방법들이 있으며, 본 발명의 실시양태가 수술을 제외한, 재활, 운전, 및/또는 수술 기계를 포함하지만 이에 제한되지는 않는 많은 분야에 있을 수 있음을 알 수 있을 것이다.
한 실시양태에서, 수술 시스템(100)은 수술자 콘솔(surgeon's console)(105), 비전 카트(vision cart)(125), 및 환자측 카트(patient side cart)(110)를 포함할 수 있다. 이들 주요 시스템(100) 부품은 다양한 방법, 예컨대 전기적 또는 광케이블, 또는 무선 연결로 상호연결될 수 있다. 시스템(100)을 작동시키는데 필수적인 전자 데이터 프로세싱은 주요 부품들 중 하나에 집중될 수 있거나, 또는 두 개 이상의 주요 부품(전자 데이터 프로세서, 컴퓨터, 또는 그와 비슷한 용어의 참조로, 이로써 특정 계산 결과를 만드는데 이용될 수 있는 하나 이상의 실제 하드웨어, 펌웨어, 소프트웨어 부품을 포함할 수 있다)에 분포될 수 있다.
환자측 카트(110)는 하나 이상의 로봇식 조작기 및 그 조작기와 관련한 하나 이상의 이동할 수 있는 수술 기구 부품, 예컨대 도 13에 도시된 것과 같은 것을 포함할 수 있다. 도 13은 다양한 가능한 운동학적 부품 및 그와 연관된 움직임(예컨대 상하이동, 편향, 회전, 삽입/축출, 움켜쥠 등으로 다양하게 정의될 수 있는 자유도)을 도시하며, 또한 이들 부품에 대한 자유도와 관련될 수 있는 관절을 도시한다. 도 14는 자유도 및 다른 시스템 부품(예를 들어, 주조작기에 대한 관절 위치 및 속도, 데카르트 위치 및 속도, 회전 매트릭스 값 등; 환자측 카트에 대한 관절 위치 및 속도, 원격 이동 중심의 데카르트 위치, 회전 매트릭스 값, 설정 관절 값 등; 시스템에서 다양한 위치에 있는 다양한 서보 시간, 버튼 위치 등과 같은 운동학적 파라미터)과 관련하여 가능한 파라미터(데이터 포인트)를 도시한다. 이 데이터 파라미터는 수술자의 움직임을 측정할 때 이용될 수 있으며, 하기에서 더 자세히 기술될 서젬(surgeme) 및 덱셈(dexeme)의 움직임으로 특징될 수 있다.
시스템(100)에 설명된 바와 같이, 수술 시스템은 이더넷(Ethernet) 연결을 통하여 예를 들어 수술자 콘솔(105) 또는 다른 시스템 부품의 인터페이스(115)에 연결될 수 있는 응용 프로그래밍 인터페이스(API)를 포함할 수 있다. 다양한 시스템(100) 파라미터, 예컨대 도 14를 참조할 때 확인되는 것들은 API를 통하여 모니터되고 기록(저장, 보관 등)될 수 있다.
환자측 카트(110)에 설치된 내시경 이미징 시스템으로 수집된 비디오 데이터는 비전 카트(125)를 통해 처리되고 수술자 콘솔(105)에 있는 수술자에게 출력될 수 있다. 비디오 데이터는 입체적(예를 들어 또렷한 3차원(3-D) 이미지로 깊이 착시를 주기 위한 좌, 우안 채널) 또는 모노스코픽(monoscopic)일 수 있다. 비디오 데이터는 시스템(100)에 있는 하나 이상의 비디오 출력 접속구(output port), 예컨대 인터페이스(115)에 위치한 비디오 출력 연결기(connector)를 통해 접근될 수 있다. 접근된 비디오 데이터는 기록될 수 있으며, 그 비디오 데이터 기록은 API를 통한 데이터 출력으로 동기화되어 시스템 파라미터가 모니터될 수 있고 비디오 데이터가 서로 동기화된 것으로 기록 및 저장될 수 있다.
도 1에서 볼 수 있듯이, 시스템(100)은 하나 이상의 다른 시스템(100) 부품과 분리되어있으면서 연결된 플랫폼일 수 있거나, 또는 하나 이상의 다른 시스템(100) 부품과 일체화될 수 있는 컴퓨터(135)를 포함한다. 기술 정량화 컴퓨터 응용 프로그램(130)은 메모리에 저장되어 컴퓨터(135)로 접근하고 실행할 수 있다.
도 9는 기술 정량화 컴퓨터 응용 프로그램(130)의 세부사항을 도시하며, 사용자 인터페이스(910), 비교 모듈(915), 모형화 모듈(905), 교육 모듈(920), 및 세분 모듈(925)을 포함할 수 있다. 사용자 인터페이스(910)는 사용자와 상호작용 하는데 이용될 수 있다. 예컨대, 사용자 인터페이스(910)는 시험을 위해 궤도대로 움직인 움직임 및 부-움직임을 보여줄 수 있고, 또한 어떤 그룹으로 문자가 분류되었는지 나타낼 뿐만 아니라, 그 분류에 숨은 데이터를 개시할 수 있다. 세분 모듈(925)은 시술로부터 데이터를 서젬 및 덱셈으로 세분하는데 이용될 수 있다. 데이터를 세분하는데 이용된 공식은 하기에서 더 자세히 설명한다. 비교 모듈(915)은 시험 사용자로부터의 데이터를 전문가 데이터, 중급자 데이터, 또는 초보자 데이터(또는 임의의 전문성 수준)를 나타내는 데이터와 비교하고, 어느 수준에 시험 사용자가 지정되어야 하는지를 시험 사용자의 움직임 데이터에 기초하여 결정하는데 이용될 수 있다. 모형화 모듈(905)은 특정 기술 수준(예를 들어 전문 수술자)의 모형 움직임일 수 있다. 예를 들어, 모형화 모듈(905)은 전문가 사용자의 움직임을 나타내는 데이터를 받고 그 움직임을 모형화할 수 있다. 교육 모듈(920)은 사용자에게 특정 작업 또는 부-작업을 어떻게 하는지를 교육하는데 이용될 수 있다. 예를 들어, 교육 모듈(920)은 전문가의 움직임을 데이터 모형화하고, 그 모형화된 데이터를 사용하여 사용자를 훈련하는 것으로 이용될 수 있다. 몇몇 실시양태에서, 전문가의 움직임을 데이터 모형화하는 것은 모형화 모듈(905)에서 얻어질 수 있다.
수집된 데이터는 암호화되고 데이터 수집 시기의 끝에서 카트리지 드라이브를 이용하는 부속 휴대용 카트리지(예를 들어 컴퓨터(135)에 결합된; 표시되지 않음)에 전송될 수 있다. 한 명 이상의 사람에 의해 수행된 많은 기록된 시술들은 카트리지에 저장될 수 있다. 카트리지로부터의 데이터는 안전한 저장소(예를 들어 네트워크 또는 인터네트워크를 통해서, 예컨대 인터넷)에 업로드 될 수 있고, 또는 카트리지 드라이브로부터의 데이터는 저장 및/또는 분석을 위해 다른 시스템에 물리적으로 발송될 수 있다. 다르게는, 수집된 데이터는 컴퓨터(135)로부터 네트워크 또는 인터네트워크를 통해 직접 다른 위치에 있는 컴퓨터에 저장 및/또는 분석을 위해 전송될 수 있다.
수술 시스템(100)을 이용하는 사용자의 익명 리스트를 유지할 수 있고, 각 사용자는 고유의 ID를 배정받을 수 있다. 수집되고 보관된 데이터는 고유의 ID를 이용해서 사용자가 추가 분석을 행할 동안 고유의 ID로만 확인될 수 있게 할 수 있다.
보관된 데이터는 특정한 실험(trial), 작업, 또는 시술에 대해서 다양한 조밀도(granularity) 수준으로 세분될 수 있다. 예를 들어, 보관된 데이터는 실험(예를 들어 시술 수준) 데이터, 서젬(예를 들어 시술 부-작업 수준) 데이터, 또는 덱셈(예를 들어 부-작업 수준의 특정 동작 요소) 데이터로 세분될 수 있다. 이 데이터의 수준 및 그것들이 어떻게 이용될지는 하기에 더 자세히 기재되어 있다.
보관된 데이터는 안전하게 저장될 수 있다. 한 실시양태에서, 데이터 수집에 참여하는 사용자 또는 독립체만 보관된 데이터에 접근할 수 있다.
전문 기술을 정량화하는 방법
도 10은 전문 기술을 정량화하는 방법을 도시한다. 1005에서, 데이터는 수술 시술을 수행하는데 이용되는 하나 이상의 수술 시스템으로부터 모아질 수 있다. 한 실시양태에서, 예컨대 다빈치® 수술 시스템과 같은 원격 로봇 조작 수술 시스템이 이용될 수 있다. 1010에서, 데이터는 세분되고 구분된다. 1015에서, 세분된 데이터는 다른 세분된 데이터와 비교되고 분석될 수 있다. 분석된 데이터는 그 후 수술 시스템의 사용자의 기술을 정량화하는데 이용될 수 있다. 이 요소와 관련된 세부 사항은 하기에 더 자세히 기재되어 있다.
데이터 모으기
여전히 도 10과 관련하여, 1005에서 데이터는 한 명 이상의 수술자가 수술 시술을 수행하는데 이용하는 하나 이상의 수술 시스템으로부터 모아질 수 있다. 그러므로, 예를 들어, 수술자들이 하나 이상의 수술 시스템을 이용하여 수술 작업을 수행할 때 다른 전문성 수준을 가지는 수술자들로부터 움직임 데이터가 모아질 수 있다. 예를 들어, 한 실시양태에서, 원격 로봇 조작 수술 시스템이 봉합 작업(예를 들어, 두 피부의 수술로의 접합)을 수반하는 실험(예를 들어, 시술)을 수행하는데 이용될 수 있다. 원격 로봇 조작 수술 시스템을 이용하여 데이터가 수집될 수 있다. 데이터는 수술자 콘솔 주 조작기 및/또는 원격 로봇 조작 수술 시스템의 환자측 조작기의 다수의 위치, 회전각, 및 속도를 포함할 수 있다. 모아진 데이터는 또한 상기 기재된 것과 같이 실험 또는 실험의 일부 동안 수술 시스템에서 수집된 비디오 데이터를 포함할 수 있다.
데이터 세분 및/또는 구분하기
여전히 도 10과 관련하여, 1010에서 실험 데이터는 세분 및/또는 구분될 수 있다. 도 2는 한 실시양태에 따른 시술을 세분하는데(나누는데) 이용될 수 있는 다양한 수준을 도시한다. 위에서 언급했듯이, 기록된 데이터는 실험(예를 들어 시술) 데이터, 작업 데이터, 서젬(예를 들어 부-작업) 데이터, 또는 덱셈(예를 들어 부-작업의 동작) 데이터로 세분될 수 있다. 기술 평가 및 훈련은 각 수준에서 할 수 있다. P1은 실험 또는 시술 수준(예를 들어, 전립선 절제술(radical prostatectomy), 자궁 절제술(hysterectomy), 승모판 재건술(mitral valve repair))일 수 있다. T1 및 T2는 시술에서 해야될 필요가 있는 작업들인 다양한 작업 수준(예를 들어, 봉합)의 예시이다. S1 내지 S6은 작업을 위해 필요한 부-작업인 서젬 수준(예를 들어, 바늘 뽑기)의 예시이다. 도 2에서 도시한 것과 같이, 예를 들어, 작업 T1은 서젬 S1 내지 S3로 세분되고, 작업 T2는 서젬 S4 내지 S6으로 세분된다. M1 내지 M6는 부-작업의 움직임 요소인 다양한 덱셈 수준(덱셈은 작은 자유자재(dexterous)의 움직임을 나타낸다)의 예시이다. 덱셈은 단일 몸짓(gesture)의 일시적인 부-몸짓 및 같은 몸짓의 표본들 사이에서 스타일적인(stylistic) 변화를 구별하는데 이용될 수 있다. 예를 들어, 봉합 작업에서 몇몇 몸짓, 예를 들어 조직을 관통하여 바늘을 찾는 것은 다른 몸짓, 예를 들어 실을 뽑는 것보다 전문적임을 더욱 시사할 수 있다. 그러한 세밀한 평가는 더 나은 자동 수술 평가 및 훈련을 야기할 수 있다. 도 2에 도시되어 있듯이, 예를 들어 서젬(S2)는 덱셈(M1, M4 및 M2)으로 세분될 수 있고, 서젬(S5)는 덱셈(M5, M4 및 M3)으로 세분될 수 있다. 이로써 특정 덱셈은 단일 서젬의 요소일 수 있거나, 또는 두개 이상의 서젬의 요소일 수 있다. 비슷하게, 임의의 상대적으로 세밀한 부분은 다음으로 높은 수준의 단지 하나 또는 하나 초과의 상대적으로 거친 부분의 요소일 수 있다.
도 3은 한 실시양태에 따라 다양한 서젬이 어떻게 수동으로 세분되고 구분되는지를 도시한다. 도 3은 개별 라벨을 가진, 봉합 작업과 관련한 아홉 서젬(반드시 순서대로는 아님)의 예를 도시한다. 하기 움직임 라벨이 아홉 서젬에 제공된다: (0) 정지상태, (1) 바늘로 손을 뻗음, (2) 바늘 위치를 잡음, (3) 조직을 관통하여 바늘을 삽입, (4) 왼손에서 오른손으로 바늘을 이동, (5) 오른손으로 바늘을 중앙으로 이동, (6) 왼손으로 봉합선을 당김, (7) 오른손으로 봉합선을 당김, 및 (8) 양손으로 바늘을 맞춤(정지상태는 서젬으로 간주될 수도 있고 안될 수도 있음; 아무것도 안 하면서 정지상태로 있는 시간은 모니터되는 것이 바람직한 특징일 수 있음). 이 예시에서, 데이터는 수동으로 세분되고 구분된다. 서젬은 그 후 수동으로 덱셈으로 세분될 수 있다.
몇몇 실시양태에서, 데이터는 자동적으로 서젬으로 세분될 수 있다. 움직임 데이터는 선형 판별법(LDA)을 이용하여 데이터를 정규화(normalizing)하고 그것을 더 낮은 차원으로 예측함으로서 자동적으로 세분될 수 있다(LDA에 대한 더 많은 정보에 대해서는, 문헌 [Fisher, R.: The use of multiple measurements in taxonomic problems. Annals of Eugenics 7 (1936) 179-188.)]을 보라). 베이즈(Bayes) 분류기가 그 후 데이터 세트로 구분된 훈련으로부터 학습한 확률에 기초하여 더 낮은 차원에서 각 데이터를 나타내는 가장 유력한 서젬을 결정할 수 있다. 데이터가 어떻게 자동적으로 세분되는지에 대한 더 많은 정보에 대해서는, 본원에 참고문헌으로 도입된 문헌[H. Lin et al., "Towards Automatic Skill Evaluation: Detection and Segmentation of Robot-Assisted Surgical Motions", Computer Aided Surgery, Sept. 2006, 1 1(5): 220-230 (2006)]을 참조.
한 실시양태에서, 이 자동적 분류는 정확도에 대해 점검될 수 있다. 이를 하기 위해서, {σ[i], i=1, 2, ..., k}가 실험의 서젬 라벨-순서를 나타내는데 이용될 수 있고, σ[i]는 세트 {1, ..., 11} 및
Figure 112011081592573-pct00001
에서이고, [bi, ei]는 σ[i]의 시작 및 종료-시간이며, 1 ≤ bi < ei ≤ T 이다. b1 = 1, bi+1 = ei+1, ek= T 임에 주목하라. 서젬 기록 {
Figure 112011081592573-pct00002
[i], i = 1, 2, ...k} 및 시간 부호 [
Figure 112011081592573-pct00003
i,
Figure 112011081592573-pct00004
i]는 시험 실험에 배정될 수 있다.
수동 분절에 비해서 자동 분절{y1, .. yr}의 정확도 측정은 그 후 하기 수식을 이용하여 이루어질 수 있다:
Figure 112011081592573-pct00005
Figure 112011081592573-pct00006
Figure 112011081592573-pct00007
서젬은 또한 다른 방법을 이용하여 자동적으로 세분될 수 있다. 예를 들어, 다른 실시양태에서, 상기에서 언급했듯이, 움직임 데이터는 선형 판별법(LDA)을 이용하여 데이터를 정규화하고 그것을 더 낮은 차원으로 예측함으로서 자동적으로 세분될 수 있다. 그 후 더 낮은 차원의 데이터 xt는 하기 수식에 대입되고 σ에 대한 모든 가능성있는 값에 대해 계산될 수 있다(이는 더 낮은 차원의 데이터를 세분하는 모든 종류의 방법을 나타낼 수 있다).
Figure 112011081592573-pct00008
여기서 Sσ는 서젬 σ 모형의 은닉 상태를 의미하고,
Figure 112011081592573-pct00009
는 이 상태들 간의 이행 확률이며,
Figure 112011081592573-pct00010
는 s∈ Sσ와 관련한 평균 μs 및 공분산 ∑s를 가지는 다변수 가우스 밀도이다.
P의 최대값을 제공하는 σ의 값은 서젬에서 사용되는 세분화이다.
같은 수식이 더 낮은 차원의 데이터를 덱셈으로 나누는데 사용될 수 있다. 만약 HMM 상태-순서에 대한 예측된 운동학적 데이터를 세분하는데 비터비(Viterbi) 알고리즘을 사용한다면, 데이터의 덱셈 수준의 세분화를 얻게 된다. 그러한 덱셈-수준의 세분화는 덱스터리티 분석(dexterity analysis)를 수행하는 데 있어 가치가 크다. 비터비 알고리즘에 대한 더 많은 정보에 대해서는, 문헌[L. Rabiner, "A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition", IEEE 77(2) (1989) 257-286]을 참조.
이산(discrete) HMM은 다음을 포함할 수 있는 λ(=A, B, π)로 표시될 수 있다: 상태 이행 확률 분포 매트릭스 A = a ij , 여기서 a ij 는 상태 i 에서 상대 j로 이행하는 이행 확률; 관측 부호 확률 분포(observation symbol probability distribution) 매트릭스 B = b j (k), 여기서 b j ( O k ) = P[o t = v k q t = j]는 상태 j에서 방출되는 부호 v k 의 출력 확률(output probability); 및 시스템 π의 초기 조건. HMM에 대한 더 많은 정보에 대해서는, 문헌[L. Rabiner, "A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition", IEEE 77(2) (1989) 257-286]을 참조.
도 8은 한 실시양태에 따른 "조직을 관통하여 바늘을 삽입함"의 행동에 대응하는 특정 서젬에 대한 다섯 상태 HMM을 도시한다. HMM 상태 a, b, c, d, 및 ,e에 대응하는 개개의 덱셈은 분리될 수 있다. 그 후 특정 덱셈(예를 들어, a, b, c)이 주입부터 방출까지 바늘을 이동시키기 위해 오른손 환자측 손목을 돌리는지를 측정할 수 있다. 추가로, 예를 들어 수술자가 방출점에서 바늘을 뽑을 때 주저/취소하는 부-몸짓에 대응하는 덱셈 c 움직임은 대부분 초보 수술자로부터 나온다는 것도 측정할 수 있다.
데이터를 비교하고 임상술을 정량화하기
다시 도 10과 관련하여, 1015에서, 실험이 세분되고/거나 구분된 후에, 데이터를 비교함으로써 임상술을 정량화할 수 있다.
도 10의 1010에 따라서 만들어진 세분된 데이터는 특정한 세분된 데이터를 만들어온 가장 유력한 기술 모형을 확인하는데 사용될 수 있다. 예를 들어, 일단 데이터가 서젬 또는 덱셈의 순서로 세분되면, 순서 O test 는 다양한 기술 수준 모형인 λe(전문가), λi(중급자), 및 λn(초보자)과 비교될 수 있다. 시험 데이터 λtest의 기술 수준은 다음 거리 공식에 기초하여, 어떤 기술 수준이 시험 데이터에 가장 가까운지에 기초하여 전문가, 중급자, 초보자로 구분될 수 있다 :
Figure 112011081592573-pct00011
여기서 :
Figure 112011081592573-pct00012
이고 λs는 기술 모형, 그리고 T test 는 관측 순서 O test 의 길이이다.
움직임 라벨이 움직임의 기술을 평가하는데 적당한 방법을 탐색하는데 사용될 수 있음에 주목하여야 한다. 추가로, 작업당 시간(서젬 및 덱셈당 시간을 포함함)이 비교될 수 있다. 몇몇 실시양태에서, 작업의 시작과 종료에서 정지상태로 있는 시간(움직임 (0))은 데이터 분석을 하는데 필요하지 않다. 움직임, 움직임 시기, 및 사용자에 의해 실행된 움직임 순서가 매 작업을 수행하는 사용자의 상대 기술과 관련한 결론을 내리는데 사용될 수 있다.
예를 들어, 도 4는 전문가, 중급자, 및 초보 수술자의 움직임 간의 차이를 도시한다. 수술자의 기술이 늘수록, 그 또는 그녀의 움직임의 그래프는 움직임이 더 정확해짐을 나타낸다. 이 실시예에서, 초보자 수술자(그래프 (c) 및 (f)에 나타나있음)가 작업 도중 더 많은 실수를 범하여 불필요한 움직임을 사용하고 처음부터 다시 시작하는 반면, 전문 수술자(그래프 (a) 및 (d)에 나타나있음)는 보다 적은 움직임을 사용하여 작업을 완수한다. 도 4는 또한 작업 동안 쓸모없는 서젬이 실수를 일으킬 수 있으며(예를 들어, 바늘을 떨어뜨림), 이는 기술 수준 분석에 중요한 것일 수 있음을 도시한다. 그러므로 다른 점에서 실질적으로 비슷한 서젬이 별도의 라벨에 배정받을 수 있거나, 서젬의 순서상에서의 그것의 위치 때문에 중요한 것으로 확인될 수 있다
도 5는 표본 실험 동안 서젬간의 대표적인 이행을 도시한다. 서젬간의 이행은 전문가와 초보자 간에서 행한 접근에서 즉각적인 차이를 드러낸다. 전문가는 작업 동안 내내 움직임의 한 특정 양식을 반복적으로 사용할 수 있다. 그 결과, 상대적으로 보다 높은 기술 수준을 갖는 사용자는 상대적으로 더 낮은 기술 수준을 갖는 사용자보다 더 정확한 이행 그래프를 창출할 수 있다. 예를 들어, 표적 주입점부터 표적 방출점까지 모조 조직을 관통하여 바늘을 뽑은 후에, 도 5의 상단 부분에 도시하였듯이, 전문가의 실험은 봉합선을 좌측 도구로 팽팽하게 당기고, 그 후 바늘의 위치를 잡고 삽입을 하는 그 다음 순서를 위해 우측 도구로 바늘을 옮기는 것을 나타낼 수 있다(이 순서는 도 5 하단 부분의 서젬 6, 4, 2, 3으로 묘사되어있다). 그와 반대로, 덜 숙련된 수술자의 실험은 봉합선을 좌측 도구로 부분적으로 가끔 당기고, 우측 도구를 그 후 봉합선을 팽팽하게 당기는데 사용하는 것을 나타낼 수 있다(이 순서는 서젬 6, 7, 2, 3으로 묘사되어 있다(표시하지 않음)). 추가로, 도 5는 하나 이상의 서젬들의 순서의 지속기간이 측정될 수 있음을 도시한다. 모조 조직이 사용된 한 사례에서, 전문가에 대한 매 실험을 기준으로 서젬 4, 6, 및 7에 대한 평균 시간은 13.34초였다. 중급자 및 초보자에 대한 동일한 통계 결과는 각각 20.11 및 16.48초였다. 이로써 두 단계로 봉합선을 당기는 것을 선택하는 것은 덜 시간-효율적인 것으로 결론될 수 있다. 게다가, 환부를 우측으로 가로질러 우측 기구로 봉합선을 당기는 것을 선택함으로써, 중급자 및 초보 수술자는 조직에게 피해야만 하는 지나친 스트레스를 받게 함을 나타낼 수 있다 .
뿐만 아니라, 다른 분석적 수행능 측정, 및 시간과 움직임의 수 또한 세 전문성 수준 그룹들 사이의 차이를 드러낼 수 있다. 작업을 완료하는데 중급자가 77.4초를 사용할 수 있고, 초보자가 평균 82.5초에 작업을 완료할 수 있는 반면에, 전문가 그룹은 평균 56.2초를 나타낼 수 있다. 그러므로, 시간과 실험에서 사용된 서젬의 수 간에는 상관관계가 있다. 작업을 완료하는데 사용된 서젬의 평균 수는 전문가, 중급자, 및 초보자에 대해 각각 19, 21, 및 20이었다.
서젬당 시간 소모를 분해해봄으로써, 예컨대 다음과 같은 관찰을 할 수 있다; (1) 전문가가 초보자보다 더 효율적으로 특정 서젬을 수행함, 및 (2) 전문가가 특정 서젬을 이용하지 않음. 도 6은 다양한 서젬 움직임에 대한 시간을 분석하는 실시양태를 도시한다. 예를 들어, 덜 숙련된 수술자는 전문가보다 일반적으로 바늘 위치를 잡고 삽입하는데(각각 서젬 움직임 2 및 3), 특히 바늘 끝을 표지된 방출점을 관통하여 나오도록 인도하는데 더 많은 시간을 소비한다. 한 사례에서, 수동 분석을 통해 전문가는 움직임 2 및 3을 합하여 실험당 평균 28.04초를, 중급자는 48.51초를, 그리고 초보자는 56.59초를 쓰는 것으로 드러났다. 도 6에 나타나있듯이, 기술의 다른 지표는 도 6의 각 서젬과 관련한 하단 막대에 나타나 있는, 중간에 위치한 서젬, 예컨대 움직임 5(오른손으로 중앙으로 이동), 움직임 7(오른손으로 봉합선을 당김), 움직임 8(도구 모두로 바늘을 맞춤)은 전문가가 거의 사용하지 않는다는 것이다. 시작 위치로부터 바늘을 회수할 때, 그리고 한 기구로부터 다른 봉합선 매듭 사이로 바늘을 옮길 때, 전문가 수술자는 바늘을 재조정할 필요 없이 목표하는 방향으로 바늘을 움켜쥐는 것이 가능했다(즉, 서젬 움직임 8은 전문가에게서 나타나지 않았다). 중급자는 두 손을 사용하여 12회에 걸쳐 움직임 서젬을 맞추었고, 훨씬 덜한 기술을 가진 수술자보다 더 신속하게 작업을 완료하는데 더 적은 움직임이 필요했다. 그러한 움직임의 절약은 흔히 수술 기술 평가를 위해 주관적으로 측정되고, 현재는 도 6에 도시된 분석 실시양태에 따라서 객관적으로 나타낸다.
도 7은 정확하게 확인된, 분리된 서젬 분류 시스템의 사례 실시양태 분석을 도시한다. 도 7은 여덟 서젬 및, 어떻게 그들이 분류되었고, 그 분류가 훈련 분류와 어떻게 비교되는지를 도시한다. 가로 열(row)의 측정값은 각 서젬 움직임이 몇 번이나 정확히 인식되었는지 알고 다른 기술 수준에서 몇 번이나 실수가 있었는지를 나타낸다. 예를 들어, 전문가 서젬 1은 8번 정확하게 인식되었고 중급자에서 두 번, 그리고 초급자에서 2번 실수가 있었다. 특히, 서젬 1과 관련하여, 서젬 1에 대한 전문가 수준은 50% 확률로 전문가 수준으로 정확하게 분류되었고, 28% 확률로 중급자 수준으로 부정확하게 분류되었으며, 22% 확률로 초보자 수준으로 부정확하게 분류되었다. 비슷하게 서젬 1에 대한 중급자 수준은 67% 확률로 중급자 수준으로 정확하게 분류되었고, 33% 확률로 전문가 수준으로 부정확하게 분류되었으며, 0% 확률로 초보자 수준으로 부정확하게 분류되었다. 마지막으로, 서젬 1에 대한 초보자 수준은 69% 확률로 초보자 수준으로 정확히 분류되었고, 31% 확률로 전문가 수준으로 부정확하게 분류되었으며, 0% 확률로 중급자 수준으로 부정확하게 분류되었다.
도 7에서, 전문가의 서젬 움직임 5, 7, 및 8에 대한 모형이 없고, 중급자의 서젬 움직임 4에 대한 모형이 없는 것에 주목해야 하는데, 이는 이 실시예에서, 이들 서젬 움직임이 이들 전문성 그룹에 의해 사용된 적이 없기 때문이다. 도 7의 실시예에서, 전문가가 사용하지 않은 서젬(서젬 5, 7, 8)보다 전문가가 초보자보다 더 효율적으로 수행한 서젬(서젬 2, 3, 4)에 대해서 더 높은 인식률을 나타낸다. 전문가가 사용하지 않은 서젬에 대해서, 중급자 및 초보자는 흔히 서로 잘못 분류되는데, 이는 그들이 이들 서젬을 매우 비슷하게 수행한다는 것을 시사한다. 서젬 1(종합적으로 66.8%; 전문가 67%; 중급자 75%; 초보자 50%) 및 6(종합적으로 66.8%; 전문가 65%; 중급자 92%; 초보자 50%)은 정확하게 분류되기 어려웠으며, 이는 특정 서젬은 다른 것만큼 기술의 구별을 나타낼 수 없다는 것을 나타낸다.
분석 실시양태의 추가 실시예로서, 도 12의 좌측 부분은 네개-매듭 봉합 작업을 수행하는 전문가의 오른손의 데카르트 위치를 도시하고, 도 12의 우측 부분은 같은 네개의 덮개 봉합 작업을 수행하는 초보자의 오른손의 데카르트 위치를 도시한다. 위치 선에 따라 다양한 색깔 및/또는 마크가 각 수술자가 작업 중에 사용한 다양한 서젬과 관련될 수 있다. 이 도면은 전문가 수준의 기술을 가진 수술자와 초보자 수준의 기술을 가진 수술자 간의 움직임에서의 많은 차이를 자세하게 도시한다.
교육
도 11은 한 실시양태에 따라, 사용자에게 어떻게 수술 작업을 더 효율적으로 수행하는지를 교육하는 기술 정량화 응용 프로그램(130)으로부터 학습한 정보에 기초한 방법을 도시한다. 1105에서, 전문가 수술자가 시술 또는 작업을 어떻게 수행하는지에 대한 정보(예를 들어, 서젬 또는 덱셈 수준에서)를 모듈(915)을 비교함으로써 학습한다. 1110에서, 전문가 수술자의 움직임이 모형화 모듈(905)를 사용하여 모형화된다. 1115에서, 사용자는 교육 모듈(920)을 사용하여, 전문가 수술자 수준에서 찾아볼 수 있는 모형화된 움직임을 사용하는 전문가 수술자의 움직임을 학습한다. 예를 들어, 사용자는 그 또는 그녀의 움직임을 전문가의 움직임과 어떻게 비교하는지를 본원에 기술된 다양한 실시양태에 기재된 것과 같은 분석 데이터를 봄으로써 나타낼 수 있다. 다른 실시양태에서, 전문가의 단일 움직임 또는 전문가의 움직임들의 조합은 전원을 켠(powered) 주 조작기를 통해 "다시 재생"(관련 비디오와 함께 또는 없이)될 수 있고, 그로써 초보자가 조작기를 살짝 움켜잡고 운동 감각적 경험을 통해 어떻게 전문가가 움직이는지 뒤따를 수 있다. 비슷하게, 전문가의 기구의 모의 움직임이 수술자 콘솔에 표시되어 초보자가 모의 또는 실제 기구를 움직임여 전문가의 기구의 움직임을 흉내를 냄으로써 뒤따르게 할 수 있다. 만약 하나 이상의 서젬 또는 덱셈이 특히 학습하기 어려운 것으로 확인된다면, 그러한 서젬 또는 덱셈은 초보자에게 반복적으로 다시 재생되고/거나 초보자가 기술 수준 평가가 전문가의 그것과 비교할만할 때까지 움직임을 연습하는 동안 모니터될 수 있다. 그리고, 초보자 수술자는 평가 수준 점수가 전문가의 그것과 비교할만하게 되는 것을 달성하게 동기부여된다. 특정 작업, 서젬, 및/또는 덱셈은 수습자 각각에 대해 연습 및 숙달하도록 확인될 수 있으며, 본 발명의 측면에 따른 분석 특징은 수습자에게 빠르게 수행을 파악하도록 한다.
결론
본 발명의 다양한 실시양태가 상기에 기술되어 있지만, 이는 예시의 방법으로 나타낸 것이며, 제한하려 하는 것이 아닌 것으로 이해되어야 한다. 본 발명의 사상 및 범위를 벗어나지 않으면서 다양한 형태 및 세부사항의 변화가 이루어질 수 있다는 것은 당업자에게 명백할 것이다. 그러므로, 본 발명이 상기 기술된 예로서의 실시양태로 제한되어서는 안된다.
추가로, 본 발명의 기능 및 장점을 강조한 상기에 기재된 도면들은 단지 예시의 목적으로 나타낸 것이다. 본 발명의 설계는 충분히 유연하고 변경 가능하여, 도면에서 나타낸 것 이외의 방법으로 이용될 수 있다.
더욱이, 이 개시의 요약의 목적은 미국 특허상표청 및 대중, 및 특히 특허 또는 법률 용어 또는 어법에 친숙하지 않은 과학자, 기술자 및 의사에게 본 출원의 기술적 개시의 특성과 본질을 피상적인 조사로부터 빠르게 알 수 있게 하기 위함이다. 이 개시의 요약은 본 발명의 범위를 어떤 방식으로든 제한하려는 의도가 아니다.
마지막으로, 분명한 표현 "~의 방법" 또는 "~의 단계" 를 포함하는 청구항들만 35 U.S.C. 112, 문단 6에 의거하여 해석된다는 것이 출원인의 의도이다. 어구 "~의 방법" 또는 "~의 단계"를 분명하게 포함하지 않는 청구항들은 35 U.S.C. 112, 문단 6에 의거하여 해석되어서는 안된다.

Claims (26)

  1. 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템으로서,
    하나 이상의 수술 로봇을 포함하는 하나 이상의 수술 장치로부터, 한 명 이상의 전문가 수준 사용자에 의해 행해진 하나 이상의 수술 시술과 관련된 하나 이상의 컴퓨터상의 수술 데이터를 수집하는 것과 연관된 처리를 수행하는 단계;
    하나 이상의 컴퓨터를 이용하여 수술 데이터를 두 개 이상의 서젬(surgeme) 및 두 개 이상의 덱셈(dexeme)으로 세분하는 것과 연관된 처리를 수행하는 단계 - 상기 세분하는 것은, 세분을 위해 적어도 두 개의 자동 세분 방법을 이용하고, 적어도 두 개의 자동 세분 방법 각각의 정확도를 점검하고, 적어도 두 개의 자동 세분 방법 중 가장 정확한 세분 방법을 이용하는 것을 포함하고,
    상기 데이터를 서젬 및 덱셈으로 세분하는 것은, 데이터를 정규화하고, 선형 판별법(LDA)을 이용하여 그것을 더 낮은 차원으로 예측하고, σ에 대한 모든 가능성있는 값에 대해 더 낮은 차원의 데이터 xt를 하기 수식에 대입하는 것을 포함하고,
    Figure 112017062059981-pct00027

    여기서 P의 최대값을 제공하는 σ의 값은 사용되는 세분화이고, bi 및 ei는 σi의 시작 및 종료-시간을 나타내고, Sσ는 서젬 또는 덱셈 σ 모형의 은닉 상태를 나타내고,
    Figure 112017062059981-pct00028
    는 이 상태들 간의 이행 확률이며,
    Figure 112017062059981-pct00029
    는 s∈ Sσ와 관련한 평균 μs 및 공분산 ∑s를 가지는 다변수 가우스 밀도이고,
    각각의 서젬은 하나 이상의 수술 시술의 하나 이상의 수술 부-작업을 포함하고,
    각각의 덱셈은, 한 명 이상의 전문가 수준 수술 사용자가 하나 이상의 수술 장치를 이용하여 서젬 중 하나를 수행함에 따라, 부-작업을 수행할 때 행해진 한 명 이상의 전문가 수준 사용자의 하나 이상의 전문가 수준 사용자 수술 움직임 및/또는 부-작업을 위한 하나 이상의 수술 장치 움직임을 포함함 -; 및
    서젬 중 임의의 한 개 이상의 서젬, 덱셈 중 임의의 한 개 이상의 덱셈, 및/또는, 서젬 중 임의의 한 개 이상의 서젬 및 이와 연관된 덱셈과의 임의의 조합을 연습하기 위한 한 대 이상의 수술 시뮬레이터로 한 명 이상의 훈련 사용자를 지도함으로써, 서젬 수준 및/또는 덱셈 수준에서 한 명 이상의 훈련 사용자를 훈련하는 것과 연관된 처리를 수행하는 단계 - 한 대 이상의 수술 시뮬레이터는 전문가 수준 사용자에 의해 행해진 하나 이상의 수술을 시뮬레이션함 -
    를 위해 설정된, 하나 이상의 컴퓨터에서 작동가능한 하나 이상의 응용 프로그램을 포함하는
    한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  2. 제1항에 있어서, 상기 수술 데이터는 비디오 데이터, 움직임 데이터, 또는 이들의 임의의 조합인, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  3. 제1항에 있어서, 두 개 이상의 덱셈 중 적어도 하나는 두 명 이상의 전문가 수준 사용자에 의한 움직임의 조합인, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  4. 제1항에 있어서, 두 개 이상의 덱셈 중 하나는 두 개 이상의 서젬과 연관되는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  5. 제1항에 있어서, 상기 훈련과 연관된 처리를 수행하는 단계는 인간 감독자 없이 일어나는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  6. 제1항에 있어서, 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나를 수행할 때 한 명 이상의 훈련 사용자의 전문성 수준이 결정되는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  7. 제1항에 있어서, 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나는 한 명 이상의 훈련 사용자가 시간에 따라 전개하는, 정량화 가능한 물리적인 움직임을 포함하는 시스템.
  8. 제1항에 있어서, 상기 훈련과 연관된 처리를 수행하는 단계는,
    한 명 이상의 전문가 수준 사용자의 하나 이상의 모형화된 움직임에 기초하여 한 명 이상의 훈련 사용자의 하나 이상의 움직임을 지도하는 단계를 더 포함하는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  9. 제1항에 있어서, 하나 이상의 응용 프로그램은,
    평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나를, 한 명 이상의 사용자가 어떻게 수행하는지를 나타내는 제2 데이터를 수집하는 것과 연관된 처리를 수행하는 단계;
    평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나에 대해, 한 명 이상의 사용자의 수집된 제2 데이터와 한 명 이상의 전문가 수준 사용자에 대해 대응하는 수집된 수술 데이터를 비교함으로써, 한 명 이상의 사용자의 임상술 수준을 결정하는 것과 연관된 처리를 수행하는 단계;
    평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나에 대해, 한 명 이상의 사용자의 결정된 임상술 수준을 출력하는 것과 연관된 처리를 수행하는 단계
    를 위해 추가로 설정되는 것인, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  10. 제1항에 있어서, 하나 이상의 수술 부-작업은, 운동학적 파라미터, 데카르트 위치, 데카르트 속도, 관절 위치, 관절 속도, 회전 매트릭스 값, 또는 설정 관절 값, 또는 이들의 임의의 조합과 관련되는 정보를 포함하는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  11. 제1항에 있어서, 수술 부-작업은, 시스템에서 다양한 위치에 있는 다양한 서보 시간, 및/또는 버튼 위치과 관련되는 정보를 포함하는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  12. 제1항에 있어서, 한 명 이상의 훈련 사용자가, 한 명 이상의 전문가 수준 사용자가 움직임을 어떻게 수행하는지를 운동학적으로 경험하는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  13. 제1항에 있어서, 수술 데이터는, 내시경 이미징 시스템으로 수집된 비디오 데이터를 포함하는, 한 명 이상의 훈련 사용자를 훈련하기 위한 시스템.
  14. 한 명 이상의 사용자를 훈련하기 위한 방법으로서,
    하나 이상의 수술 로봇을 포함하는 하나 이상의 수술 장치로부터, 한 명 이상의 전문가 수준 사용자에 의해 행해진 하나 이상의 수술 시술과 관련된 수술 데이터를 수집하는 것과 연관된 처리를 수행하는 단계;
    하나 이상의 컴퓨터를 이용하여 수술 데이터를 두 개 이상의 서젬(surgeme) 및 두 개 이상의 덱셈(dexeme)으로 세분하는 것과 연관된 처리를 수행하는 단계 - 상기 세분하는 것은, 세분을 위한 적어도 두 개의 자동 세분 방법을 이용하고, 적어도 두 개의 자동 세분 방법 각각의 정확도를 점검하고, 적어도 두 개의 자동 세분 방법 중 가장 정확한 세분 방법을 이용하는 것을 포함하고,
    상기 데이터를 서젬 및 덱셈으로 세분하는 것은, 데이터를 정규화하고, 선형 판별법(LDA)을 이용하여 그것을 더 낮은 차원으로 예측하고, σ에 대한 모든 가능성있는 값에 대해 더 낮은 차원의 데이터 xt를 하기 수식에 대입하는 것을 포함하고,
    Figure 112017062059981-pct00030

    여기서 P의 최대값을 제공하는 σ의 값은 사용되는 세분화이고, bi 및 ei는 σi의 시작 및 종료-시간을 나타내고, Sσ는 서젬 또는 덱셈 σ 모형의 은닉 상태를 나타내고,
    Figure 112017062059981-pct00031
    는 이 상태들 간의 이행 확률이며,
    Figure 112017062059981-pct00032
    는 s∈ Sσ와 관련한 평균 μs 및 공분산 ∑s를 가지는 다변수 가우스 밀도이고,
    각각의 서젬은 하나 이상의 수술 시술의 하나 이상의 수술 부-작업을 포함하고,
    각각의 덱셈은, 한 명 이상의 전문가 수준 수술 사용자가 하나 이상의 수술 장치를 이용하여 서젬 중 하나를 수행함에 따라, 부-작업을 수행할 때 행해진 한 명 이상의 전문가 수준 사용자의 하나 이상의 전문가 수준 사용자 수술 움직임 및/또는 부-작업을 위한 하나 이상의 수술 장치 움직임을 포함함 -, 및
    서젬 중 임의의 한 개 이상의 서젬, 덱셈 중 임의의 한 개 이상의 덱셈, 및/또는, 서젬 중 임의의 한 개 이상의 서젬 및 이와 연관된 덱셈과의 임의의 조합을 연습하기 위한 한 대 이상의 수술 시뮬레이터로 한 명 이상의 훈련 사용자를 지도함으로써, 서젬 수준 및/또는 덱셈 수준에서 한 명 이상의 훈련 사용자를 훈련하는 것과 연관된 처리를 수행하는 단계 - 한 대 이상의 수술 시뮬레이터는 전문가 수준 사용자에 의해 행해진 하나 이상의 수술을 시뮬레이션함 -
    를 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  15. 제14항에 있어서, 상기 수술 데이터는 비디오 데이터, 움직임 데이터, 또는 이들의 임의의 조합인, 한 명 이상의 사용자를 훈련하기 위한 방법.
  16. 제14항에 있어서, 두 개 이상의 덱셈 중 적어도 하나는 두 명 이상의 전문가 수준 사용자에 의한 움직임의 조합인, 한 명 이상의 사용자를 훈련하기 위한 방법.
  17. 제14항에 있어서, 두 개 이상의 덱셈 중 하나는 두 개 이상의 서젬과 연관되는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  18. 제14항에 있어서, 상기 훈련과 연관된 처리를 수행하는 단계는 인간 감독자 없이 일어나는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  19. 제14항에 있어서, 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나를 수행할 때 한 명 이상의 훈련 사용자의 전문성 수준이 결정되는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  20. 제14항에 있어서, 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나는 한 명 이상의 훈련 사용자가 시간에 따라 전개하는, 정량화 가능한 물리적인 움직임을 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  21. 제14항에 있어서, 상기 훈련은,
    한 명 이상의 전문가 수준 사용자의 하나 이상의 모형화된 움직임에 기초하여 한 명 이상의 훈련 사용자의 하나 이상의 움직임을 지도하는 것과 연관된 처리를 수행하는 것을 더 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  22. 제14항에 있어서, 평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나를, 한 명 이상의 사용자가 어떻게 수행하는지를 나타내는 제2 데이터를 수집하는 것과 연관된 처리를 수행하는 단계;
    평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나에 대해, 한 명 이상의 사용자의 수집된 제2 데이터와 한 명 이상의 전문가 수준 사용자에 대해 대응하는 수집된 수술 데이터를 비교함으로써, 한 명 이상의 사용자의 임상술 수준을 결정하는 것과 연관된 처리를 수행하는 단계;
    평가되는 두 개 이상의 서젬 및/또는 두 개 이상의 덱셈 중 적어도 하나에 대해, 한 명 이상의 사용자의 결정된 임상술 수준을 출력하는 것과 연관된 처리를 수행하는 단계
    를 더 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  23. 제14항에 있어서, 하나 이상의 수술 부-작업은, 운동학적 파라미터, 데카르트 위치, 데카르트 속도, 관절 위치, 관절 속도, 회전 매트릭스 값, 또는 설정 관절 값, 또는 이들의 임의의 조합과 관련되는 정보를 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  24. 제14항에 있어서, 수술 부-작업은, 시스템에서 다양한 위치에 있는 다양한 서보 시간, 및/또는 버튼 위치과 관련되는 정보를 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  25. 제14항에 있어서, 한 명 이상의 훈련 사용자는, 한 명 이상의 전문가 수준 사용자가 움직임을 어떻게 수행하는지를 운동학적으로 경험하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
  26. 제14항에 있어서, 수술 데이터는, 내시경 이미징 시스템으로 수집된 비디오 데이터를 포함하는, 한 명 이상의 사용자를 훈련하기 위한 방법.
KR1020117024589A 2009-03-20 2010-03-19 전문 기술을 정량화하는 방법 및 시스템 KR101914303B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16200709P 2009-03-20 2009-03-20
US61/162,007 2009-03-20
PCT/US2010/028025 WO2010108128A2 (en) 2009-03-20 2010-03-19 Method and system for quantifying technical skill

Publications (2)

Publication Number Publication Date
KR20120013955A KR20120013955A (ko) 2012-02-15
KR101914303B1 true KR101914303B1 (ko) 2018-11-01

Family

ID=42740264

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117024589A KR101914303B1 (ko) 2009-03-20 2010-03-19 전문 기술을 정량화하는 방법 및 시스템

Country Status (6)

Country Link
US (4) US9196176B2 (ko)
EP (1) EP2409286B1 (ko)
JP (1) JP5726850B2 (ko)
KR (1) KR101914303B1 (ko)
CN (1) CN102362302B (ko)
WO (1) WO2010108128A2 (ko)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8556807B2 (en) * 2006-12-21 2013-10-15 Intuitive Surgical Operations, Inc. Hermetically sealed distal sensor endoscope
US8814779B2 (en) 2006-12-21 2014-08-26 Intuitive Surgical Operations, Inc. Stereoscopic endoscope
EP3392863B1 (en) 2010-10-01 2020-04-22 Applied Medical Resources Corporation Portable laparoscopic trainer
EP2636034A4 (en) * 2010-11-04 2015-07-22 Univ Johns Hopkins SYSTEM AND METHOD FOR ASSESSING OR ENHANCING CAPACITIES IN NON-INVASIVE SURGERY
JP2014506695A (ja) * 2011-01-30 2014-03-17 ミレイ,ラム スリカンス 技術評価
US9026247B2 (en) 2011-03-30 2015-05-05 University of Washington through its Center for Communication Motion and video capture for tracking and evaluating robotic surgery and associated systems and methods
CA3146636A1 (en) 2011-10-21 2013-04-25 Applied Medical Resources Corporation Simulated tissue structure for surgical training
KR101953187B1 (ko) 2011-12-20 2019-02-28 어플라이드 메디컬 리소시스 코포레이션 어드밴스드 수술 시뮬레이션
JP5938987B2 (ja) * 2012-03-28 2016-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20150079565A1 (en) * 2012-04-11 2015-03-19 Eastern Virginia Medical School Automated intelligent mentoring system (aims)
US9148443B2 (en) 2012-07-06 2015-09-29 University of Washington through its Center for Commericalization Enhanced security and safety in telerobotic systems
WO2014022815A1 (en) 2012-08-03 2014-02-06 Applied Medical Resources Corporation Simulated stapling and energy based ligation for surgical training
US20140051049A1 (en) 2012-08-17 2014-02-20 Intuitive Surgical Operations, Inc. Anatomical model and method for surgical training
JP2015532450A (ja) 2012-09-26 2015-11-09 アプライド メディカル リソーシーズ コーポレイション 腹腔鏡処置のための外科訓練モデル
AU2013323463B2 (en) 2012-09-27 2017-08-31 Applied Medical Resources Corporation Surgical training model for laparoscopic procedures
ES2871473T3 (es) 2012-09-27 2021-10-29 Applied Med Resources Modelo de entrenamiento quirúrgico para procedimientos laparoscópicos
US10679520B2 (en) 2012-09-27 2020-06-09 Applied Medical Resources Corporation Surgical training model for laparoscopic procedures
CA2885326A1 (en) 2012-09-28 2014-04-03 Applied Medical Resources Corporation Surgical training model for laparoscopic procedures
EP3467805B1 (en) 2012-09-28 2020-07-08 Applied Medical Resources Corporation Surgical training model for transluminal laparoscopic procedures
CN111312049B (zh) 2012-10-01 2022-04-29 皇家飞利浦有限公司 使用设备形状感测的临床决策支持和训练系统
US9070306B2 (en) * 2012-11-02 2015-06-30 Digital Surgicals Pte. Ltd. Apparatus, method and system for microsurgical suture training
KR102380465B1 (ko) 2013-03-01 2022-03-31 어플라이드 메디컬 리소시스 코포레이션 진보된 수술 시뮬레이션 구성물들 및 방법들
CA3139494A1 (en) 2013-05-15 2014-11-20 Applied Medical Resources Corporation Hernia model
EP3011550B1 (en) 2013-06-18 2018-01-03 Applied Medical Resources Corporation Gallbladder model
US10198966B2 (en) 2013-07-24 2019-02-05 Applied Medical Resources Corporation Advanced first entry model for surgical simulation
WO2015013516A1 (en) 2013-07-24 2015-01-29 Applied Medical Resources Corporation First entry model
JP6659547B2 (ja) * 2013-12-20 2020-03-04 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 医療処置トレーニングのためのシミュレータシステム
ES2891756T3 (es) 2014-03-26 2022-01-31 Applied Med Resources Tejido diseccionable simulado
JP6238840B2 (ja) * 2014-06-09 2017-11-29 オリンパス株式会社 医療業務支援装置
CN105321415A (zh) * 2014-08-01 2016-02-10 卓思生命科技有限公司 一种手术模拟系统及方法
US10668353B2 (en) 2014-08-11 2020-06-02 Icuemotion Llc Codification and cueing system for sport and vocational activities
WO2016077195A1 (en) 2014-11-13 2016-05-19 Applied Medical Resources Corporation Simulated tissue models and methods
KR102542516B1 (ko) 2015-02-19 2023-06-13 어플라이드 메디컬 리소시스 코포레이션 시뮬레이션된 조직 구조체들 및 방법들
US11170665B2 (en) * 2015-04-29 2021-11-09 Dentsply Sirona Inc. System and method for training dentists in endodontic treatment techniques
JP2018514805A (ja) 2015-05-14 2018-06-07 アプライド メディカル リソーシーズ コーポレイション 電気手術トレーニングおよびシミュレーション用の合成組織構造
AU2016263106B2 (en) * 2015-05-15 2020-01-16 Mako Surgical Corp. Systems and methods for providing guidance for a robotic medical procedure
JP6109454B1 (ja) 2015-05-21 2017-04-05 オリンパス株式会社 医療用マニピュレータシステム
KR20230143197A (ko) * 2015-05-27 2023-10-11 어플라이드 메디컬 리소시스 코포레이션 복강경 절차들에 대한 수술 트레이닝 모델
EP3307196A4 (en) 2015-06-09 2019-06-19 Intuitive Surgical Operations Inc. SURGICAL SYSTEM CONFIGURATION WITH ATLAS OF SURGICAL PROCEDURES
KR20180016553A (ko) 2015-06-09 2018-02-14 어플라이드 메디컬 리소시스 코포레이션 자궁 절제술 모델
CA2992552A1 (en) 2015-07-16 2017-01-19 Applied Medical Resources Corporation Simulated dissectable tissue
AU2016297579B2 (en) 2015-07-22 2022-03-17 Applied Medical Resources Corporation Appendectomy model
US10854104B2 (en) 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
WO2017059417A1 (en) 2015-10-02 2017-04-06 Applied Medical Resources Corporation Hysterectomy model
CN113456241A (zh) * 2015-11-12 2021-10-01 直观外科手术操作公司 具有训练或辅助功能的外科手术系统
ES2955662T3 (es) 2015-11-20 2023-12-05 Applied Med Resources Tejido diseccionable simulado
CN105608945B (zh) * 2016-03-04 2018-07-20 南昌大学 一种沉浸式自适应位姿虚拟手术训练平台
AU2017291422B2 (en) 2016-06-27 2023-04-06 Applied Medical Resources Corporation Simulated abdominal wall
CN109313928B (zh) * 2016-06-30 2022-03-25 奥林巴斯株式会社 医疗信息提供系统以及医疗信息提供方法
RU2641612C2 (ru) * 2016-07-04 2018-01-18 Акционерное общество Центральное конструкторское бюро аппаратостроения Тренажер-манипулятор для подготовки операторов комплексов вооружения
WO2018089816A2 (en) * 2016-11-11 2018-05-17 Intuitive Surgical Operations, Inc. Teleoperated surgical system with surgeon skill level based instrument control
EP3583589A1 (en) 2017-02-14 2019-12-25 Applied Medical Resources Corporation Laparoscopic training system
US10847057B2 (en) 2017-02-23 2020-11-24 Applied Medical Resources Corporation Synthetic tissue structures for electrosurgical training and simulation
RU2662379C1 (ru) * 2017-03-20 2018-07-25 Акционерное общество "Ульяновский механический завод" Пункт управления занятиями по подготовке боевых расчетов зенитного ракетного комплекса
RU2657708C1 (ru) * 2017-04-17 2018-06-14 Федеральное государственное бюджетное образовательное учреждение высшего образования "Морской государственный университет имени адмирала Г.И. Невельского" Тренажерный комплекс для подготовки судоводителей
RU2666039C1 (ru) * 2017-06-20 2018-09-05 Общество с ограниченной ответственностью "Научно-технический центр компьютерных технологий "Тор" (ООО "НТЦКТ "Тор") Комплексная тренажерная система для подготовки специалистов противовоздушной обороны
US20190009133A1 (en) * 2017-07-06 2019-01-10 Icuemotion Llc Systems and methods for data-driven movement skill training
US11213353B2 (en) 2017-08-22 2022-01-04 Covidien Lp Systems and methods for planning a surgical procedure and evaluating the performance of a surgical procedure
KR101862360B1 (ko) * 2017-12-28 2018-06-29 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
JP7384575B2 (ja) * 2018-08-10 2023-11-21 川崎重工業株式会社 情報処理装置、仲介装置、シミュレートシステム、情報処理方法及びプログラム
KR102529023B1 (ko) * 2018-08-10 2023-05-08 카와사키 주코교 카부시키 카이샤 트레이닝 처리 장치, 중개 장치, 트레이닝 시스템 및 트레이닝 처리 방법
JP7103078B2 (ja) * 2018-08-31 2022-07-20 オムロン株式会社 作業支援装置、作業支援方法及び作業支援プログラム
EP3920826A1 (en) 2019-02-05 2021-12-15 Smith&Nephew, Inc. Algorithm-based optimization for knee arthroplasty procedures
WO2020213484A1 (ja) * 2019-04-19 2020-10-22 学校法人慶應義塾 手術評価システム
CN112489541A (zh) * 2019-09-12 2021-03-12 吴文钧 医疗训练的多媒体辅助系统
CN113017830A (zh) * 2021-02-23 2021-06-25 刘睿 一种基于视频识别的显微外科吻合操作评分系统
WO2022204083A1 (en) * 2021-03-25 2022-09-29 The Johns Hopkins University Systems and methods for assessing surgical skill

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040030245A1 (en) * 2002-04-16 2004-02-12 Noble Philip C. Computer-based training methods for surgical procedures
JP2004192603A (ja) * 2002-07-16 2004-07-08 Nec Corp パターン特徴抽出方法及びその装置
US20070172803A1 (en) * 2005-08-26 2007-07-26 Blake Hannaford Skill evaluation

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5766016A (en) 1994-11-14 1998-06-16 Georgia Tech Research Corporation Surgical simulator and method for simulating surgical procedure
US5682886A (en) 1995-12-26 1997-11-04 Musculographics Inc Computer-assisted surgical system
AU5391999A (en) * 1998-08-04 2000-02-28 Intuitive Surgical, Inc. Manipulator positioning linkage for robotic surgery
US6852107B2 (en) 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
JP3660521B2 (ja) 1999-04-02 2005-06-15 株式会社モリタ製作所 医療実習装置及び医療用実習評価方法
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US6386882B1 (en) * 1999-11-10 2002-05-14 Medtronic, Inc. Remote delivery of software-based training for implantable medical device systems
JP3769469B2 (ja) 2001-03-28 2006-04-26 株式会社東芝 操作訓練用装置
WO2002080809A2 (en) 2001-04-05 2002-10-17 The Regents Of The University Of California Robotic device for locomotor training
DE10130485C2 (de) 2001-06-25 2003-06-26 Robert Riener Programmierbarer Gelenksimulator
WO2003030724A2 (en) * 2001-10-12 2003-04-17 University Of Utah Research Foundation Anesthesia drug monitor
JP2004046102A (ja) * 2002-05-12 2004-02-12 Morita Mfg Co Ltd ネットワーク対応型医療用診療実習シミュレーション装置
JP2004348095A (ja) * 2003-03-26 2004-12-09 National Institute Of Advanced Industrial & Technology トレーニングシステム
KR20040084243A (ko) 2003-03-27 2004-10-06 학교법인 경희대학교 인공고관절 가상 시술 시뮬레이션 시스템
JP3735672B2 (ja) 2003-07-22 2006-01-18 国立大学法人岐阜大学 リハビリテーション訓練技術教育装置
JP4378127B2 (ja) 2003-07-23 2009-12-02 キヤノン株式会社 駆動伝達部材の軸心位置決め方法
WO2006016348A1 (en) * 2004-08-13 2006-02-16 Haptica Limited A method and system for generating a surgical training module
CN100493460C (zh) 2007-04-12 2009-06-03 中国人民解放军第三军医大学第一附属医院 一种虚拟经食道超声心动图系统
CN101049248A (zh) 2007-05-18 2007-10-10 西安工业大学 光磁电复合导航手术定位装置和方法
CN201156345Y (zh) * 2008-01-10 2008-11-26 傅强 内窥镜微创手术仿真系统
US20100167253A1 (en) * 2008-12-31 2010-07-01 Haptica Ltd. Surgical training simulator
US20130157239A1 (en) * 2011-12-16 2013-06-20 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada Augmented reality tele-mentoring (art) platform for laparoscopic training
US20160210882A1 (en) * 2014-12-29 2016-07-21 Help Me See Inc. Surgical Simulator System and Method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040030245A1 (en) * 2002-04-16 2004-02-12 Noble Philip C. Computer-based training methods for surgical procedures
JP2004192603A (ja) * 2002-07-16 2004-07-08 Nec Corp パターン特徴抽出方法及びその装置
US20070172803A1 (en) * 2005-08-26 2007-07-26 Blake Hannaford Skill evaluation

Also Published As

Publication number Publication date
CN102362302A (zh) 2012-02-22
US20170221385A1 (en) 2017-08-03
US10008129B2 (en) 2018-06-26
EP2409286B1 (en) 2018-09-05
KR20120013955A (ko) 2012-02-15
JP5726850B2 (ja) 2015-06-03
US20180253994A1 (en) 2018-09-06
US9691290B2 (en) 2017-06-27
EP2409286A4 (en) 2015-03-04
CN102362302B (zh) 2016-01-06
US20160098933A1 (en) 2016-04-07
US20120189996A1 (en) 2012-07-26
JP2012521568A (ja) 2012-09-13
WO2010108128A2 (en) 2010-09-23
US9196176B2 (en) 2015-11-24
WO2010108128A3 (en) 2011-01-13
EP2409286A2 (en) 2012-01-25

Similar Documents

Publication Publication Date Title
KR101914303B1 (ko) 전문 기술을 정량화하는 방법 및 시스템
KR101975808B1 (ko) 최소 침습 수술 기량의 평가 또는 개선을 위한 시스템 및 방법
Gao et al. Jhu-isi gesture and skill assessment working set (jigsaws): A surgical activity dataset for human motion modeling
JP6169562B2 (ja) サンプルタスク軌跡を分析する、コンピュータで実現される方法、および、サンプルタスク軌跡を分析するシステム
Reiley et al. Automatic recognition of surgical motions using statistical modeling for capturing variability
Rhienmora et al. Intelligent dental training simulator with objective skill assessment and feedback
Reiley et al. Task versus subtask surgical skill evaluation of robotic minimally invasive surgery
US20070172803A1 (en) Skill evaluation
US20110020779A1 (en) Skill evaluation using spherical motion mechanism
Jun et al. Robotic minimally invasive surgical skill assessment based on automated video-analysis motion studies
Verner et al. Measurements of the level of surgical expertise using flight path analysis from da Vinci™ robotic surgical system
Menegozzo et al. Surgical gesture recognition with time delay neural network based on kinematic data
Reiley et al. Decomposition of robotic surgical tasks: an analysis of subtasks and their correlation to skill
Murphy Towards objective surgical skill evaluation with hidden Markov model-based motion recognition
Chen et al. Visual modelling and evaluation of surgical skill
Cavallo et al. Biomechanics–machine learning system for surgical gesture analysis and development of technologies for minimal access surgery
US20240038097A1 (en) Surgical instrument
Grantner et al. Intelligent Performance Assessment System for Laparoscopic Surgical Box-Trainer
De Novi et al. Event-driven Surgical Gesture Segmentation and Task Recognition for Ocular Trauma Simulation.
Oleynikov et al. Effect of visual feedback on surgical performance using the da Vinci® surgical system
Rhienmora et al. Providing objective feedback on skill assessment in a dental surgical training simulator
Megali et al. Understanding expertise in surgical gesture by means of Hidden Markov Models
Westwood et al. Simulation technology in surgical education: can we assess manipulative skills and what does it mean to the learner
Kawamura et al. Considering Skill Evaluation Indexes Using 3D Motion Information of Instruments in Training Environment for Endoscopic Sinus Surgery
Kumar et al. TRAINING AND SKILL ASSESSMENT FOR ROBOTIC-ASSISTED MINIMALLY INVASIVE SURGERY—PART 1: HISTORICAL PERSPECTIVE AND CHALLENGES

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
X701 Decision to grant (after re-examination)