KR101397522B1 - An intravenous injection simulator system and method using augmented reality - Google Patents

An intravenous injection simulator system and method using augmented reality Download PDF

Info

Publication number
KR101397522B1
KR101397522B1 KR1020120114326A KR20120114326A KR101397522B1 KR 101397522 B1 KR101397522 B1 KR 101397522B1 KR 1020120114326 A KR1020120114326 A KR 1020120114326A KR 20120114326 A KR20120114326 A KR 20120114326A KR 101397522 B1 KR101397522 B1 KR 101397522B1
Authority
KR
South Korea
Prior art keywords
image
intravenous
augmented reality
target image
unit
Prior art date
Application number
KR1020120114326A
Other languages
Korean (ko)
Other versions
KR20140047943A (en
Inventor
김지인
엄기동
서안나
이승연
이준
김원종
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020120114326A priority Critical patent/KR101397522B1/en
Publication of KR20140047943A publication Critical patent/KR20140047943A/en
Application granted granted Critical
Publication of KR101397522B1 publication Critical patent/KR101397522B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Algebra (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템 및 방법에 관한 것이다.
이를 위하여 본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템은 영상 촬영부와, 정맥 정보와 정맥 주사 위치 정보가 저장된 모델 저장부와, 영상 촬영부 또는 외부로부터 입력되는 입력 영상에서 목표 영상을 추출하고, 추출된 목표 영상과 상기 목표 영상의 특징점 정보를 포함하는 학습 모델을 생성하는 학습 모델 생성부와, 영상 촬영부에서 촬영된 실시간 영상과 상기 학습 모델을 기반으로 상기 실시간 영상에서 목표 영상 영역을 검출하는 목표 영상 검출부와, 검출된 목표 영상 영역을 포함하는 실시간 영상 내 상기 모델 저장부에 저장된 정맥 정보 및 정맥 주사 위치 정보를 매핑시켜 출력 장치에 출력하여 증강 현실을 구현하는 증강 현실 구현부를 포함할 수 있다.
The present invention relates to augmented reality based intravenous training simulator system and method.
To this end, an augmented reality-based intravenous training simulator system according to an embodiment of the present invention includes an image capturing unit, a model storage unit storing vein information and intravenous position information, A learning model generating unit for generating a learning model including an extracted target image and characteristic point information of the target image based on the real time image captured by the image capturing unit and the learning model, An augmented reality realizing the augmented reality by mapping the vein information and the intravenous scan position information stored in the model storage unit in the real time image including the detected target image region and outputting the mapped information to the output device Section.

Description

증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템 및 방법{AN INTRAVENOUS INJECTION SIMULATOR SYSTEM AND METHOD USING AUGMENTED REALITY}TECHNICAL FIELD [0001] The present invention relates to an augmented reality-based intravenous training simulator system and method,

본 발명은 정맥 주사 훈련에 관한 것으로서, 더욱 상세하게는 교육 효과를 극대화시킬 수 있는 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템 및 방법에 관한 것이다.
The present invention relates to intravenous injection training, and more particularly, to an augmented reality based intravenous training simulator system and method capable of maximizing the educational effect.

동물 의료 훈련은 예비 수의사들이 동물을 대상으로 의료 행위를 실습하고 훈련을 하는 과정으로 동물에 대한 직접적인 치료 방법을 배울 수 있는 중요한 훈련 과정이다.Animal medicine training is an important training course for preliminary veterinary practitioners to practice and practice medical care for animals and learn how to treat animals directly.

하지만, 실험 대상인 동물에 대한 동물 보호법으로 인해 규제가 확대되고, 실험에 사용되는 동물에 대한 실험 횟수 제한의 문제들로 인해서 훈련자들에 대한 동물 의료 훈련의 기회가 제한되는 문제점이 있다.
However, there is a problem that the regulations on the animal protection laws for the animal subject to the experiment are expanded, and the limitation of the number of experiments on the animals used in the experiment limits the opportunity of animal medical training to the trainees.

공개특허 10-2012-0077226호에는 증강 현실을 기반으로 한 배선 교육 시스템에 관련된 기술이 기재되어 있다.In the patent document 10-2012-0077226, a technique related to a wiring education system based on an augmented reality is described.

상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 정맥 주사 훈련을 위한 학습 모델을 생성하고, 학습 모델을 기반으로 실시간 영상에서 목표 영상 영역을 검출한 후 목표 영상 영역에 학습 모델 생성 시 이용되는 이미지를 매핑시켜 증강 현실을 구현함으로써, 교육 효과를 극대화시킬 수 있는 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템 및 방법을 제공하는데 있다.
The object of the present invention is to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for generating a learning model for intravenous training, detecting a target image region in a real- Which can maximize the educational effect by realizing an augmented reality by mapping an image used in an augmented reality.

본 발명의 일 관점에 따르면, 본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템은 영상 촬영부와, 정맥 정보와 정맥 주사 위치 정보가 저장된 모델 저장부와, 상기 영상 촬영부 또는 외부로부터 입력되는 입력 영상에서 목표 영상을 추출하고, 상기 추출된 목표 영상과 상기 목표 영상의 특징점 정보를 포함하는 학습 모델을 생성하는 학습 모델 생성부와, 상기 영상 촬영부에서 촬영된 실시간 영상과 상기 학습 모델을 기반으로 상기 실시간 영상에서 목표 영상 영역을 검출하는 목표 영상 검출부와, 상기 검출된 목표 영상 영역을 포함하는 실시간 영상 내 상기 모델 저장부에 저장된 정맥 정보 및 정맥 주사 위치 정보를 매핑시켜 출력 장치에 출력하여 증강 현실을 구현하는 증강 현실 구현부를 포함할 수 있다.According to one aspect of the present invention, an augmented reality-based intravenous training simulator system according to an embodiment of the present invention includes an image capturing unit, a model storage unit storing vein information and intravenous position information, A learning model generation unit that extracts a target image from an input image input from the input unit and generates a learning model that includes the extracted target image and minutia information of the target image; And a controller for mapping the vein information and the intravenous scan position information stored in the model storage unit in the real time image including the detected target image area to the output device And an augmented reality implementing unit for implementing the augmented reality.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스은템3차원 위치 정보와 방향 각도를 계산하며, 상기 실시간 영상 내에서 정맥 주사를 위해 조작됨에 따른 정맥 성공 여부를 알려주는 햅틱 정맥 주사기를 더 포함할 수 있다.The augmented reality-based intravenous training simulator system according to an embodiment of the present invention calculates a three-dimensional positional information and a directional angle of a vein and generates a haptic intravenous syringe that indicates the success or failure of vein as it is operated for intravenous injection in the real- .

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템에서 상기 햅틱 정맥 주사기는, 정맥 주사 완료 여부를 알리기 위한 인터페이스와, 상기 정맥 주사 완료에 따라 정맥 주사 성공 여부를 알려주는 알림부를 포함할 수 있다.In the augmented reality-based intravenous training simulator system according to the embodiment of the present invention, the haptic intravenous syringe includes an interface for notifying completion of intravenous injection, and a notification unit for notifying success or failure of intravenous injection upon completion of the intravenous injection .

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템에서 상기 학습 모델 생성부는, 상기 입력 영상 내 상기 목표 영상의 코너 부분을 특징점으로 설정하며, 특징점 후보군을 설정하는 특징점 검출부와, 상기 특징점과 특징점 후보군을 트리 형태로 구성하여 패치 트리 정보를 생성하는 패치 생성부와, 상기 목표 영상을 기 설정된 각도로 회전시킴에 따라 생성된 각도별 패치 트리 정보를 이용하여 상기 생성된 패치 트리 정보를 정규화하여 테이블에 저장하는 정규화부와, 상기 설정된 특징점과 상기 패치 트리 정보와 상기 테이블를 이용하여 상기 학습 모델을 생성하는 모델 생성부를 포함할 수 있다.In the IVUS training simulator system based on an augmented reality according to an embodiment of the present invention, the learning model generation unit may include a feature point detection unit for setting a corner portion of the target image in the input image as a feature point, A patch generator for generating patch tree information by constructing a set of feature point candidates in a tree form; and a patch generator for normalizing the generated patch tree information using the patch tree information for each angle generated by rotating the target image by a predetermined angle And a model generating unit for generating the learning model using the set feature points, the patch tree information, and the table.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템에서 상기 목표 영상 검출부는, 상기 실시간 영상의 가우시안 피라미드 이미지 변환을 통해 상기 목표 영상의 특징점 수와 기 설정된 범위 내에서 근접한 특징점 수를 갖는 이미지를 선택하는 이미지 변환부와, 상기 이미지 변환부에 의해 선택된 이미지에 "RANSAC" 알고리즘을 적용하여 아웃리어(outlier)를 제거하는 정렬부와, 상기 아웃리어가 제거된 이미지에 대한 호모그래피를 계산하며, 상기 계산된 호모그래피를 이용하여 상기 아웃리어가 제거된 이미지를 보정하는 보정부와, 상기 보정된 이미지에서 상기 목표 영상 영역을 검출하는 검출부를 포함할 수 있다.In the augmented reality-based intravenous training simulator system according to the embodiment of the present invention, the target-image detecting unit may detect the number of feature points of the target image and the number of feature points that are close to each other within a preset range through the Gaussian pyramid image transformation of the real- An alignment unit for removing an outlier by applying a "RANSAC" algorithm to the image selected by the image conversion unit; and a calculation unit for calculating a homography of the image from which the outlier is removed, A correction unit that corrects the image from which the outlier is removed using the calculated homography, and a detection unit that detects the target image region in the corrected image.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템에서 상기 증강 현실 구현부는, 상기 실시간 영상의 목표 영상 영역에 상기 학습 모델을 생성하기 위해 이용된 목표 영상을 매핑시켜 상기 출력 장치에 출력하는 것을 특징으로 한다.In the augmented reality-based intravenous training simulator system according to the embodiment of the present invention, the augmented reality implementing unit maps a target image used for generating the learning model to a target image region of the real-time image, .

본 발명의 다른 측면에 따르면, 본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법은 입력 영상에서 목표 영상을 추출하고, 상기 추출된 목표 영상과 상기 목표 영상의 특징점 정보를 포함하는 학습 모델을 생성하는 단계와, 실시간 영상이 입력되면, 상기 학습 모델을 기반으로 상기 실시간 영상에서 목표 영상 영역을 검출하는 단계와, 상기 검출된 목표 영상을 포함하는 실시간 영상 내 기 저장된 정맥 정보 및 정맥 주사 위치 정보를 매핑시켜 출력 장치에 출력하여 증강 현실을 구현하는 단계를 포함할 수 있다.According to another aspect of the present invention, an augmented reality-based intravenous scanning training simulator method for extracting a target image from an input image and learning the target image including minutia information of the target image A step of generating a model, a step of, when a real-time image is inputted, detecting a target image region in the real-time image based on the learning model, and storing the stored vein information and intravenous And mapping the position information to output to the output device to implement the augmented reality.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법에서 상기 학습 모델을 생성하는 단계는, 상기 입력 영상 내 상기 목표 영상의 코너 부분을 특징점으로 설정하며, 특징점 후보군을 설정하는 단계와, 상기 특징점과 특징점 후보군을 트리 형태로 구성하여 패치 트리 정보를 생성하는 단계와, 상기 목표 영상을 기 설정된 각도로 회전시킴에 따른 각도별 패치 트리 정보를 생성한 후 상기 생성된 각도별 패치 트리 정보를 이용하여 상기 생성된 패치 트리 정보를 정규화하여 테이블에 저장하는 단계와, 상기 설정된 특징점과 상기 패치 트리 정보와 상기 테이블을 이용하여 상기 학습 모델을 생성하는 단계를 포함할 수 있다.The step of generating the learning model in the augmented reality-based intravenous training simulator according to the embodiment of the present invention includes the steps of setting a corner portion of the target image in the input image as a minutiae and setting a minutiae candidate group, Generating patch tree information by constructing the feature points and the feature point candidates in a tree form to generate patch tree information; generating patch tree information for each angle by rotating the target image by a predetermined angle; Storing the generated patch tree information in a table, and generating the learning model using the set feature point, the patch tree information, and the table.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법에서 상기 목표 영상을 검출하는 단계는, 상기 실시간 영상의 가우시안 피라미드 이미지 변환을 통해 생성된 다수의 이미지들 중 상기 목표 영상의 특징점 수와 기 설정된 범위 내에서 근접한 특징점 수를 갖는 이미지를 선택하는 단계와, 상기 선택된 이미지에 "RANSAC" 알고리즘을 적용하여 아웃리어(outlier)를 제거하는 단계와, 상기 아웃리어가 제거된 이미지에 대한 호모그래피를 계산하는 단계와, 상기 계산된 호모그래피를 이용하여 상기 아웃리어가 제거된 이미지를 보정하는 단계와, 상기 보정된 이미지에서 상기 목표 영상 영역을 검출하는 단계를 포함할 수 있다.The step of detecting the target image in the augmented reality-based intravenous training simulator according to the embodiment of the present invention may include: calculating a number of feature points of the target image among the plurality of images generated through the Gaussian pyramid image transformation of the real- The method comprising: selecting an image having a number of feature points in close proximity within a predetermined range; applying an "RANSAC" algorithm to the selected image to remove an outlier; Correcting the image from which the outlier has been removed using the calculated homography, and detecting the target image region from the corrected image.

본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법에서 상기 증강 현실을 구현하는 단계는, 상기 목표 영상 영역에 상기 목표 영상에 대응되는 이미지를 매핑시켜 상기 출력 장치에 출력하는 것을 특징으로 한다.
The step of implementing the augmented reality in the augmented reality-based intravenous training simulator according to the embodiment of the present invention may further include mapping the image corresponding to the target image to the target image region and outputting the mapped image to the output device do.

본 발명에 따르면, 증강 현실 기술을 이용하여 정맥 주사 훈련을 도와줄 수 있는 시뮬레이터를 구현함으로써, 정교한 조작이 필요한 정맥 주사 교육에 대한 효과를 극대화시킬 수 있다.According to the present invention, by implementing a simulator that can assist intravenous injection training using the augmented reality technique, it is possible to maximize the effect of intravenous injection training which requires precise manipulation.

또한, 본 발명은 정맥 주사의 위치와 정맥 정보를 디스플레이해줌으로써, 정맥 주사 훈련의 편의성을 증진시킬 수 있다.Further, the present invention can enhance the convenience of intravenous injection training by displaying the intravenous position and vein information.

본 발명은 정맥 주사 훈련을 위한 학습 모델을 생성하고, 학습 모델을 기반으로 실시간 영상에서 목표 영상 영역을 검출한 후 목표 영상 영역에 학습 모델 생성 시 이용되는 이미지를 매핑시켜 증강 현실을 구현함으로써, 자연스러운 객체 인식이 가능하다.
The present invention creates a learning model for intravenous training, implements an augmented reality by mapping an image used in generating a learning model to a target image region after detecting a target image region in a real-time image based on a learning model, Object recognition is possible.

도 1은 본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템을 도시한 블록도,
도 2는 본 발명의 실시 예에 이용되는 햅틱 정맥 주사기 외관을 도시한 도면,
도 3은 본 발명의 실시 예에 따른 학습 모델 생성부의 내부 구조를 도시한 블록도,
도 4a 내지 도 4b는 본 발명의 실시 예에 따른 학습 모델을 생성하기 위한 특징점 검출 과정을 설명하기 위한 도면,
도 5는 본 발명의 실시 예에 따른 패치 트리 정보를 생성하는 과정을 설명하기 위한 도면,
도 6은 본 발명의 실시 예에 따라 목표 영상 검출부의 내부 구조를 도시한 블록도,
도 7은 본 발명의 실시 예에 따라 증강 현실을 구현한 예시도,
도 8은 본 발명의 실시 예에 적용되는 워크벤치 시스템을 도시한 도면,
도 9a 내지 도 9b는 워크벤치 시스템에 장착된 디스플레이 장치를 설명하기 위한 도면,
도 10은 본 발명의 실시 예에 따른 워크벤치 시스템을 이용하여 증강 현실을 구현한 예시도.
1 is a block diagram illustrating an augmented reality-based intravenous training simulator system according to an embodiment of the present invention;
2 is a view showing the appearance of a haptic intravenous syringe used in an embodiment of the present invention,
3 is a block diagram showing an internal structure of a learning model generation unit according to an embodiment of the present invention;
FIGS. 4A and 4B are diagrams for explaining a feature point detection process for generating a learning model according to an embodiment of the present invention;
5 is a diagram for explaining a process of generating patch tree information according to an embodiment of the present invention;
6 is a block diagram illustrating an internal structure of a target image detecting unit according to an embodiment of the present invention.
FIG. 7 illustrates an exemplary embodiment of an augmented reality according to an exemplary embodiment of the present invention,
8 is a diagram illustrating a work bench system applied to an embodiment of the present invention,
9A to 9B are views for explaining a display device mounted on a work bench system,
10 is an exemplary view illustrating an augmented reality implemented using a workbench system according to an embodiment of the present invention;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

이하, 첨부된 도면을 참조하여 증강 현실 기반의 동물 훈련 시뮬레이터 시스템 및 방법에 대해 설명하기로 한다.Hereinafter, an augmented reality-based animal training simulator system and method will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템을 도시한 블록도이다.1 is a block diagram illustrating an augmented reality based intravenous injection training simulator system in accordance with an embodiment of the present invention.

도 1에 도시된 바와 같이, 증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템은 입력 장치(100), 3D 모델 저장부(120), 증강 현실 시뮬레이터 장치(140) 및 출력 장치(160) 등을 포함하여 구성될 수 있다.1, an augmented reality-based intravenous training simulator system includes an input device 100, a 3D model storage unit 120, an augmented reality simulator device 140, an output device 160, and the like. .

입력 장치(100)는 증강 현실 구현을 위한 영상을 촬영하여 제공하는 영상 촬영부(102), 정맥 주사를 위한 햅틱 정맥 주사기(104)로 구성될 수 있다. The input apparatus 100 may include an image capturing unit 102 for capturing and providing an image for realizing an augmented reality, and a haptic intravenous syringe 104 for intravenous injection.

영상 촬영부(102)는 증강 현실 구현을 위한 영상을 촬영하기 위한 수단으로서, 그 예로서 증강 현실 인식용 카메라를 들 수 있다. The image capturing unit 102 is a means for capturing an image for realizing an augmented reality, for example, a camera for recognizing an augmented reality.

또한, 영상 촬영부(102)는 증강 현실 인식용 카메라뿐만 아니라 적외선 카메라를 더 포함할 수 있다. 즉, 영상 촬영부(102)로서 출력 장치(160) 중 하나인 모니터의 상단부에 1대의 증강 현실 인식용 적외선 카메라와 적외선 카메라가 장착되며, 측면부에 적외선 카메라가 장착될 수 있다. The image capturing unit 102 may further include an infrared camera as well as a camera for recognizing an augmented reality. That is, the image capturing unit 102 may be equipped with one infrared ray camera for recognition of an augmented reality and an infrared ray camera at the upper end of the monitor, which is one of the output devices 160, and an infrared ray camera may be mounted on the side surface.

본 발명의 실시 예에서 햅틱 정맥 주사기(104)의 외관은 실제 정맥 주사에 사용되는 5CC 정맥 주사기의 형태를 가지며, 실험자가 정맥 주사 삽입 과정 시에 발생하는 다양한 형태의 입력 작업을 처리할 수 있을 뿐만 아니라 정맥 주사 시뮬레이션의 성공 여부를 판단하기 위한 입력 인터랙션을 구비할 수 있다.In the embodiment of the present invention, the appearance of the haptic intravenous syringe 104 is in the form of a 5CC intravenous syringe used for actual intravenous injection, and it is possible for the experimenter to handle various types of input operations occurring during intravenous injection insertion But may include an input interaction for determining the success or failure of the intravenous simulation.

이러한 햅틱 정맥 주사기(104)는 적어도 하나 이상의 적외선 발광체(104a), 자이로 센서(104b), 버튼(104c) 및 알림부(104d) 등을 포함할 수 있다. 여기에서 적어도 하나 이상의 적외선 발광체(104a)는 적외선 카메라에 의해 인식될 수 있으며, 그 예로서 LED를 들 수 있으나, 이에 한정되지는 않는다. 이러한 적외선 카메라에 의해 인식되어 햅틱 정맥 주사기(104)의 3차원 위치가 판독될 수 있다.The haptic intravenous injector 104 may include at least one infrared ray illuminator 104a, a gyro sensor 104b, a button 104c, and a notification unit 104d. Here, the at least one infrared ray illuminator 104a can be recognized by an infrared camera, for example, but not limited to, an LED. The three-dimensional position of the haptic intravenous syringe 104 can be recognized by the infrared camera.

햅틱 정맥 주사기(104)의 알림부(104d)는 증강 현실 시뮬레이터 장치(140)로부터 정맥 주사 성공 여부에 대한 정보를 제공받은 후 이를 알려주기 위한 수단으로서, 그 예로서 피드백용 진동 모터를 들 수 있다. 즉, 피드백용 진동 모터는 성공 여부에 따른 서로 다른 진동을 제공함으로써, 실험자가 해당 실험의 성공 여부를 알 수 있도록 한다.The notification unit 104d of the haptic intravenous syringe 104 is a means for informing the user of information on the success or failure of intravenous injection from the augmented reality simulator apparatus 140, . That is, the feedback vibration motor provides different vibrations according to success or failure, thereby enabling the experimenter to know whether the experiment is successful or not.

또한, 햅틱 정맥 주사기(104)는 자신의 3차원 위치와 그 위치에서 햅틱 정맥 주사기(104)가 갖는 방향 각도 정보 등을 계산한 후 이를 출력 장치(160)에 제공할 수 있다. 이러한 정보들은 5KHz의 샘플링 속도로 제공될 수 있다.In addition, the haptic intravenous syringe 104 may calculate the direction angle information of the haptic vein injector 104 at its three-dimensional position and its position, and then provide it to the output device 160. Such information can be provided at a sampling rate of 5 KHz.

햅틱 정맥 주사기(104)는 정맥 주사 완료를 증강 현실 시뮬레이터 장치(140)에 알리기 위한 인터페이스, 즉 버튼(104c)을 구비할 수 있다.The haptic intravenous syringe 104 may include an interface 104c for informing the augmented reality simulator device 140 of the completion of intravenous injection.

한편, 이러한 햅틱 정맥 주사기(104)는 증강 현실 시뮬레이터 장치(140)와 유선 또는 무선으로 연결되며, 버튼(104c)의 조작에 따른 정보를 유무선 통신을 통해 증강 현실 시뮬레이터 장치(140)에 제공하거나 정맥 주사 성공 여부를 유무선 통신을 통해 증강 현실 시뮬레이터 장치(140)에 제공받을 수 있다.The haptic intravenous syringe 104 is connected to the augmented reality simulator device 140 in a wired or wireless manner and provides information to the augmented reality simulator device 140 via wired or wireless communication with the button 104c, The augmented reality simulator device 140 can receive the success or failure of the injection through the wired or wireless communication.

3D 모델 저장부(120)는 정맥 정보를 저장하고 있다. 여기에서, 정맥 정보의 생성 과정에 대해 설명하면, 먼저 비글견을 대상 동물로 선정하고, CT 촬영을 한 후 얻어진 이미지들에 대한 3D 볼륨 이미지를 구성한다. 그런 다음, 3D 볼륨 이미지 중 정맥 부분에 대한 세그멘테이션(segmentation) 과정을 수행하여 다양한 3D 형태 정맥 정보가 추출될 수 있다.The 3D model storage unit 120 stores vein information. Here, the process of generating vein information will be described. First, a beagle dog is selected as a target animal, and a 3D volume image of the images obtained after the CT image is formed. Then, various 3D shape vein information can be extracted by performing a segmentation process on the vein part of the 3D volume image.

한편, 3D 모델 저장부(120)에는 각 정맥 정보에 대한 정맥 주사 위치 정보가 저장되어 있다.On the other hand, the 3D model storage unit 120 stores the vein scan position information for each vein information.

증강 현실 시뮬레이터 장치(140)에는 학습 모델을 생성하기 위한 학습 모델 생성부(142), 실시간 영상과 학습 모델을 근거하여 실시간 영상에서 목표 영상을 검출하는 목표 영상 검출부(144)에 해당되는 위치를 검출하기 위한 목표 영상 검출부(144) 및 실시간 영상에서 검출된 목표 영상에 정맥 정보와 정맥 주사 정보를 매핑시킨 결과 영상을 출력 장치(160)를 통해 출력하여 증강 현실을 구현하는 증강 현실 구현부(146) 등을 구비할 수 있다.The augmented reality simulator device 140 is provided with a learning model generation unit 142 for generating a learning model, a position corresponding to a target image detection unit 144 for detecting a target image in the real time image based on the real time image and the learning model, An augmented reality implementing unit 146 for outputting a resultant image obtained by mapping vein information and intravenous information to a target image detected from a real time image through an output unit 160 to implement an augmented reality, And the like.

학습 모델 생성부(142)는 외부로부터 입력된 입력 영상 또는 영상 촬영부(102)에 의해 촬영된 영상에서 2차원 이미지(이하, 목표 영상이라고 함)의 학습 모델을 생성하는 것으로, 이를 위하여 특징점 검출부(200), 패치 생성부(210), 정규화부(220), 모델 생성부(230) 및 저장부(240) 등을 포함할 수 있다.The learning model generation unit 142 generates a learning model of a two-dimensional image (hereinafter, referred to as a target image) from an externally input image or an image photographed by the image capturing unit 102. For this purpose, A patch generation unit 210, a normalization unit 220, a model generation unit 230, a storage unit 240, and the like.

특징점 검출부(200)는 "Harris Corner Detector"를 이용하여 목표 영상에서 코너 부분을 검색한 후 이를 특징점으로 설정할 수 있다. The minutia detection unit 200 can search for a corner portion in the target image using the "Harris Corner Detector ", and set it as a minutia.

또한, 특징점 검출부(200)는 특징점을 추출하는 과정에 특징점이 될 수 있는 후보군들에 대해 점수를 부여할 수 있다. 즉, 도 4a에 도시된 바와 같은 2차원 이미지, 즉 목표 영상에 "Harris Corner Detector"을 적용하여 특징점을 추출할 경우, 도 4b에 도시된 바와 같이 코너 부분과 특징점 후보군들이 추출된다.In addition, the feature point detection unit 200 may assign scores to candidates that can be feature points in the process of extracting feature points. That is, when a feature point is extracted by applying a "Harris Corner Detector " to a two-dimensional image as shown in FIG. 4A, that is, a target image, corner portions and feature point candidates are extracted as shown in FIG.

패치 검출부(210)는 특징점과 특징점 후보군을 트리 형태로 구성하여 패치 트리 정보를 구성한다. The patch detection unit 210 configures patch tree information by constructing the feature points and the feature point candidate groups in a tree form.

먼저, 도 5에 도시된 바와 같이, 패치 검출부(210)는 "Harris Corner Detector"로부터 획득한 특징점을 빨간 원으로 표현하고, 추출된 특징점 후보군들을 초록색 원과 파란색 원으로 표현한다. 그런 다음, 빨간 원을 최상위 노드로 초록색 원을 하위 노드로 파란색 원을 최하위 노드로 하는 패치 트리 정보를 생성한다.First, as shown in FIG. 5, the patch detector 210 expresses feature points obtained from the "Harris Corner Detector " as a red circle, and expresses extracted feature point candidates as a green circle and a blue circle. Then, we generate patch tree information with the red circle as the top node, the green circle as the bottom node, and the blue circle as the bottom node.

정규화부(220)는 입력 영상을 기 설정된 각도만큼 회전시키면서, 각도별로 패치 트리 정보를 검출한 후 검출된 각도별 패치 트리 정보를 이용하여 패치 생성부(210)에서 생성된 패치 트리 정보를 정규화시킨다. 즉, 정규화부(220)는 입력 영상을 0도부터 360도까지 1도 단위로 회전하면서 패치 트리 정보를 계산한 후 이를 기반으로 패치 생성부(210)에서 생성된 패치 트리 정보를 정규화하여 룩업 테이블(미도시됨)을 저장한다.The normalization unit 220 detects the patch tree information for each angle while rotating the input image by a predetermined angle, and then normalizes the patch tree information generated by the patch generation unit 210 using the detected patch tree information for each angle . That is, the normalizing unit 220 calculates the patch tree information while rotating the input image from 0 degrees to 360 degrees in 1 degree increments, normalizes the patch tree information generated by the patch generating unit 210 based on the calculated patch tree information, (Not shown).

상기와 같이 각도별로 패치 트리 정보를 계산한 후 이를 기반으로 특징점 기반의 패치 트리 정보를 정규화함으로써, 영상의 회전에 불변하는 패치 트리 정보를 제공할 수 있다.The patch tree information is calculated for each angle as described above, and then the patch tree information based on the feature points is normalized based on the patch tree information, thereby providing patch tree information that is invariant to the rotation of the image.

모델 생성부(230)는 검출된 특징점, 패치 트리 형태의 정보 및 룩업 테이블을 이용하여 학습 모델을 생성한 후 이를 저장부(240)에 저장한다. 여기에서, 학습 모델은 텍스트 파일 형태로 저장부(240)에 저장될 수 있다.The model generation unit 230 generates a learning model using the detected feature points, information in the form of a patch tree, and a lookup table, and stores the generated learning model in the storage unit 240. Here, the learning model can be stored in the storage unit 240 in the form of a text file.

목표 영상 검출부(144)는 저장부(240)에 저장된 학습 모델을 이용하여 입력 장치(100)의 영상 촬영부(102)로부터 제공받은 실시간 영상에서 목표 영상 영역을 검출할 수 있다.The target image detecting unit 144 can detect the target image region in the real time image provided from the image taking unit 102 of the input apparatus 100 using the learning model stored in the storage unit 240. [

이러한 목표 영상 검출부(144)는, 도 6에 도시된 바와 같이, 이미지 변환부(300), 정렬부(310), 보정부(320) 및 검출부(330) 등을 포함할 수 있다.The target image detecting unit 144 may include an image converting unit 300, an aligning unit 310, a correcting unit 320, and a detecting unit 330, as shown in FIG.

이미지 변환부(300)는 영상 촬영부(102)로부터 제공받은 실시간 입력 영상을 가우시안 피라미드 이미지로 변환한다. 여기에서, 가우시안 피라미드 이미지로 변환하는 과정에 대해 설명하면 아래와 같다.The image converting unit 300 converts a real-time input image provided from the image capturing unit 102 into a Gaussian pyramid image. Here, the process of converting to a Gaussian pyramid image will be described below.

먼저, 실시간 입력 영상의 크기를 1/2, 1/4, 1/8…의 형태로 다운샘플링한 후 원래의 실시간 입력 영상의 크기로 복구하고, 가우시안 블러를 사용하는 방법으로 다운샘플링한 영상을 다시 원래 크기로 복구함으로써, 가우시안 피라미드 이미지가 생성된다.First, the size of real-time input image is 1/2, 1/4, 1/8 ... The Gaussian pyramid image is generated by restoring the downsampled image back to its original size by using the Gaussian blur method.

이렇게 생성된 가우시안 피라미드 이미지는 영상이 흐릿해져 있기 때문에 강력한 특징점 이외의 나머지 특징점은 나타나지 않는다.The resulting Gaussian pyramid image does not show the remaining feature points other than the strong feature points because the image is blurred.

본 발명의 실시 예에서 이미지 변환부(300)는 가장 작게 샘플링된 가우시안 피라미드 이미지에서부터 원래 실시간 입력 영상의 크기까지 특징점 수를 추출하고, 추출된 특징점 수와 저장부(240)에 저장된 학습 모델 내 특징점 수간의 비교를 통해 저장부(240)에 저장된 특징점 수와 기 설정된 범위 안에서 유사한 특징점 수를 갖는 가우시안 피라미드 이미지를 선택한다.In the embodiment of the present invention, the image transform unit 300 extracts the number of feature points from the smallest sampled Gaussian pyramid image to the size of the original real-time input image, and calculates the number of feature points in the learning model stored in the storage unit 240, The Gaussian pyramid image having a similar number of feature points within a preset range is selected from the number of feature points stored in the storage unit 240 through comparison between the numbers.

상술한 바와 같이, 가우시안 피라미드 이미지를 통해 특징점 수를 검색함으로써, 실시간 입력 영상에 목표 영상과 유사한 특징점이 존재할 경우 잘못된 실시간 입력 영상에서 잘못된 목표 영상을 검출하는 문제점을 해결할 수 있다.As described above, when a feature point similar to a target image exists in a real-time input image by searching a feature point number through a Gaussian pyramid image, a problem of detecting a false target image in a false real-time input image can be solved.

정렬부(310)는 아웃리어(outlier)를 처리하는 과정으로서, "RANSAC(Random Sample Consensus, 이하 'RANSAC'라고 함) 방법을 통해 아웃리어를 처리한다. 여기에서, 아웃리어는 실시간 입력 영상에서 잘못 검출된 목표 영상과 유사한 특징점의 위치들을 처리하는 것을 의미한다.The aligner 310 processes the outliers and processes the outliers through a RANSAC (Random Sample Consensus, hereinafter referred to as RANSAC) method. Here, It means processing positions of minutiae similar to the target image which is erroneously detected.

보정부(320)는 실시간 입력 영상으로부터 얻어진 왜곡된 목표 영상을 보정하여 인식하기 위해 호모그래피를 계산한다. 즉, 영상 촬영부(102)에 의해 촬영되는 대상의 회전이나 영상 촬영부(102)의 촬영 각도에 따라 목표 영상 부분이 왜곡되어 보여지기 때문에 실시간 입력 영상 안에서 찾고자 하는 목표 영상은 학습 모델 생성부(142)에서 학습 모델을 생성하기 위해 사용되는 목표 영상의 형태를 띄고 있지 않는다. 따라서, 보정부(320)는 호모그래프 계산을 통해 실시간 입력 영상을 보정한다.The correcting unit 320 calculates the homography to correct and recognize the distorted target image obtained from the real-time input image. That is, since the target image portion is distorted according to the rotation of the subject photographed by the image capturing unit 102 and the photographing angle of the image capturing unit 102, the target image to be searched in the real- 142 do not have the form of the target image used to generate the learning model. Therefore, the corrector 320 corrects the real-time input image through the homography calculation.

호모그래피 계산 과정에 대해 설명하면, 먼저 2차원 목표 영상의 네 꼭지점(모서리)을 기준점으로 정한 후 목표 영상의 네 꼭지점이 전부 나타나도록 영상 촬영부(102)를 제어하면, 실시간 입력 영상에는 목표 영상의 네 모서리가 나와있고, 그 모서리의 입력 영상 안에서 좌표를 구한다.The homography calculation process will be described. First, the four-corner point (corner) of the two-dimensional target image is set as a reference point, and then the image capturing unit 102 is controlled so that all the four vertices of the target image are displayed. And the coordinates are obtained in the input image of the corner.

그런 다음, 실시간 입력 영상에 출력되는 목표 영상의 모서리 좌표와 실제 세상의 목표 영상의 좌표를 서로 대응시켜 호모그래피를 계산한다. 여기에서, 목표 영상의 좌표는 영상 촬영부(102)의 내부 파라미터와 실제 세상의 외부 파라미터를 곱하는 연산을 통해 구할 수 있다. 내부 파라미터는 3차원 실제 영상을 2차원으로 투영시켜 구할 수 있으며, 외부 파라미터는 영상 촬영부(102)가 실제 세상의 원점으로부터 얼마나 떨어져 있고, 얼마나 회전이 되었는지를 담고 있다. Then, the homography is calculated by correlating the coordinates of the target image of the real world with the coordinates of the corner of the target image output to the real-time input image. Here, the coordinates of the target image can be obtained by an operation of multiplying the internal parameters of the image capturing unit 102 and the external parameters of the real world. The internal parameters can be obtained by projecting a three-dimensional real image in two dimensions. The external parameters include how far the image capturing unit 102 is from the origin of the real world and how far it has rotated.

보정부(320)는 외부 파라미터와 내부 파라미터를 이용하여 호모그래피를 계산하며, 계산된 호모그래피를 이용하여 실시간 입력 영상을 보정한다.The correction unit 320 calculates the homography using the external parameters and the internal parameters, and corrects the real time input image using the calculated homography.

검출부(330)는 보정된 실시간 입력 영상에서 목표 영상 영역을 검출할 수 있다.The detection unit 330 can detect the target image region in the corrected real-time input image.

증강 현실 구현부(146)는 목표 영상을 포함하는 실시간 입력 영상 내에 3D 모델 저장부(120)로부터 제공받은 정맥 정보와 정맥 주사 위치 정보를 매핑시켜 출력 장치(160)를 통해 디스플레이해준다.The augmented reality implementing unit 146 maps the vein information and the vein scan position information provided from the 3D model storage unit 120 in the real-time input image including the target image, and displays the mapped information through the output unit 160.

또한, 증강 현실 구현부(146)는 검출부(330)에서 검출된 목표 영상 영역에 학습 모델을 생성하기 위해 이용된 목표 영상의 이미지, 예컨대 2차원 이미지를 매핑시켜 증강 현실을 구현할 수 있다.The augmented reality implementing unit 146 may implement an augmented reality by mapping an image of a target image, for example, a two-dimensional image, used to generate a learning model to the target image region detected by the detecting unit 330. [

즉, 도 7에 도시된 바와 같이, 실시간 입력 영상(400)의 목표 영상이 존재하는 부분에 학습 모델을 생성하기 위해 이용된 목표 영상에 대응되는 2차원 이미지(410)가 매핑되며, 정맥 정보(420) 및 정맥 위치 정보(430)를 매핑시킬 수 있다.That is, as shown in FIG. 7, a two-dimensional image 410 corresponding to a target image used to generate a learning model is mapped to a portion of the real-time input image 400 where the target image exists, 420 and the vein position information 430. FIG.

출력 장치(160)는 증강 현실 구현을 위한 인터페이스 장치로서, 그 예로서 디스플레이 장치, 스피커 등을 들 수 있다. 디스플레이 장치의 예로는 LCD 모니터를 들 수 있으나, 이에 한정되지는 않는다.The output device 160 is an interface device for implementing an augmented reality, and examples thereof include a display device and a speaker. Examples of the display device include, but are not limited to, an LCD monitor.

이러한 디스플레이 장치는 80-50도까지의 회전이 가능할 수 있으며, 증강 현실 시뮬레이터 장치(140)에 장착될 수 있다. 이러한 디스플레이 장치가 증강 현실 시뮬레이터 장치(140)에 장착되는 것을 햅틱 워크벤치 시스템이라고 하며, 이러한 햅틱 워크벤치 시스템에 대해 도 8, 도 9a 및 도 9b와 도 10을 참조하여 설명한다.Such a display device may be capable of rotating up to 80-50 degrees and may be mounted on the augmented reality simulator device 140. The haptic work bench system in which such a display device is mounted on the augmented reality simulator device 140 will be described with reference to Figs. 8, 9A, 9B, and 10. Fig.

햅틱 워크벤치 시스템(800)은 도 8에 도시된 바와 같이, 디스플레이 장치, 예컨대 22-24인치 크기의 LCD 모니터가 탈부착되며, 상단부에 1대의 증강 현실용 카메라와 적외선 카메라(810)가 설치되며, 측면부에 1대의 적외선 카메라(820)가 설치될 수 있다.8, a haptic workbench system 800 includes a display device, for example, a 22-24 inch LCD monitor, and a camera for augmented reality and an infrared camera 810 are installed at an upper end, And one infrared camera 820 may be installed on the side portion.

이러한 햅틱 워크벤치 시스템에 탈부착되는 디스플레이 장치는, 도 9a 및 도 9b에 도시된 바와 같이, 80-50도 사이까지 회전 가능하며, 실험자는 이러한 회전을 통해 모니터의 화면을 조정할 수 있다.A display device detachably attached to the haptic workbench system is rotatable between 80-50 degrees as shown in FIGS. 9A and 9B, and the experimenter can adjust the screen of the monitor through such rotation.

한편, 실험자가 햅틱 워크벤치 시스템을 이용하여 정맥 주사 실험을 하는 경우 도 10에 도시된 바와 같이, 실험자는 한 손에 소동물 다리 모델을 쥐고, 다른 한 손에 도 2의 햅틱 정맥 주사기(104)를 들고 실험을 진행할 수 있다.When the experimenter performs the intravenous injection experiment using the haptic work bench system, as shown in FIG. 10, the experimenter holds the small animal leg model on one hand and the haptic intravenous injector 104 of FIG. 2 on the other hand. To carry out the experiment.

이러한 햅틱 워크벤치 시스템은 도 2의 햅틱 정맥 주사기(104)와 연동될 수 있는데, 즉 상단부의 적외선 카메라(810)는 햅틱 정맥 주사기(104)의 측면에 설치된 적외선 발광체(104a)를 인식하여 햅틱 정맥 주사기(104)의 X, Y의 2차원 평면위치를 측정하고, 측면부의 적외선 카메라(820)는 햅틱 정맥 주사기(104)의 적외선 발광체(104a)의 높이 값을 측정함으로써, 햅틱 정맥 주사기(104)의 3차원 위치 값을 측정하여 증강 현실 시뮬레이터 장치(140)에 제공할 수 있다.This haptic workbench system can be interlocked with the haptic intravenous syringe 104 of FIG. 2. That is, the infrared camera 810 at the upper end recognizes the infrared light emitter 104a installed on the side of the haptic vein injector 104, Dimensional plane position of the syringe 104 and the side infrared camera 820 measures the height of the infrared light emitter 104a of the haptic intravenous syringe 104 by measuring the height of the infrared light emitter 104a of the haptic intravenous syringe 104, Dimensional position value of the augmented reality simulator device 140 and provide it to the augmented reality simulator device 140. [

한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Accordingly, the scope of the invention should not be limited by the described embodiments but should be defined by the appended claims.

100 : 입력 장치 102 : 영상 촬영부
104 : 햅틱 정맥 주사기 120 : 3D 모델 저장부
140 : 증강 현실 시뮬레이터 장치 142 : 학습 모델 생성부
144 : 목표 영상 검출부 146 : 증강 현실 구현부
160 : 출력 장치 200 : 특징점 검출부
210 : 패치 정보 생성부 220 : 정규화부
230 : 모델 생성부 240 : 저장부
300 : 이미지 변환부 310 : 정렬부
320 : 보정부 330 : 검출부
100: Input device 102:
104: Haptic intravenous syringe 120: 3D model storage unit
140: augmented reality simulator device 142: learning model generation unit
144: target image detecting unit 146: augmented reality implementing unit
160: Output device 200:
210: patch information generation unit 220: normalization unit
230: model generation unit 240:
300: image converting unit 310:
320: a correction unit 330:

Claims (10)

영상 촬영부와,
정맥 정보와 정맥 주사 위치 정보가 저장된 모델 저장부와,
상기 영상 촬영부 또는 외부로부터 입력되는 입력 영상에서 목표 영상을 추출하고, 상기 추출된 목표 영상과 상기 목표 영상의 특징점 정보를 포함하는 학습 모델을 생성하는 학습 모델 생성부와,
상기 영상 촬영부에서 촬영된 실시간 영상과 상기 학습 모델을 기반으로 상기 실시간 영상에서 목표 영상 영역을 검출하는 목표 영상 검출부와,
상기 검출된 목표 영상 영역을 포함하는 실시간 영상 내(內)에서 상기 모델 저장부에 저장된 정맥 정보 및 정맥 주사 위치 정보를 매핑시켜 출력 장치에 출력하여 증강 현실을 구현하는 증강 현실 구현부를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
An image capturing unit,
A model storage unit for storing vein information and intravenous position information,
A learning model generation unit that extracts a target image from the input image input from the image capturing unit or from outside and generates a learning model including the extracted target image and the minutia information of the target image;
A target image detecting unit for detecting a target image region in the real time image based on the real time image taken by the image taking unit and the learning model;
And an augmented reality implementing unit for mapping intravenous information and intravenous scanning position information stored in the model storage unit in a real-time image including the detected target image region and outputting the intravenous information and intravenous scanning position information to an output device to implement an augmented reality
Augmented reality based intravenous training simulator system.
제 1 항에 있어서,
상기 시뮬레이터 시스템은,
3차원 위치 정보와 방향 각도를 계산하며, 상기 실시간 영상 내에서 정맥 주사를 위해 조작됨에 따른 정맥 주사 조작 성공 여부를 알려주는 햅틱 정맥 주사기를 더 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
The method according to claim 1,
The simulator system includes:
Further comprising a haptic intravenous syringe for calculating the three-dimensional position information and the directional angle and notifying the success or failure of the intravenous injection operation according to the operation for intravenous injection in the real time image
Augmented reality based intravenous training simulator system.
제 2 항에 있어서,
상기 햅틱 정맥 주사기는,
정맥 주사 완료 여부를 알리기 위한 인터페이스와,
상기 정맥 주사 완료에 따라 상기 정맥 주사 조작 성공 여부를 알려주는 알림부를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
3. The method of claim 2,
The haptic intravenous syringe includes:
An interface for informing the completion of the intravenous injection,
And an informing unit informing the success or failure of the intravenous scanning operation upon completion of the intravenous scanning
Augmented reality based intravenous training simulator system.
제 1 항에 있어서,
상기 학습 모델 생성부는,
상기 입력 영상 내 상기 목표 영상의 코너 부분을 특징점으로 설정하며, 특징점 후보군을 설정하는 특징점 검출부와,
상기 특징점과 특징점 후보군을 트리 형태로 구성하여 패치 트리 정보를 생성하는 패치 생성부와,
상기 목표 영상을 기 설정된 각도로 회전시킴에 따라 생성된 각도별 패치 트리 정보를 이용하여 상기 생성된 패치 트리 정보를 정규화하여 테이블에 저장하는 정규화부와,
상기 설정된 특징점과 상기 패치 트리 정보와 상기 테이블를 이용하여 상기 학습 모델을 생성하는 모델 생성부를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
The method according to claim 1,
Wherein the learning model generation unit comprises:
A feature point detector for setting a corner point of the target image in the input image as a feature point and setting a feature point candidate group;
A patch generator for generating the patch tree information by constructing the feature points and the feature point candidates in a tree form;
A normalizing unit for normalizing the generated patch tree information using the generated patch tree information for each angle by rotating the target image by a predetermined angle,
And a model generation unit that generates the learning model using the set feature points, the patch tree information, and the table
Augmented reality based intravenous training simulator system.
제 4 항에 있어서,
상기 목표 영상 검출부는,
상기 실시간 영상의 가우시안 피라미드 이미지 변환을 통해 상기 목표 영상의 특징점 수와 기 설정된 범위 내에서 근접한 특징점 수를 갖는 이미지를 선택하는 이미지 변환부와,
상기 이미지 변환부에 의해 선택된 이미지에 "RANSAC" 알고리즘을 적용하여 아웃리어(outlier)를 제거하는 정렬부와,
상기 아웃리어가 제거된 이미지에 대한 호모그래피를 계산하며, 상기 계산된 호모그래피를 이용하여 상기 아웃리어가 제거된 이미지를 보정하는 보정부와,
상기 보정된 이미지에서 상기 목표 영상 영역을 검출하는 검출부를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
5. The method of claim 4,
Wherein the target-
An image transformation unit for transforming the Gaussian pyramid image of the real-time image into an image having a number of feature points in the target image and a number of feature points in a predetermined range,
An alignment unit for applying an "RANSAC" algorithm to an image selected by the image conversion unit to remove an outlier;
A correcting unit for calculating the homography of the image from which the outlier has been removed and correcting the image from which the outlier has been removed by using the calculated homography,
And a detector for detecting the target video region in the corrected image
Augmented reality based intravenous training simulator system.
제 4 항에 있어서,
상기 증강 현실 구현부는,
상기 실시간 영상의 목표 영상 영역에 상기 학습 모델을 생성하기 위해 이용된 목표 영상을 매핑시켜 상기 출력 장치에 출력하는 것을 특징으로 하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 시스템.
5. The method of claim 4,
The augmented reality implementing unit includes:
And maps the target image used for generating the learning model to the target image region of the real-time image, and outputs the mapped target image to the output device
Augmented reality based intravenous training simulator system.
입력 영상에서 목표 영상을 추출하고, 상기 추출된 목표 영상과 상기 목표 영상의 특징점 정보를 포함하는 학습 모델을 생성하는 단계와,
실시간 영상이 입력되면, 상기 학습 모델을 기반으로 상기 실시간 영상에서 목표 영상 영역을 검출하는 단계와,
상기 검출된 목표 영상을 포함하는 실시간 영상 내(內)에서 기 저장된 정맥 정보 및 정맥 주사 위치 정보를 매핑시켜 출력 장치에 출력하여 증강 현실을 구현하는 단계를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법.
Extracting a target image from an input image, generating a learning model including the extracted target image and minutia information of the target image,
Detecting a target image region in the real-time image based on the learning model when a real-time image is input;
And mapping the pre-stored vein information and intravenous scan position information in a real-time image including the detected target image to output to an output device to implement an augmented reality
Augmented reality based intravenous training simulator method.
제 7 항에 있어서,
상기 학습 모델을 생성하는 단계는,
상기 입력 영상 내 상기 목표 영상의 코너 부분을 특징점으로 설정하며, 특징점 후보군을 설정하는 단계와,
상기 특징점과 특징점 후보군을 트리 형태로 구성하여 패치 트리 정보를 생성하는 단계와,
상기 목표 영상을 기 설정된 각도로 회전시킴에 따른 각도별 패치 트리 정보를 생성한 후 상기 생성된 각도별 패치 트리 정보를 이용하여 상기 생성된 패치 트리 정보를 정규화하여 테이블에 저장하는 단계와,
상기 설정된 특징점과 상기 패치 트리 정보와 상기 테이블을 이용하여 상기 학습 모델을 생성하는 단계를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법.
8. The method of claim 7,
Wherein the step of generating the learning model comprises:
Setting a corner portion of the target image in the input image as a minutiae and setting a minutiae candidate group;
Generating patch tree information by constructing the feature points and the feature point candidates in a tree form;
Generating patch tree information for each angle according to rotation of the target image by a predetermined angle, normalizing the generated patch tree information using the generated patch tree information for each angle, and storing the information in a table,
And generating the learning model using the set feature point, the patch tree information, and the table
Augmented reality based intravenous training simulator method.
제 8 항에 있어서,
상기 목표 영상을 검출하는 단계는,
상기 실시간 영상의 가우시안 피라미드 이미지 변환을 통해 생성된 다수의 이미지들 중 상기 목표 영상의 특징점 수와 기 설정된 범위 내에서 근접한 특징점 수를 갖는 이미지를 선택하는 단계와,
상기 선택된 이미지에 "RANSAC" 알고리즘을 적용하여 아웃리어(outlier)를 제거하는 단계와,
상기 아웃리어가 제거된 이미지에 대한 호모그래피를 계산하는 단계와,
상기 계산된 호모그래피를 이용하여 상기 아웃리어가 제거된 이미지를 보정하는 단계와,
상기 보정된 이미지에서 상기 목표 영상 영역을 검출하는 단계를 포함하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법.
9. The method of claim 8,
Wherein the step of detecting the target image comprises:
Selecting an image having a number of minutiae of the target image and a number of minutiae adjacent to each other within a predetermined range among a plurality of images generated through the Gaussian pyramid image transformation of the real-
Applying an "RANSAC" algorithm to the selected image to remove outliers,
Calculating homography for the image from which the outlier has been removed;
Correcting the image from which the outlier has been removed using the calculated homography;
And detecting the target image region in the corrected image
Augmented reality based intravenous training simulator method.
제 7 항에 있어서,
상기 증강 현실을 구현하는 단계는,
상기 목표 영상 영역에 상기 목표 영상에 대응되는 이미지를 매핑시켜 상기 출력 장치에 출력하는 것을 특징으로 하는
증강 현실 기반의 정맥 주사 훈련 시뮬레이터 방법.
8. The method of claim 7,
The step of realizing the augmented reality includes:
And maps the image corresponding to the target image to the target image area and outputs the mapped image to the output device
Augmented reality based intravenous training simulator method.
KR1020120114326A 2012-10-15 2012-10-15 An intravenous injection simulator system and method using augmented reality KR101397522B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120114326A KR101397522B1 (en) 2012-10-15 2012-10-15 An intravenous injection simulator system and method using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120114326A KR101397522B1 (en) 2012-10-15 2012-10-15 An intravenous injection simulator system and method using augmented reality

Publications (2)

Publication Number Publication Date
KR20140047943A KR20140047943A (en) 2014-04-23
KR101397522B1 true KR101397522B1 (en) 2014-05-27

Family

ID=50654273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120114326A KR101397522B1 (en) 2012-10-15 2012-10-15 An intravenous injection simulator system and method using augmented reality

Country Status (1)

Country Link
KR (1) KR101397522B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019178287A1 (en) * 2018-03-15 2019-09-19 Truinject Corp. Augmented reality tools and systems for injection
US10643497B2 (en) 2012-10-30 2020-05-05 Truinject Corp. System for cosmetic and therapeutic training
US10648790B2 (en) 2016-03-02 2020-05-12 Truinject Corp. System for determining a three-dimensional position of a testing tool
US10743942B2 (en) 2016-02-29 2020-08-18 Truinject Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US10896627B2 (en) 2014-01-17 2021-01-19 Truinjet Corp. Injection site training system
US11710424B2 (en) 2017-01-23 2023-07-25 Truinject Corp. Syringe dose and position measuring apparatus

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290231B2 (en) 2014-03-13 2019-05-14 Truinject Corp. Automated detection of performance characteristics in an injection training system
EP3227880B1 (en) 2014-12-01 2018-09-26 Truinject Corp. Injection training tool emitting omnidirectional light
KR20180107076A (en) 2015-10-20 2018-10-01 트루인젝트 코프 Injection system
CN110838253A (en) * 2018-08-15 2020-02-25 苏州敏行医学信息技术有限公司 Intravenous injection intelligent training method and system
KR102619341B1 (en) * 2021-03-09 2023-12-29 한양대학교 산학협력단 Method and system for nursing practice education using virtual reality
KR102614486B1 (en) * 2021-07-09 2023-12-14 동명대학교산학협력단 Simulator for intravenous training using gamification and augmented reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846167B1 (en) 2007-08-08 2008-07-14 주식회사 래도 Apparatus and method for displaying output information of variable message sign board
KR101039298B1 (en) 2009-12-22 2011-06-07 (주)포스트미디어 Sequential inspecting method for recognition of feature points markers based and augmented reality embodiment method using the same
KR20110090782A (en) * 2010-02-02 2011-08-10 한국과학기술연구원 Injection simulation system and method
KR20120009379A (en) * 2010-07-21 2012-02-01 주식회사 비티 Simulator for injection training applied virtual reality and haptic technology

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846167B1 (en) 2007-08-08 2008-07-14 주식회사 래도 Apparatus and method for displaying output information of variable message sign board
KR101039298B1 (en) 2009-12-22 2011-06-07 (주)포스트미디어 Sequential inspecting method for recognition of feature points markers based and augmented reality embodiment method using the same
KR20110090782A (en) * 2010-02-02 2011-08-10 한국과학기술연구원 Injection simulation system and method
KR20120009379A (en) * 2010-07-21 2012-02-01 주식회사 비티 Simulator for injection training applied virtual reality and haptic technology

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643497B2 (en) 2012-10-30 2020-05-05 Truinject Corp. System for cosmetic and therapeutic training
US10902746B2 (en) 2012-10-30 2021-01-26 Truinject Corp. System for cosmetic and therapeutic training
US11403964B2 (en) 2012-10-30 2022-08-02 Truinject Corp. System for cosmetic and therapeutic training
US11854426B2 (en) 2012-10-30 2023-12-26 Truinject Corp. System for cosmetic and therapeutic training
US10896627B2 (en) 2014-01-17 2021-01-19 Truinjet Corp. Injection site training system
US10743942B2 (en) 2016-02-29 2020-08-18 Truinject Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
US10648790B2 (en) 2016-03-02 2020-05-12 Truinject Corp. System for determining a three-dimensional position of a testing tool
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US11730543B2 (en) 2016-03-02 2023-08-22 Truinject Corp. Sensory enhanced environments for injection aid and social training
US11710424B2 (en) 2017-01-23 2023-07-25 Truinject Corp. Syringe dose and position measuring apparatus
WO2019178287A1 (en) * 2018-03-15 2019-09-19 Truinject Corp. Augmented reality tools and systems for injection

Also Published As

Publication number Publication date
KR20140047943A (en) 2014-04-23

Similar Documents

Publication Publication Date Title
KR101397522B1 (en) An intravenous injection simulator system and method using augmented reality
US11727593B1 (en) Automated data capture
JP5897624B2 (en) Robot simulation device for simulating workpiece removal process
JP7197971B2 (en) Information processing device, control method and program for information processing device
CN103838437B (en) Touch positioning control method based on projection image
Kuo et al. 3D object detection and pose estimation from depth image for robotic bin picking
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
EP3455686A1 (en) Systems and methods for initializing a robot to autonomously travel a trained route
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN103702607A (en) Calibration and transformation of a camera system's coordinate system
JP2018060296A (en) Image processing apparatus, image processing system, and image processing method
CN110926330B (en) Image processing apparatus, image processing method, and program
CN104025116A (en) Image acquisition method
CN112017231A (en) Human body weight identification method and device based on monocular camera and storage medium
KR20170078176A (en) Apparatus for presenting game based on action recognition, method thereof and computer recordable medium storing the method
US20130057652A1 (en) Handheld Scanning Device
CN104067295B (en) Posture identification method, device for the method and computer program
JP2009216503A (en) Three-dimensional position and attitude measuring method and system
CN112950528A (en) Certificate posture determining method, model training method, device, server and medium
CN111399634A (en) Gesture-guided object recognition method and device
CN111079470B (en) Method and device for detecting human face living body
Shen et al. A multi-view camera-projector system for object detection and robot-human feedback
CN112732075B (en) Virtual-real fusion machine teacher teaching method and system for teaching experiments
JP2015203680A (en) Information processing device, method, and program
JP2020126414A (en) Machine learning tutor data creation assisting method and machine learning tutor data creation assisting program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190513

Year of fee payment: 6