KR20100041219A - Using method and laser robot with vision system - Google Patents

Using method and laser robot with vision system Download PDF

Info

Publication number
KR20100041219A
KR20100041219A KR1020080100287A KR20080100287A KR20100041219A KR 20100041219 A KR20100041219 A KR 20100041219A KR 1020080100287 A KR1020080100287 A KR 1020080100287A KR 20080100287 A KR20080100287 A KR 20080100287A KR 20100041219 A KR20100041219 A KR 20100041219A
Authority
KR
South Korea
Prior art keywords
laser
robot
affected part
affected
vision
Prior art date
Application number
KR1020080100287A
Other languages
Korean (ko)
Other versions
KR101135610B1 (en
Inventor
권동수
김성균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020080100287A priority Critical patent/KR101135610B1/en
Publication of KR20100041219A publication Critical patent/KR20100041219A/en
Application granted granted Critical
Publication of KR101135610B1 publication Critical patent/KR101135610B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N5/0613Apparatus adapted for a specific treatment
    • A61N5/0616Skin treatment other than tanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B18/203Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser applying laser energy to the outside of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00053Mechanical features of the instrument of device
    • A61B2018/0016Energy applicators arranged in a two- or three dimensional array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00452Skin
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00452Skin
    • A61B2018/00458Deeper parts of the skin, e.g. treatment of vascular disorders or port wine stains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0626Monitoring, verifying, controlling systems and methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0635Radiation therapy using light characterised by the body area to be irradiated
    • A61N2005/0643Applicators, probes irradiating specific body areas in close proximity

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Electromagnetism (AREA)
  • Otolaryngology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE: A laser robot using a vision system and a utilization method of the laser robot are provided, which recognize an affected part on a real time basis and irradiate a laser to the affected part. CONSTITUTION: A laser robot utilization method comprises: a step(S100) of fixing a robot system on the desired location; a step(S200) of storing the video information after taking a picture of the affected part; a step(S300) of detecting the location of the initial affected part; a step(S400) of detecting the affected part on a real time basis; a step(S500) of deciding whether the affected part is to be irradiated by a laser; a step(S600) of computing the error of the detected affected part location and target affected part location; a step(S700) of controlling the robot system according to the control input value; a step(S800) of making the end of the robot system approach the affected part; and a step(S900) eliminating the affected part.

Description

비전 시스템을 이용한 레이저 로봇 및 그 레이저 로봇의 이용방법{Using Method and Laser Robot with Vision System}Laser robot using vision system and method of using the laser robot {Using Method and Laser Robot with Vision System}

본 발명은 레이저를 주사하는 로봇에 비전 시스템을 이용하여 사용자의 인위적인 도움없이 계속적으로 환부를 인식하여 레이저로 환부를 제거하는 비전시스템을 이용한 레이저 로봇 및 그 레이저 로봇의 이용방법에 대한 것이다. 보다 자세하게는 비전 시스템의 비전 센서부에서 촬영된 영상정보를 기초로 영상처리부에서 제어 입력값을 결정하여 로봇시스템의 레이저 주사장치가 정확히 환부위치에 레이저를 주사하여 환부를 제거할 수 있는 레이저 로봇 및 그 레이저 로봇을 이용하는 방법에 대한 것이다. The present invention relates to a laser robot and a method of using the laser robot using a vision system that continuously recognizes the affected area and removes the affected area with a laser without using a user's artificial help. More specifically, the laser robot that can determine the control input value in the image processing unit based on the image information captured by the vision sensor unit of the vision system, the laser scanning device of the robot system can accurately remove the affected area by scanning the laser to the affected position; It is about how to use the laser robot.

현재 피부를 치료하는 경우, 사용자가 환부의 위치를 인지하여 레이저를 주사하고 있다. 피부 치료에 사용되는 레이저는 크게 파괴성 레이저 또는 비파괴성 레이저 두가지로 나누어 진다. 파괴성 레이저에는 CO2 레이저, ER-YAG레이저 등이 있으며 이러한 파괴성 레이저는 색소에 구분없이 세포를 파괴시키는 성질이 있어 깊거나 넓은 점의 제거 또는 박피에 많이 쓰인다. In the case of current skin treatment, the user is injecting a laser to recognize the location of the affected area. Lasers used in skin treatment are largely divided into destructive or non-destructive lasers. Destructive lasers include CO 2 laser and ER-YAG laser. These destructive lasers are used to remove or peel deep or wide spots because they have the property of destroying cells regardless of pigments.

비파괴성 레이저에는 Nd-YAG 레이저 또는 다이오드(Diode) 레이저 등이 있으며 파괴성 레이저와는 달리 색소에 따른 레이저의 투과율이 다르기 때문에 멜라닌 세포와 같은 유색세포만을 선택적으로 파괴시킬 수 있다. Non-destructive lasers include Nd-YAG lasers or diode lasers. Unlike the destructive lasers, since the transmittance of lasers varies depending on the pigment, only colored cells such as melanocytes can be selectively destroyed.

레이저의 종류와 치료하고 싶은 질환의 종류에 따라 사용방식이 달라지기는 하나, 일반적으로 기존 피부 치료용 레이저 장비는 의사가 직접 레이저가 달려있는 장치의 끝단을 손으로 잡고 환자의 환부에 접근시켜 사용하게 된다. 그러나, 이러한 경우 의사의 손떨림 등에 의한 레이저 조작의 부정확성으로 환부에 정확하게 레이저를 주사하지 못하게 된다. 또한, 요구되는 레이저 주사시간의 이상 혹은 그 이하 동안 주사를 하게 된다거나, 의사의 착오에 의하여 치료했는 부위에 다시 레이저를 가하게 되는 등의 문제가 발생하였다.Although the method of use depends on the type of laser and the type of disease you want to treat, in general, the existing skin treatment laser equipment is used by a doctor directly holding the end of the device where the laser is attached and touching the affected part of the patient. Done. In this case, however, the laser cannot be accurately scanned in the affected area due to the inaccuracy of the laser operation due to the shaking of the doctor. In addition, a problem occurs such that the injection is performed for more than or less than the required laser scanning time, or the laser is applied again to the treated area due to a doctor's error.

따라서, 이러한 문제점의 해결을 위하여 로봇기술과 비전기술을 활용한 비전 시스템을 이용한 레이저 로봇 및 그 레이저 로봇의 이용방법이 요구 되었다. Therefore, in order to solve such a problem, a laser robot using a vision system using a robot technology and a vision technology and a method of using the laser robot were required.

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 레이저 로봇을 이용하여 환부를 제거하는 경우, 비전 시스템을 구비하여 환부를 실시간으로 인식하고 로봇시스템을 제어하여 정확하고 계속적으로 레이저를 사용자의 임의적인 판단없이 환부에 주사하여 환부를 제거하는 레이저 로봇을 제공하는 것이다.Accordingly, the present invention has been made to solve the above problems, an object of the present invention, when removing the affected area using a laser robot, equipped with a vision system to recognize the affected area in real time and control the robot system To provide a laser robot that accurately and continuously scans the affected area without the user's discretion and removes the affected area.

구체적으로 레이저 주사장치를 구비한 로봇시스템은 3차원 자유도운동이 가능하고 이러한 로봇시스템에 비전시스템을 적용하여 실시간으로 환부의 위치를 파악하여 레이저를 주사할 수 있게 된다. 따라서, 비전시스템이 로봇시스템을 제어함으로써 정확하게 환부의 위치를 계속적으로 인식하여 레이저를 주사할 수 있는 비전시스템을 이용한 레이저 로봇을 제공하게 된다.Specifically, a robot system having a laser scanning device is capable of three-dimensional degrees of freedom movement, and by applying a vision system to such a robot system, it is possible to scan a laser beam by detecting the position of the affected area in real time. Therefore, the vision system controls the robot system to provide a laser robot using a vision system that can continuously recognize the location of the affected part and scan the laser.

또한, 본 발명의 또 다른 목적은 이러한 비전시스템을 이용한 레이저 로봇을 사용하여 환부를 제거하는 방법을 제공하는 것이다. 사용자의 인위적인 결정이나 판단 없이 비전시스템을 이용한 레이저 로봇을 이용하는 방법을 제공함으로서 정확하게 환부를 인식하고 레이저를 주사하는 방법을 제공한다.In addition, another object of the present invention is to provide a method for removing an affected part using a laser robot using such a vision system. By providing a method of using a laser robot using a vision system without artificially determining or judging by a user, a method of accurately detecting a lesion and scanning a laser is provided.

본 발명의 그 밖에 목적, 특정한 장점들 및 신규한 특징들은 첨부 도면들과 관련되어 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명확해질 것이다.Other objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments in conjunction with the accompanying drawings.

상기와 같은 본 발명의 목적은, 레이저를 주사하는 로봇에 있어서, 레이저를 타겟에 주사하기 위한 레이저 주사장치를 구비한 로봇 시스템; 및 타겟을 인식하고 로봇시스템을 제어하는 비전 시스템;을 포함하는 비전 시스템을 이용한 레이저 로봇으로 달성될 수 있다.An object of the present invention as described above, a robot for scanning a laser, comprising: a robot system having a laser scanning device for scanning a laser to a target; And a vision system for recognizing a target and controlling the robot system.

타겟은 환부에 해당하여 레이저로 환부를 제거하는 것을 특징으로 할 수 있다.The target may correspond to the affected part and may be characterized by removing the affected part with a laser.

비전 시스템은 비전센서를 구비하여 환부가 위치하는 표면을 촬영하여 영상정보를 저장하는 비전 센서부; 및 비전 센서부에서 보내온 영상 정보를 처리하여 로봇시스템을 제어하는 영상 처리부;를 포함하는 것을 특징으로 할 수 있다.The vision system includes a vision sensor unit having a vision sensor to store image information by photographing a surface where the affected part is located; And an image processor configured to control the robot system by processing the image information sent from the vision sensor unit.

비전 센서는 카메라, CCD 카메라 또는 적외선 센서인 것을 특징으로 할 수 있다.The vision sensor may be a camera, a CCD camera, or an infrared sensor.

비전센서는 로봇시스템의 기저단 또는 로봇시스템의 끝단에 적어도 하나 이상이 설치되는 것을 특징으로 할 수 있다.At least one vision sensor may be installed at a base end of the robot system or at an end of the robot system.

영상 처리부는, 영상정보로부터 환부의 위치를 인식하는 환부 인식부; 및 환부 인식부에서 받은 정보로 로봇 시스템을 제어하는 제어입력 연산부;를 포함하는 것을 특징으로 할 수 있다.The image processor may include an affected part recognition unit configured to recognize a location of the affected part from the image information; And a control input calculator configured to control the robot system using the information received from the affected part recognizer.

환부 인식부는,The affected part recognition unit,

영상 처리 알고리즘을 이용하여 경계값을 결정하고 이로부터 환부를 인식하는 것을 특징으로 할 수 있다.The threshold value may be determined by using an image processing algorithm, and the lesion may be recognized therefrom.

영상 처리 알고리즘은 히스토그램 또는 가우시안 필터인 것을 특징으로 할 수 있다.The image processing algorithm may be a histogram or a Gaussian filter.

환부 인식부는, 현재 프레임에서 환부 위치를 근거로 다음 프레임에서의 환부 위치를 예측하는 관심영역을 결정하여 환부를 실시간으로 검출하는 것을 특징으로 할 수 있다.The affected part recognizer may determine a region of interest for predicting the affected part position in the next frame based on the affected part position in the current frame and detect the affected part in real time.

제어입력 연산부는, 비전센서부의 영상 정보를 이용하여 다음 프레임에서 목표로 하는 환부위치와 현재 프레임에서 검출된 환부 위치의 오차를 연산하는 것을 특징으로 할 수 있다.The control input calculator may be configured to calculate an error between the target affected position in the next frame and the affected position detected in the current frame by using the image information of the vision sensor unit.

오차를 이용하여 제어 입력값을 결정하여 로봇시스템을 작동시키는 것을 특징으로 할 수 있다.The control system may be operated by determining a control input value using an error.

로봇 시스템은, 레이저 주사장치가 구비되고, 비전 센서부와 결합되는 끝단; 및 끝단과 연결되어 레이저 주사장치를 환부에 접근시킬 수 있는 자유도를 가지는 기저단;을 포함하는 것을 특징으로 할 수 있다.The robot system is provided with a laser scanning device, the end coupled to the vision sensor unit; And a base end connected to the end and having a degree of freedom capable of approaching the affected part of the laser scanning apparatus.

기저단은, 제어입력 연산부의 제어 입력값에 의해 끝단을 환부에 접근시켜 레이저 주사장치로 환부에 레이저를 주사하는 것을 특징으로 할 수 있다.The base end may be characterized by scanning the laser portion on the affected portion with a laser scanning apparatus by bringing the end closer to the affected portion by a control input value of the control input calculating portion.

기저단은 3자유도 운동을 하는 3축 초정밀 스테이지 이송인 것을 특징으로 할 수 있다.The base stage may be characterized in that the three-axis ultra-precision stage of the three-degree of freedom movement.

3축 초정밀 스테이지 이송은 정밀도가 0.5㎜이하인 것을 특징으로 할 수 있다.The three-axis ultra-precision stage feed can be characterized in that the precision is 0.5 mm or less.

로봇시스템은, 로봇시스템을 이동할 수 있는 이동장치를 더 포함하며, 이동장치에는 고정수단을 더 구비하여 원하는 위치에 상기 로봇시스템을 고정시킬 수 있는 것을 특징으로 할 수 있다.The robot system may further include a moving device capable of moving the robot system, and the moving device may further include a fixing unit to fix the robot system at a desired position.

이동장치는 바퀴달린 카트, 수술테이블 또는 벽에 연결된 링크구조인 것을 특징으로 할 수 있다.The moving device may be characterized as a wheeled cart, a surgical table or a link structure connected to the wall.

끝단에는 레이저 주사장치와 비전 센서부를 고정하는 홀더 장치를 더 포함하는 것을 특징으로 할 수 있다.The end may further comprise a holder device for fixing the laser scanning device and the vision sensor.

끝단에는, 레이저 주사장치에서 주사되는 레이저빔과 환부가 위치하는 면 사이의 각도를 영상처리부의 제어 입력값에 따라 조절하도록 적어도 하나 이상의 회전 수단을 더 포함하는 것을 특징으로 할 수 있다.At the end, it may be characterized in that it further comprises at least one or more rotating means to adjust the angle between the laser beam scanned in the laser scanning device and the surface on which the affected part is located in accordance with the control input value of the image processor.

로봇시스템에는, 레이저 로봇의 일부에 적어도 하나 이상의 조명장치가 더 구비되어, 영상처리부의 제어 입력값에 따라 조명 장치의 조명을 조절하는 것을 특징으로 할 수 있다.The robot system may further include at least one lighting device on a part of the laser robot, and adjust lighting of the lighting device according to a control input value of the image processor.

비전 시스템과 로봇 시스템에 전원을 공급하여 제어하고 관리하는 전원공급수단을 더 포함하는 것을 특징으로 할 수 있다.It may be characterized by further comprising a power supply means for supplying power to control and manage the vision system and the robot system.

본 발명의 목적에 또 다른 카테고리로써, 제 21항의 레이저 로봇을 이용하여, 이동장치의 고정 수단으로 로봇 시스템을 원하는 위치에 고정시키는 단계; 비전 센서부에서 환부가 있는 표면을 촬영하여 영상정보를 저장하는 단계; 영상 처리부에서 초기 환부의 위치를 검출하는 단계; 영상처리부에서 현재 프레임의 환부 위치를 근거로 다음 프레임의 환부위치를 예측하는 관심영역을 결정하여 환부를 실시간으로 검출하는 단계; 관심영역에서 레이저로 주사할 환부가 있는 지를 판단하는 단계; 관심영역에 상기 환부가 있는 경우, 영상처리부의 제어입력 연산부에서 다음 프레임에서 목표로 하는 환부위치와 현재 프레임에서 검출된 환부 위치의 오차를 연산하는 단계; 영상처리부에서 제어 입력값을 결정하여 제어 입력값에 따라 로봇 시스템을 제어하는 단계; 로봇 시스템의 기저단으로 로봇시스템의 끝단을 환부에 접근시키는 단계; 끝단에 설치된 상기 레이저 주사장치로 환부에 레이저를 주사하여 환부를 제거하는 단계; 및 환부를 제거하고 관심영역에 더 이상 레이저를 주사할 환부가 없는 경우 레이저 로봇의 작동을 종료하는 단계;를 포함하는 것을 특징으로 하는 레이저 로봇의 이용방법으로 달성될 수 있다.As another category for the purposes of the present invention, using the laser robot of claim 21, fixing the robot system to a desired position by means of fixing means of the moving device; Photographing the surface having the affected part by the vision sensor unit and storing image information; Detecting a position of the initial affected portion in the image processor; Detecting the affected part in real time by determining an ROI predicting the affected part position of the next frame based on the affected part position of the current frame; Determining whether a lesion is to be scanned by a laser in the ROI; Calculating an error between the target affected position in the next frame and the affected position detected in the current frame by the control input calculator of the image processor when the affected part is located in the ROI; Determining a control input value by the image processor and controlling the robot system according to the control input value; Approaching the affected end of the robotic system to the base of the robotic system; Removing the affected portion by scanning a laser portion on the affected portion with the laser scanning device installed at the end; And terminating the operation of the laser robot when the affected part is removed and there are no more lesions to scan the laser in the ROI.

로봇시스템에 조명장치를 구비하여 상기 영상처리부의 제어입력값으로 조명장치의 조명을 조절하는 것을 특징으로 할 수 있다.The robot system may be provided with a lighting device to adjust the lighting of the lighting device by a control input value of the image processor.

레이저를 주사하여 환부를 제거하는 단계에서, 끝단에 회전수단을 구비하여 레이저 주사장치에서 주사되는 레이저 빔과 환부가 위치하는 면과의 각도를 영상처리부의 제어입력값으로 조절하는 것을 특징으로 하는 레이저 로봇의 이용방법으로 달성될 수 있다.In the step of removing the affected area by scanning the laser, the rotating means is provided at the end to adjust the angle between the laser beam scanned in the laser scanning device and the surface on which the affected part is located by the control input value of the image processing unit It can be achieved by using a robot.

따라서, 상기 설명한 바와 같은 본 발명의 일실시예에 의하면, 비전시스템을 이용한 레이저 로봇 및 그 레이저 로봇의 이용방법으로 사용자 또는 의사의 판단, 능력과 관계없이 정확하게 환부(110)에 레이저를 주사할 수 있는 효과가 있다.Therefore, according to an embodiment of the present invention as described above, the laser robot using the vision system and the method of using the laser robot can accurately scan the laser portion on the affected part 110 regardless of the judgment or ability of the user or doctor. It has an effect.

따라서, 레이저를 이용하여 의사가 환부(110)를 치료하는 경우, 의사의 손떨림 등에 의한 환부(110)가 아닌 위치에 레이저를 주사하거나 레이저의 주사시간을 의사의 판단으로 결정함으로써 피부에 손상을 입히게 되는 경우를 방지하게 된다. 또한, 본 발명은 로봇 기술과 비전 기술을 조합한 기술로 환부(110)의 치료 외에도 목적물에 레이저를 정확히 주사하는 것으로 발명의 적용범위가 넓다는 장점을 가지고 있다.Therefore, when the doctor treats the affected part 110 by using a laser, the doctor may inject the laser to a position other than the affected part 110 due to the shaking of the doctor or determine the injection time of the laser at the discretion of the doctor to cause damage to the skin. This can be prevented. In addition, the present invention has the advantage that the scope of the invention is wide by accurately injecting a laser to the target object in addition to the treatment of the affected area 110 by a combination of robot technology and vision technology.

비전 시스템과 로봇시스템을 연결하여 이용한다는 점에서 손쉽게 제작하여 사용할 수 있다. 이러한 비전 시스템을 이용한 레이저 로봇을 이용함으로써 환부(110)를 손쉽고 신속하게 제거할 수 있고 환부(110)를 제거하는 비용 또한 절약될 수 있어 피부질환을 가진 자들이 경제적인 부담이 적어질 수 있는 장점을 가지게 된다. It can be easily produced and used in that it connects and uses the vision system and robot system. By using a laser robot using such a vision system, the affected part 110 can be easily and quickly removed, and the cost of removing the affected part 110 can also be saved, thereby reducing the economic burden of those with skin diseases. Will have

비록 본 발명이 상기에서 언급한 바람직한 실시예와 관련하여 설명되어졌지만, 본 발명의 요지와 범위로부터 벗어남이 없이 다른 다양한 수정 및 변형이 가능한 것은 당업자라면 용이하게 인식할 수 있을 것이며, 이러한 변경 및 수정은 모두 첨부된 특허청구의 범위 내에 속함은 자명하다.Although the present invention has been described in connection with the above-mentioned preferred embodiments, it will be readily apparent to those skilled in the art that various other modifications and variations are possible without departing from the spirit and scope of the invention. Are all within the scope of the appended claims.

(레이저 로봇의 구성)(Configuration of Laser Robot)

이하에서는 첨부된 도면을 참고하여 본 발명의 일실시예에 따른 비전 시스템을 이용한 레이저 로봇의 구성에 대해 설명 하도록 한다. 우선, 도 1은 본 발명의 일실시예에 따른 레이저 로봇의 사시도를 도시한 것이다. 도 1에 도시된 바와 같이, 레이저 로봇은 비전 시스템과 로봇 시스템으로 구성되어 있다.Hereinafter, with reference to the accompanying drawings to describe the configuration of a laser robot using a vision system according to an embodiment of the present invention. First, Figure 1 shows a perspective view of a laser robot according to an embodiment of the present invention. As shown in Figure 1, the laser robot is composed of a vision system and a robot system.

비전 시스템은 레이저가 주사될 타겟을 포함하는 표면을 촬영하여 영상정보를 저장하는 비전 센서부와 비전 센서부의 영상정보를 처리하여 로봇시스템을 제어하는 영상처리부로 구성되어 있다. 레이저가 주사될 타겟은 구체적 실시예에서는 환부가 된다. 따라서 비전시스템은 이러한 환부를 가진 피부를 촬영하여 영상정보를 저장하게 된다.The vision system includes a vision sensor unit for photographing a surface including a target to be scanned by a laser and storing image information, and an image processor for controlling the robot system by processing the image information of the vision sensor unit. The target to which the laser is to be scanned is affected in specific embodiments. Therefore, the vision system photographs the skin having such lesions and stores the image information.

또한, 로봇시스템은 3축 초정밀 스테이지 이동이 가능한 기저단(400)과 비전 센서부와 레이저 주사장치(100)가 홀더 장치(310)에 의해 고정된 끝단(300)을 구비하고 있다. 끝단(300)은 기저단(400)과 연결되어 기저단(400)의 3축 초정밀 스테이지 이송으로 환부(110) 부위에 접근가능하게 된다. In addition, the robot system includes a base end 400 capable of three-axis ultra-precision stage movement, and an end 300 on which the vision sensor unit and the laser scanning device 100 are fixed by the holder device 310. End 300 is connected to the base 400 is to be accessible to the affected part 110 by the three-axis ultra-precision stage transfer of the base 400.

끝단(300)에는 레이저 주사장치(100)가 설치되어 있다. 그리고, 기저단(400)은 이동장치(500)에 연결되어 이동이 가능하다. 또한, 이동장치(500)에는 고정 수단(510)을 포함하고 있어 원하는 장소에서 움직이지 않도록 고정시킬 수 있다. 또한, 비전 시스템을 이용한 레이저 로봇은 비전 시스템과 로봇시스템에 전원을 공급하고 관리하는 전원공급수단(600)과, 레이저를 발생시켜 레이저 주사장치(100)에 레이저를 공급하는 레이저 발생장치(700)가 연결수단(800)에 의해 연결되어 있다. 이러한 연결수단(800)은 유선 또는 무선으로 가능하다. 이하에서는 비전 시스템과 로봇시스템 그리고, 이러한 비전 시스템을 이용한 레이저 로봇의 이용방법에 대해 도시된 도면을 참고하여 구체적으로 설명하도록 한다.The laser scanning device 100 is installed at the end 300. And, the base 400 is connected to the mobile device 500 is movable. In addition, the moving device 500 includes a fixing means 510 so that it can be fixed so as not to move in a desired place. In addition, the laser robot using a vision system includes a power supply means 600 for supplying and managing power to the vision system and the robot system, and a laser generator 700 for generating a laser and supplying the laser to the laser scanning apparatus 100. Is connected by the connecting means (800). The connection means 800 may be wired or wireless. Hereinafter, a vision system, a robot system, and a method of using a laser robot using the vision system will be described in detail with reference to the accompanying drawings.

(비전 시스템의 구성 및 로봇 시스템의 제어방법)(Configuration of Vision System and Control Method of Robot System)

도 2는 비전 시스템이 홀더 장치(310)에 의해 고정되어 있는 로봇시스템 끝단(300)의 일부를 사시도로 도시한 것이다. 비전 시스템은 환부(110)가 있는 피부를 촬영하여 영상정보를 저장하는 비전센서부를 구비하고 있다. 비전센서부를 이루 는 비전센서(200)는 적어도 하나 이상이 포함되어 있다. 구체적 실시예에서는 도 2에 도시된 바와 같이, 비전센서(200) 2개 스테레오 비전이 구비되어 있다. 비전 센서(200)는 구체적으로 카메라, CCD 카메라 또는 적외선 센서 등을 사용할 수 있다.2 is a perspective view of a portion of the robot system end 300 on which the vision system is fixed by the holder device 310. The vision system includes a vision sensor unit for photographing the skin having the affected part 110 and storing image information. The vision sensor 200 constituting the vision sensor unit includes at least one or more. In a specific embodiment, as shown in FIG. 2, two vision sensors 200 are provided. Specifically, the vision sensor 200 may use a camera, a CCD camera, or an infrared sensor.

이러한 비전 센서(200)는 환부(110)가 있는 피부를 촬영하여 영상정보를 저장하게 된다. 이러한 영상정보는 실시간으로 계속 촬영하여 저장하게 된다. 영상정보로 피부와 레이저 주사장치(100) 사이의 공간상에 위치관계를 알 수 있게 된다. 비전 시스템의 영상처리부는 비전센서부에서 저장한 영상정보를 이용하여 로봇시스템을 제어하기 위한 제어 입력값을 결정하게 된다.The vision sensor 200 stores the image information by photographing the skin having the affected part 110. Such image information is continuously recorded in real time and stored. It is possible to know the positional relationship on the space between the skin and the laser scanning apparatus 100 with the image information. The image processing unit of the vision system determines a control input value for controlling the robot system using the image information stored in the vision sensor unit.

비전 시스템의 영상처리부는 영상정보를 이용하여 환부(110)를 인식하는 환부인식부와 로봇 시스템을 작동하기 위해 제어 입력값을 결정하는 제어입력 연산부를 포함하고 있다. 환부인식부에서는 환부(110)를 검출하기 위하여 기 설정된 경계값을 이용하는 영상처리 알고리즘을 사용하게 된다. 영상처리 알고리즘은 구체적으로 히스토그램 또는 가우시안 필터 등을 사용할 수 있다. The image processor of the vision system includes an affected part recognizer that recognizes the affected part 110 using image information, and a control input calculator that determines a control input value for operating the robot system. In the affected part recognition unit, an image processing algorithm using a predetermined boundary value is used to detect the affected part 110. The image processing algorithm may specifically use a histogram or a Gaussian filter.

도 3a 내지 도 3c는 영상처리부에서 히스토그램을 이용하여 환부의 일종인 점을 검출하는 단계의 상태도를 도시한 것이다. 도 3a에 도시된 바와 같이, 영상을 회색영상으로 변환한다. 변환된 영상에 검출할 레이저를 주사할 점이 영상에 나타나게 된다. 도 3b는 히스토그램을 기반으로 일반 피부색의 경계값을 기준으로 점의 영역을 추출해 내게 된다. 그 후 도 3c에 도시된 바와 같이 점의 영역에 경계선을 추출하기 위하여 레이저가 주사될 부분의 경계를 찾아내게 된다. 경계선을 추출해 내기 위해 8-네이버 세그매션(8-neighbor segmetion)을 사용하였다.3A to 3C are diagrams illustrating a state in which the image processing unit detects a point that is a type of the affected part by using a histogram. As shown in FIG. 3A, the image is converted into a gray image. The point to scan the laser to be detected is displayed on the converted image. 3b extracts a region of a point based on a boundary value of a general skin color based on a histogram. Thereafter, as shown in FIG. 3C, the boundary of the portion to be scanned is found to extract the boundary line in the area of the point. An 8-neighbor segmentation was used to extract the boundaries.

환부인식부에서 인식하는 환부(110)의 영역은 실시간으로 추적되게 된다. 실시간으로 추적하는 구체적인 방법은 현재 또는 이전에 비전 센서(200)의 영상정보에 있는 프레임에서 레이저 주사장치(100)로 주사할 목표로 하는 환부(110)위치를 기초로 다음 프레임에서 레이저 주사장치(100)로 주사할 환부(110)위치를 예측하는 관심영역을 결정하는 방식을 취할 수 있다. 이러한 관심영역을 실시간으로 결정함으로써 다음에 레이저 주사장치(100)로 주사할 환부(110)의 위치를 결정하게 된다.The area of the affected part 110 recognized by the affected part is tracked in real time. A specific method of tracking in real time is based on the position of the affected part 110 to be scanned by the laser scanning device 100 in a frame in the image information of the vision sensor 200 at the present or previous laser scanning device ( 100 may be determined to determine a region of interest for predicting the location of the affected part 110 to be scanned. By determining the region of interest in real time, the position of the affected part 110 to be scanned next by the laser scanning apparatus 100 is determined.

영상처리부의 제어입력 연산부는 환부 인식부에서 인식한 현재 프레임에서 레이저 주사장치(100)에 의해 주사되는 환부(110)의 위치와 다음 프레임에서 레이저 주사장치(100)로 주사될 환부(110)의 위치의 오차를 연산하게 된다. 연산된 오차값을 기준으로 제어 입력값을 결정하게 된다. 그리고, 제어 입력값을 기초로 로봇시스템의 기저단(400) 또는 끝단(300)의 제 1회전수단(320) 또 제 2회전수단(330)을 작동시켜 레이저 주사장치(100)가 다음 목표하는 환부(110)에 주사될 수 있도록 한다. The control input calculating unit of the image processor may detect the position of the affected part 110 scanned by the laser scanner 100 in the current frame recognized by the affected part recognizer, and the portion of the affected part 110 to be scanned by the laser scanner 100 in the next frame. The error of the position is calculated. The control input value is determined based on the calculated error value. Then, the first scanning means 320 and the second rotating means 330 of the base end 400 or the end 300 of the robot system are operated based on the control input value, so that the laser scanning apparatus 100 may next target. It can be injected into the affected part (110).

(로봇시스템의 구성)(Configuration of Robot System)

로봇시스템은 레이저 주사장치(100)가 구비되어 비전 시스템의 제어를 받으며 환부(110)에 레이저를 주사할 수 있는 장치이다. 도 4는 로봇시스템의 사시도를 도시한 것이다. 도 4에 도시된 바와 같이, 로봇시스템은 레이저 주사장치(100)와 비전 센서부가 홀더장치(310)에 의해 결합되어 있는 끝단(300)을 구비하고 있다. 끝단(300)과 연결되어 끝단(300)을 3축 초정밀 스테이지 이송이 가능하도록 하는 기저단(400) 그리고, 기저단(400)과 연결되어 로봇시스템을 이동 또는 고정 가능하게 하는 이동 장치(500)를 구비하고 있다.The robot system is a device that is provided with a laser scanning device 100 to control the vision system and to scan a laser to the affected part (110). 4 is a perspective view of the robot system. As shown in FIG. 4, the robot system includes an end 300 to which a laser scanning device 100 and a vision sensor unit are coupled by a holder device 310. The base end 400 is connected to the end 300 to allow the end 300 to be transferred to the three-axis ultra-precision stage, and the mobile device 500 connected to the base end 400 to move or fix the robot system. Equipped with.

이동장치(500)는 구체적 실시예에서는 도 4에 도시된 바와 같이 테이블에 해당하나, 바퀴달린 카트 또는 벽에 연결된 링크구조 등 기저단과 결합되어 로봇시스템을 이동시킬 수 있는 것이면 된다. 또한, 이동장치(500)는 고정수단(510)을 구비하여 원하는 위치에 로봇시스템을 고정 가능하게 한다. In the specific embodiment, the moving device 500 corresponds to a table as shown in FIG. 4, but may be coupled to a base end such as a cart connected to a wheel or a link structure connected to a wall to move the robot system. In addition, the moving device 500 is provided with a fixing means 510 to enable the robot system to be fixed at a desired position.

도 5a는 끝단(300)이 연결되어 있는 기저단(400)의 사시도를 도시한 것이다. 그리고, 도 5b는 끝단(300)이 연결되어 있는 기저단(400)을 밑에서 올려다본 사시도이고, 도 5c는 기저단(400)을 구성하는 이송수단(410)의 사시도를 도시한 것이다. Figure 5a shows a perspective view of the base end 400 is connected to the end 300. And, Figure 5b is a perspective view looking up from the base end 400 to which the end 300 is connected, Figure 5c shows a perspective view of the transfer means 410 constituting the base end 400.

도 5a 및 도 5b에 도시된 바와 같이, 끝단(300)은 제 1이송수단(420)에 고정되어 있고, 제 1이송수단(420)으로 끝단(300)을 지면과 수직방향으로 이송 가능하게 한다. 또한, 제 1이송수단(420)은 제 2이송수단(430)과 수직되게 연결되어 있고, 제 3이송수단(440)은 제 1이송수단(420) 및 제 2이송수단(430)과 수직되게 연결되어 있다. 구체적 실시예에서는 도 5c에 도시된 바와 같이, 제 1 이송수단(420), 제 2이송수단(430) 및 제 3이송수단(440)의 형태는 동일하다. As shown in FIGS. 5A and 5B, the end 300 is fixed to the first transfer means 420, and the first transfer means 420 makes it possible to transfer the end 300 perpendicular to the ground. . In addition, the first transfer means 420 is vertically connected to the second transfer means 430, the third transfer means 440 is perpendicular to the first transfer means 420 and the second transfer means 430 It is connected. In a specific embodiment, as shown in FIG. 5C, the shapes of the first transfer means 420, the second transfer means 430, and the third transfer means 440 are the same.

도 5c에 도시된 바와 같이, 이송수단(410)은 몸체(411) 내부에 축(412)을 구비하고 있다. 축(412)에 연결된 고정부(413)는 1차원으로 움직이고 제 1이송수단(420)의 고정부(413)가 제 2이송수단(430)의 몸체(411)에 수직으로 고정되어 있다. 또한, 제 2이송수단(430)의 고정부(413)가 제 3이송수단(440)의 몸체(411)에 수직으로 결합되어 끝단(300)을 3자유도 운동이 가능하도록 한다. 따라서, 이러한 기저단(400)은 3축 초정밀 스테이지 이송을 하게 된다. 정밀도는 환부(110)를 제거하는 방법과 환부(110)의 크기에 따라 요구되는 정도가 다르나 바람직하게는 0.5㎜이하이어야 한다.As shown in FIG. 5C, the conveying means 410 has a shaft 412 inside the body 411. The fixing part 413 connected to the shaft 412 moves in one dimension, and the fixing part 413 of the first transfer means 420 is fixed perpendicularly to the body 411 of the second transfer means 430. In addition, the fixing part 413 of the second conveying means 430 is vertically coupled to the body 411 of the third conveying means 440 to allow the end 300 to be freely movable. Therefore, this base stage 400 is a three-axis ultra-precision stage transfer. The precision is different depending on the method of removing the affected part 110 and the size of the affected part 110, but preferably should be 0.5 mm or less.

도 6a는 끝단(300)의 사시도를 도시한 것이고, 도 6b는 끝단(300)을 뒤에서 바라본 사시도를 도시한 것이다. 끝단(300)의 경우, 기저단(400)의 제 1이송수단(420)의 고정부(413)에 결합되며 레이저 주사장치(100)를 구비하고 있다. 끝단(300)은 홀더장치(310)로 비전센서부와 레이저 주사장치(100)를 결합하고 있다. 또한, 끝단(300)은 레이저 주사장치(100)에서 주사되는 레이저 빔과 환부(110)가 있는 면과의 각도를 조절할 수 있도록 회전 수단을 구비하고 있다. 도 6a 및 도 6b에 도시된 바와 같이, 구체적인 실시예에서는 제 1회전수단(320)과 제 2회전 수단(330)을 구비하고 있어 끝단(300)은 2자유도 운동이 가능하게 된다. 제 1회전수단(320)은 제 1회전축(325)을 중심으로 끝단(300)을 회전시키고, 제 2회전 수단(330)은 제 2회전축(335)을 중심으로 끝단(300)을 회전시키게 된다. 따라서, 기저단(400)의 3축 초정밀 스테이지 이송과 끝단(300)의 제 1 및 제 2회전수단(320,330)으로 로봇 시스템은 5자유도 운동이 가능하다.6A illustrates a perspective view of the end 300, and FIG. 6B illustrates a perspective view of the end 300 viewed from the back. In the case of the end 300, it is coupled to the fixing part 413 of the first transfer means 420 of the base end 400 and includes a laser scanning device 100. The end 300 is a holder device 310 is coupled to the vision sensor unit and the laser scanning device 100. In addition, the end 300 is provided with a rotating means to adjust the angle between the laser beam scanned by the laser scanning device 100 and the surface with the affected part 110. As shown in FIGS. 6A and 6B, in a specific embodiment, the first rotation means 320 and the second rotation means 330 are provided so that the end 300 may have two degrees of freedom. The first rotating means 320 rotates the end 300 about the first rotating shaft 325, and the second rotating means 330 rotates the end 300 about the second rotating shaft 335. . Therefore, the robot system is capable of five degrees of freedom movement by the three-axis ultra-precision stage transfer of the base end 400 and the first and second rotation means 320 and 330 of the end 300.

또한, 끝단(300) 또는 기저단(400)에는 조명장치가 적어도 하나 이상 더 포함할 수 있다. 따라서 사용자가 환부(110)의 위치를 확인 가능하고, 비전 시스템의 비전센서부의 영상정보를 정확히 얻을 수 있도록 해준다. 조명장치는 수동으로 조명을 조절할 수도 있고 영상처리부에서 입력된 영상정보를 이용하여 적절한 조명을 제어하여 작동될 수 있다. In addition, the end 300 or the base 400 may further include at least one lighting device. Therefore, the user can confirm the position of the affected part 110 and allows to accurately obtain the image information of the vision sensor part of the vision system. The lighting apparatus may be manually adjusted and may be operated by controlling the appropriate lighting using the image information input from the image processor.

(이용방법)(How to use)

이하에서는 첨부된 도면을 참고하여 본 발명의 일실시예에 따른 비전 시스템을 이용한 레이저 로봇의 이용방법에 대해 설명하도록 한다. 우선, 도 7은 비전 시스템을 이용한 레이저 로봇의 이용방법에 흐름도를 도시한 것이다. Hereinafter, a method of using a laser robot using a vision system according to an embodiment of the present invention will be described with reference to the accompanying drawings. First, FIG. 7 is a flowchart illustrating a method of using a laser robot using a vision system.

이동장치(500)에 의해 레이저 로봇을 이동하다가 원하는 위치에 이동장치(500)의 고정수단(510)으로 레이저 로봇을 고정시키게 된다. 고정된 레이저 로봇의 끝단(300)에 설치된 비전센서(200)가 환부(110)가 포함되어 있는 피부를 촬영할 수 있을 정도로 기저단(400)을 움직여 환부(110) 주위에 끝단(300)이 오도록 한다. While moving the laser robot by the mobile device 500, the laser robot is fixed by the fixing means 510 of the mobile device 500 at a desired position. The vision sensor 200 installed at the end 300 of the fixed laser robot moves the base 400 to the extent that the skin 110 including the affected part 110 can be photographed so that the end 300 comes around the affected part 110. do.

그리고, 끝단(300)에 설치된 비전 센서부는 환부(110)가 포함된 피부부분을 촬영하여 영상정보를 저장하게된다. 이러한 촬영과 영상정보의 저장은 실시간으로 계속 수행하게 된다. 비전 시스템의 영상처리부는 영상정보에서 레이저 주사장치(100)로 레이저를 주사할 초기의 환부(110)위치를 검출하게 된다. 그리고, 현재 영상정보의 프레임에서의 환부(110)위치를 기초로 하여 다음 프레임에서 목표로 할 환부(110)의 위치를 예측하는 관심영역을 결정하게 된다. 이러한 관심영역의 결정은 실시간으로 계속 수행하게 된다. 실시간으로 관심영역을 결정하여 현재 로봇시스템으로 주사하는 환부를 제거하고 다음 프레임에서 주사할 환부가 없는 경우 레이저 로봇의 작동은 종료하게 된다.In addition, the vision sensor unit installed at the end 300 stores the image information by photographing the skin part including the affected part 110. Such shooting and storage of image information are continuously performed in real time. The image processing unit of the vision system detects the position of the initial portion 110 to scan the laser to the laser scanning device 100 from the image information. Based on the position of the affected part 110 in the frame of the current image information, a region of interest for predicting the location of the affected part 110 in the next frame is determined. The determination of this region of interest will continue in real time. The region of interest is determined in real time to remove the affected area to be scanned by the current robot system, and the operation of the laser robot is terminated when there is no affected area to be scanned in the next frame.

그리고, 관심영역에 다음으로 주사할 환부의 위치가 검출되는 경우는, 영상 처리부의 제어입력 연산부는 다음 프레임에서 목표로 하는 환부(110)위치와 현재 프레임의 환부(110)위치의 오차를 연산하게 된다. 그리고, 연산된 오차값을 기초로 로봇시스템을 작동할 제어 입력값을 결정하게 된다. 제어 입력값을 기초로 로봇시스템의 기저단(400)에 3자유도 운동으로 로봇시스템의 끝단(300)에 레이저 주사장치(100)는 주사할 환부(110) 위치에 접근하게 된다. When the location of the affected part to be scanned next is detected in the ROI, the control input calculating part of the image processor calculates an error between the location of the affected part 110 and the affected part 110 of the current frame in the next frame. do. Then, the control input value for operating the robot system is determined based on the calculated error value. On the basis of the control input value, the laser scanning device 100 approaches the position of the affected part 110 to be scanned at the end 300 of the robot system in three degrees of freedom in the base 400 of the robot system.

그리고, 끝단(300)의 제 1회전 수단(320)와 제 2 회전수단(330)의 작동으로 레이저 주사장치(100)의 레이저빔과 환부(110)가 있는 표면의 각도를 조절하며 목표로 하는 환부(110)에 레이저가 주사되게 된다. 따라서, 레이저의 주사로 환부(110)가 제거되며 로봇시스템은 계속적인 제어 입력값을 받아 다음 목표로 하는 환부(110)의 위치로 이동하여 레이저를 주사하게 된다. 더 이상 관심영역에 레이저가 주사될 환부가 없는 경우 레이저 로봇의 작동은 종료하게 된다. And, by operating the first rotating means 320 and the second rotating means 330 of the end 300 to adjust the angle of the surface of the laser beam and the affected portion 110 of the laser scanning device 100 to the target The laser is scanned in the affected part 110. Therefore, the affected part 110 is removed by the scanning of the laser, and the robot system receives the continuous control input value and moves to the position of the next affected part 110 to scan the laser. If there are no more lesions to be scanned in the region of interest, the operation of the laser robot is terminated.

(변형예)(Variation)

본 발명은 레이저 주사장치(100)가 설치된 로봇시스템에 비전시스템을 이용하여 사용자의 인위적인 판단없이 정확히 계속적으로 레이저를 인식된 표면에 주사하는 것이다. 구체적 실시예에서는 인식된 표면은 환부(110)가 있는 표면 또는 환부(110) 중에 점을 가지는 피부에 한정하였으나 레이저를 이용하여 제거할 수 있는 것이라면 모두 본 발명의 권리범위에 속하는 것이다.The present invention uses a vision system in a robotic system in which the laser scanning apparatus 100 is installed to continuously and continuously scan a laser onto a recognized surface without artificial judgment of a user. In a specific embodiment, the recognized surface is limited to the surface having the affected part 110 or the skin having the point among the affected part 110, but any one that can be removed using a laser is within the scope of the present invention.

또한, 비전시스템에서 비전센서(200)는 구체적 실시예에서는 카메라, CCD 카메라 또는 적외선 센서로 한정하였으나 영상을 촬영하여 영상정보를 저장할 수 있 고 실시간으로 영상정보를 얻을 수 있는 수단이라면 비전센서(200)의 종류 비전센서(200)가 로봇시스템에 설치된 위치는 권리범위 판단에 영향을 미치지 않음은 자명하다.In addition, in the vision system, the vision sensor 200 is limited to a camera, a CCD camera, or an infrared sensor in a specific embodiment. However, the vision sensor 200 may store the image information by capturing the image and obtain the image information in real time. It is obvious that the position of the vision sensor 200 installed in the robot system does not affect the determination of the scope of rights.

영상 처리부의 경우, 환부(110)를 인식하는 방법에서 구체적 실시예는 히스토그램과 가우시안 필터를 기재하였으나 영상정보로부터 환부(110)를 인식하고 다음에 레이저를 주사할 환부(110)부분을 찾아 제어 입력값을 결정할 수 있는 수단이라면 그 구체적인 종류는 권리범위에 영향을 주지 않는다. 후에 영상처리의 개량된발명을 설치하더라도 본 발명의 기술적 특징의 일체성을 유지하여 그대로 이용한 것이라면 그러한 발명의 실시 또한 권리범위에 속하는 것에 해당할 것이다. In the case of the image processing unit, a specific embodiment of the method for recognizing the affected part 110 has described a histogram and a Gaussian filter. However, the image processor recognizes the affected part 110 from the image information and finds the affected part 110 to scan the laser part. As long as the value can be determined, the specific type does not affect the scope of the right. Even if the improved invention of the image processing is installed later, if the technical features of the present invention are maintained and used as it is, the implementation of such invention will also fall within the scope of rights.

로봇시스템의 경우, 기저단(400)의 구성은 구체적 실시예와 도면에 한정되는 것은 아니고 레이저를 3차원 공간 또는 2차원으로 이동시킬 수 있는 수단이라면 구체적인 종류, 형태는 권리범위 판단에 영향을 주지 않은 것이다. 실시예에서 기저단(400)의 3자유도 운동과 끝단(300)의 제 1회전수단(320) 및 제 2회전수단(330)으로 5자유도 운동으로 레이저 주사장치(100)를 작동하나 자유도의 갯수를 변경하더라도 본 발명의 특허청구의 범위에 속함은 자명하다. In the case of the robot system, the configuration of the base stage 400 is not limited to the specific embodiments and drawings, and the specific type and shape do not affect the determination of the scope of rights as long as it can move the laser in three-dimensional space or two-dimensional. It is not. In the embodiment, the laser scanning device 100 is operated in three degree of freedom movement of the base end 400 and five degree of freedom movement by the first rotating means 320 and the second rotating means 330 of the end 300. Even if it changes the number of, it is obvious that it belongs to the claim of this invention.

또한, 후에 로봇기술의 발전으로 개량된 로봇시스템을 장착하더라도 본 발명의 기술적 특징을 그대로 포함한다면 이러한 발명의 실시 또한 권리범위에 속하는 것이다. 레이저 주사장치(100)의 위치나 종류, 레이저의 종류 또는 레이저 발생 장치는 목적물의 종류, 환부(110)의 특성에 따라 변화가 가능한 것은 당해 기술분야에서 통상의 지식을 가진자라면 자명하게 변경가능 한 것으로 모두 본 발명의 권리 범위에 속하는 것에 해당한다. In addition, even if equipped with a robot system improved by the development of robot technology later, if the technical features of the present invention as it is, the implementation of such invention also falls within the scope of rights. The position or type of the laser scanning device 100, the type of laser, or the type of the laser generating device can be changed depending on the type of the target object and the characteristics of the affected part 110, which can be obviously changed by those skilled in the art. All of them fall within the scope of the present invention.

도 1은 본 발명의 일실시예에 따른 비전 시스템을 이용한 레이저 로봇의 사시도,1 is a perspective view of a laser robot using a vision system according to an embodiment of the present invention,

도 2는 비전센서부가 홀더장치에 의해 결합된 끝단 일부의 사시도,2 is a perspective view of a part of the end of the vision sensor unit coupled by the holder device,

도 3a 내지 도 3c는 영상처리부에서 히스토그램을 이용하여 환부를 검출하는 단계의 상태도,3A to 3C are state diagrams of detecting an affected part using a histogram in an image processor;

도 4는 본 발명의 일실시예에 따른 로봇 시스템의 사시도,4 is a perspective view of a robot system according to an embodiment of the present invention;

도 5a는 끝단이 결합되어 있는 로봇시스템 기저단의 사시도,Figure 5a is a perspective view of the base end of the robot system coupled to the end,

도 5b는 끝단이 결합되어 있는 로봇시스템의 기저단을 밑에서 올려다본 사시도,Figure 5b is a perspective view from below looking at the base of the robot system is coupled to the end,

도 5c는 기저단을 구성하는 이송수단의 사시도,Figure 5c is a perspective view of the transport means constituting the base end,

도 6a는 로봇시스템 끝단의 사시도,Figure 6a is a perspective view of the end of the robot system,

도 6b는 로봇시스템 끝단을 뒤에서 본 사시도,Figure 6b is a perspective view from behind the end of the robot system,

도 7은 본 발명의 일실시예에 따른 비전 시스템을 이용한 레이저 로봇의 이용방법을 나타낸 흐름도를 도시한 것이다.7 is a flowchart illustrating a method of using a laser robot using a vision system according to an exemplary embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100:레이저 주사장치100: laser injection device

110: 환부110: affected

120:환부의 경계120: boundary of the affected part

200:비전 센서200: vision sensor

300:끝단300: The end

310:홀더장치310: holder device

320:제 1회전수단320: first rotating means

325:제 1회전축325: first rotating shaft

330:제 2회전수단330: second rotating means

335:제 2회전축335: second axis of rotation

400:기저단400: base

410:이송수단410: transportation means

411:이송수단의 몸체411: body of the transport means

412:이송수단의 축412: axis of the transport means

413:이송수단의 고정부413: fixing part of the transportation means

420:제 1이송수단420: first transport means

430:제 2이송수단430: second transport means

440:제 3이송수단440: third transportation means

500:이동장치500: mobile unit

510:고정수단510: fixing means

600:전원공급수단600: power supply means

700:레이저 발생장치700: laser generator

800:연결수단800: connecting means

Claims (24)

레이저를 타겟에 주사하기 위한 레이저 주사장치를 구비한 로봇 시스템; 및A robotic system having a laser scanning device for scanning a laser to a target; And 상기 타겟을 인식하고 인식된 영상정보를 이용하여 상기 로봇시스템을 제어하는 비전 시스템;을 포함하는 비전 시스템을 이용한 레이저 로봇.And a vision system for recognizing the target and controlling the robot system using the recognized image information. 제 1항에 있어서,The method of claim 1, 상기 타겟은 환부에 해당하여 상기 레이저로 상기 환부를 제거하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇. The target robot is a laser robot using a vision system, characterized in that for removing the affected area by the laser corresponding to the affected area. 제 1항 또는 제 2항에 있어서,The method according to claim 1 or 2, 상기 비전 시스템은, The vision system, 비전센서를 구비하여 환부가 위치하는 표면을 촬영하여 영상정보를 저장하는 비전 센서부; 및A vision sensor unit having a vision sensor and storing image information by photographing a surface where the affected part is located; And 상기 비전 센서부에서 보내온 상기 영상 정보를 처리하여 상기 로봇시스템을 제어하는 영상 처리부;를 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And an image processing unit for controlling the robot system by processing the image information sent from the vision sensor unit. 제 3항에 있어서,The method of claim 3, 상기 비전 센서는 카메라, CCD 카메라 또는 적외선 센서인 것을 특징으로 하 는 비전 시스템을 이용한 레이저 로봇.The vision sensor is a laser robot using a vision system, characterized in that the camera, CCD camera or infrared sensor. 제 4항에 있어서,The method of claim 4, wherein 상기 비전센서는 상기 로봇시스템의 기저단 또는 상기 로봇시스템의 끝단에 적어도 하나 이상이 설치되는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The vision sensor is a laser robot using a vision system, characterized in that at least one or more is installed at the base end of the robot system or the end of the robot system. 제 3항에 있어서,The method of claim 3, 상기 영상 처리부는,The image processor, 상기 영상정보로부터 상기 환부 위치를 인식하는 환부 인식부; 및An affected part recognition unit configured to recognize the affected part position from the image information; And 상기 환부 인식부에서 받은 정보로 상기 로봇 시스템을 제어하는 제어입력 연산부;를 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And a control input calculator configured to control the robot system with the information received from the affected part recognition unit. 제 6항에 있어서,The method of claim 6, 상기 환부 인식부는,The affected part recognition unit, 영상 처리 알고리즘을 이용하여 경계값을 결정하고 이로부터 상기 환부를 인식하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.Laser robot using a vision system, characterized in that for determining the boundary value by using an image processing algorithm to recognize the affected area. 제 7항에 있어서,The method of claim 7, wherein 상기 영상 처리 알고리즘은 히스토그램 또는 가우시안 필터인 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The image processing algorithm is a laser robot using a vision system, characterized in that the histogram or Gaussian filter. 제 6항에 있어서,The method of claim 6, 상기 환부 인식부는, The affected part recognition unit, 현재 프레임에서 상기 환부 위치를 근거로 다음 프레임에서의 상기 환부 위치를 예측하는 관심영역을 결정하여 상기 환부를 실시간으로 검출하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And a region of interest for predicting the affected part position in the next frame based on the affected part position in the current frame to detect the affected part in real time. 제 6항 또는 제 9항에 있어서,The method according to claim 6 or 9, 상기 제어입력 연산부는,The control input calculator, 상기 영상 정보를 이용하여 상기 다음 프레임에서 목표로 하는 상기 환부위치와 상기 현재 프레임에서 검출된 상기 환부위치의 오차를 연산하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And using the image information to calculate an error between the target affected position in the next frame and the affected position detected in the current frame. 제 10항에 있어서,The method of claim 10, 상기 오차로부터 제어 입력값을 결정하여 상기 로봇시스템을 작동시키는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.Laser robot using a vision system to determine the control input value from the error to operate the robot system. 제 1항 내지 제 3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 로봇시스템은,The robot system, 상기 레이저 주사장치가 구비되고, 비전 센서부와 결합되는 끝단; 및An end provided with the laser scanning device and coupled to a vision sensor unit; And 상기 끝단과 연결되어 상기 끝단을 환부에 접근시킬 수 있도록 자유도를 가지는 기저단;을 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And a base end connected to the end and having a degree of freedom to allow the end to approach the affected part. 제 12항에 있어서,The method of claim 12, 상기 기저단은,The base stage, 상기 제어입력 연산부의 상기 제어 입력값에 의해 상기 끝단을 상기 환부에 접근시켜 상기 레이저 주사장치로 상기 환부에 레이저를 주사하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The laser robot using a vision system, characterized in that for scanning the laser portion in the affected area by the laser scanning device to the end by approaching the end portion by the control input value of the control input calculation unit. 제 13항에 있어서,The method of claim 13, 상기 기저단은 3자유도 운동을 하는 3축 초정밀 스테이지인 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The base stage is a laser robot using a vision system, characterized in that the three-axis ultra-precision stage for the three degrees of freedom movement. 제 14항에 있어서,15. The method of claim 14, 상기 3축 초정밀 스테이지의 이송 정밀도는 0.5㎜이하인 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.Laser robot using a vision system, characterized in that the feed accuracy of the three-axis ultra-precision stage is 0.5mm or less. 제 12항에 있어서,The method of claim 12, 상기 로봇시스템은, The robot system, 상기 로봇시스템을 이동할 수 있는 이동장치를 더 포함하며, 상기 이동장치에는 고정수단을 더 구비하여 원하는 위치에 상기 로봇시스템을 고정시킬 수 있는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And a moving device capable of moving the robot system, wherein the moving device further comprises a fixing means to fix the robot system at a desired position. 제 16항에 있어서,The method of claim 16, 상기 이동장치는 바퀴달린 카트, 이동테이블 또는 벽에 연결된 링크구조인 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The moving device is a laser robot using a vision system, characterized in that the wheeled cart, a moving table or a link structure connected to the wall. 제 12항에 있어서,The method of claim 12, 상기 끝단에는 상기 레이저 주사장치와 상기 비전 센서부를 고정하는 홀더 장치를 더 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.The end of the laser robot using a vision system further comprises a holder device for fixing the laser scanning device and the vision sensor. 제 12항에 있어서,The method of claim 12, 상기 끝단에는, At the end, 상기 레이저 주사장치에서 주사되는 레이저빔과 상기 환부가 위치하는 면 사이의 각도를 상기 영상처리부의 상기 제어 입력값에 따라 조절하도록 적어도 하나 의 회전 수단을 더 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And at least one rotating means to adjust an angle between the laser beam scanned by the laser scanning device and a surface on which the affected part is located according to the control input value of the image processor. robot. 제 12항에 있어서,The method of claim 12, 상기 로봇시스템에는,The robot system, 상기 레이저 로봇의 일부에 적어도 하나의 조명장치가 더 구비되어, 상기 영상처리부의 상기 제어 입력값에 따라 상기 조명 장치의 조명을 조절하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.At least one lighting device is further provided in a part of the laser robot, the laser robot using a vision system to adjust the illumination of the lighting device according to the control input value of the image processing unit. 제 1항에 있어서,The method of claim 1, 상기 비전 시스템과 상기 로봇 시스템에 전원을 공급하여 제어하고 관리하는 전원공급수단을 더 포함하는 것을 특징으로 하는 비전 시스템을 이용한 레이저 로봇.And a power supply means for supplying power to the vision system and the robot system to control and manage the vision system and the robot system. 상기 제 17항의 레이저 로봇을 이용하여,By using the laser robot of claim 17, 이동장치의 고정 수단으로 로봇 시스템을 원하는 위치에 고정시키는 단계;Fixing the robot system to a desired position with a fixing means of the moving device; 비전 센서부에서 환부가 있는 표면을 촬영하여 영상정보를 저장하는 단계;Photographing the surface having the affected part by the vision sensor unit and storing image information; 영상 처리부에서 초기 환부의 위치를 검출하는 단계;Detecting a position of the initial affected portion in the image processor; 상기 영상처리부에서 현재 프레임의 상기 환부 위치를 근거로 다음 프레임의 상기 환부위치를 예측하는 관심영역을 결정하여 상기 환부를 실시간으로 검출하는 단계;Detecting the affected part in real time by determining a region of interest predicting the affected part position of a next frame based on the affected part position of the current frame; 상기 관심영역에서 레이저로 주사할 환부가 있는지를 판단하는 단계;Determining whether a lesion is to be scanned by a laser in the region of interest; 상기 관심영역에 상기 환부가 있는 경우, If the affected area is in the affected area, 상기 영상처리부의 제어입력 연산부에서 상기 다음 프레임에서 목표로 하는 상기 환부위치와 상기 현재 프레임에서 검출된 상기 환부 위치의 오차를 연산하는 단계;Calculating an error between the affected part position targeted in the next frame and the affected part position detected in the current frame by a control input calculating part of the image processor; 상기 영상처리부에서 제어 입력값을 결정하여 상기 제어 입력값에 따라 상기 로봇 시스템을 제어하는 단계;Determining a control input value by the image processor to control the robot system according to the control input value; 상기 로봇 시스템의 기저단으로 상기 로봇시스템의 끝단을 상기 환부에 접근시키는 단계; Approaching the affected part of the end of the robotic system to the base of the robotic system; 상기 끝단에 설치된 상기 레이저 주사장치로 상기 환부에 레이저를 주사하여 상기 환부를 제거하는 단계; 및 Removing the affected portion by scanning a laser portion on the affected portion with the laser scanning device installed at the end; And 상기 환부를 제거하고 상기 관심영역에 더 이상 레이저를 주사할 상기 환부가 없는 경우 레이저 로봇의 작동을 종료하는 단계;를 포함하는 것을 특징으로 하는 레이저 로봇의 이용방법.Removing the affected part and terminating the operation of the laser robot when there is no more affected part to scan the laser in the ROI. 제 22항에 있어서,23. The method of claim 22, 상기 로봇시스템에 조명장치를 구비하여 상기 영상처리부의 제어입력값으로 조명장치의 조명을 조절하는 것을 특징으로 하는 레이저 로봇의 이용방법.And a lighting apparatus provided in the robot system to adjust the illumination of the lighting apparatus to a control input value of the image processor. 제 22항에 있어서,23. The method of claim 22, 상기 레이저를 주사하여 환부를 제거하는 단계에서,Injecting the laser to remove the affected part, 상기 끝단에 회전수단을 구비하여 상기 레이저 주사장치에서 주사되는 레이저 빔과 상기 환부가 위치하는 면과의 각도를 상기 영상처리부의 제어입력값으로 조절하는 것을 특징으로 하는 레이저 로봇의 이용방법.And a rotating means at the end to adjust an angle between a laser beam scanned by the laser scanning device and a surface on which the affected part is located to a control input value of the image processor.
KR1020080100287A 2008-10-13 2008-10-13 Laser Robot with Vision System KR101135610B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080100287A KR101135610B1 (en) 2008-10-13 2008-10-13 Laser Robot with Vision System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080100287A KR101135610B1 (en) 2008-10-13 2008-10-13 Laser Robot with Vision System

Publications (2)

Publication Number Publication Date
KR20100041219A true KR20100041219A (en) 2010-04-22
KR101135610B1 KR101135610B1 (en) 2012-04-17

Family

ID=42216997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080100287A KR101135610B1 (en) 2008-10-13 2008-10-13 Laser Robot with Vision System

Country Status (1)

Country Link
KR (1) KR101135610B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6165170A (en) * 1998-01-29 2000-12-26 International Business Machines Corporation Laser dermablator and dermablation
JP3872226B2 (en) * 1999-02-26 2007-01-24 株式会社ニデック Laser therapy device
JP2002000745A (en) 2000-06-16 2002-01-08 Nidek Co Ltd Laser therapeutic device
KR20090059667A (en) * 2007-12-07 2009-06-11 (주) 디바이스이엔지 Automatic a therapeutic laser using image recognition and method forcontroling the same

Also Published As

Publication number Publication date
KR101135610B1 (en) 2012-04-17

Similar Documents

Publication Publication Date Title
EP3215219B1 (en) Skin treatment system
JP5307246B2 (en) Hair follicle unit tracking
US11701090B2 (en) Ultrasound bone registration with learning-based segmentation and sound speed calibration
US20220117682A1 (en) Obstacle Avoidance Techniques For Surgical Navigation
US20100149183A1 (en) Image mosaicing systems and methods
US9107613B2 (en) Handheld scanning device
KR20170107955A (en) Illumination device
CN108154126B (en) Iris imaging system and method
TW200414072A (en) Iris extraction method
US20180078315A1 (en) Systems and methods for tracking the orientation of surgical tools
KR20200013984A (en) Device of providing 3d image registration and method thereof
CN207571761U (en) Iris imaging system
CN113613578A (en) Method for determining the position and/or orientation of a handheld device relative to an object, corresponding device and computer program product
US11633235B2 (en) Hybrid hardware and computer vision-based tracking system and method
CN111216122B (en) Gripping robot and control program for gripping robot
JP2009129058A (en) Position specifying apparatus, operation instruction apparatus, and self-propelled robot
CN114565517A (en) Image denoising method and device for infrared camera and computer equipment
US20220414291A1 (en) Device for Defining a Sequence of Movements in a Generic Model
KR101135610B1 (en) Laser Robot with Vision System
JP2004164652A (en) Individual authentication device
JP2006215743A (en) Image processing apparatus and image processing method
JP6847442B2 (en) Object tracking device, object tracking method, and object tracking program
Stolka et al. Navigation with local sensors in handheld 3D ultrasound: initial in-vivo experience
CN113262043B (en) Surface tissue light treatment equipment
US20220202353A1 (en) A dermatoscopy device and a method for checking skin lesions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161102

Year of fee payment: 5

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 6