KR102222059B1 - Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker - Google Patents

Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker Download PDF

Info

Publication number
KR102222059B1
KR102222059B1 KR1020200062765A KR20200062765A KR102222059B1 KR 102222059 B1 KR102222059 B1 KR 102222059B1 KR 1020200062765 A KR1020200062765 A KR 1020200062765A KR 20200062765 A KR20200062765 A KR 20200062765A KR 102222059 B1 KR102222059 B1 KR 102222059B1
Authority
KR
South Korea
Prior art keywords
diagnosis
marker
diagnostic device
location
diagnosis result
Prior art date
Application number
KR1020200062765A
Other languages
Korean (ko)
Inventor
장현재
김석호
Original Assignee
주식회사 에프앤디파트너스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에프앤디파트너스 filed Critical 주식회사 에프앤디파트너스
Priority to KR1020200062765A priority Critical patent/KR102222059B1/en
Application granted granted Critical
Publication of KR102222059B1 publication Critical patent/KR102222059B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0858Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply

Abstract

The present invention relates to an object location recognition type diagnostic device which outputs the location and diagnosis result of an object using the diagnostic device with markers, and more specifically, to an object location recognition type diagnostic device which outputs the location and diagnosis result of an object using the diagnostic device with markers, wherein a specific part of the object is diagnosed by means of the diagnostic device, and when diagnosis result information is provided to a smart location-aware diagnostic device, the smart location-aware diagnostic device accurately determines diagnosis location through the marker formed on the diagnostic device, and the precise location of the marker and the diagnosis result information acquired at the corresponding location are stored and managed, or are output on a screen.

Description

마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치{Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker} Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker}

본 발명은 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치에 관한 것으로서, 더욱 상세하게는 진단기에 의해 대상체의 특정 부위를 진단하여 진단 결과 정보를 스마트위치인식형진단기기로 제공할 경우에 진단기에 형성된 마커를 통해 진단 위치를 스마트위치인식형진단기기에서 정확하게 판단하고, 마커의 정확한 위치와 해당 위치에서 획득된 진단 결과 정보를 저장 관리하거나, 화면에 출력시키기 위한 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치에 관한 것이다.The present invention relates to an object location recognition diagnostic apparatus for outputting the location of an object and a diagnosis result using a diagnostic device on which a marker is formed, and more particularly, a diagnostic device for diagnosing a specific part of an object and using a diagnostic device to diagnose the diagnosis result information. When provided to a device, a smart location recognition diagnostic device accurately determines the diagnosis location through a marker formed on the diagnosis device, and a marker for storing and managing the exact location of the marker and the diagnosis result information obtained at that location, or outputting it on the screen. The present invention relates to an object position recognition type diagnosis apparatus that outputs an object position and a diagnosis result using a diagnosis device having a formed thereon.

피부 미용에 대한 관심이 증가하면서 많은 사용자들이 피부관리실이나 맛사지샵, 피부과의원 등 다양한 경로를 통하여 피부의 상태를 확인하고, 적절한 화장품이나 약품 등을 이용하여 피부관리를 하게 되었다.As interest in skin beauty increases, many users check the condition of the skin through various routes such as skin care rooms, massage shops, and dermatology clinics, and use appropriate cosmetics or drugs to take care of the skin.

사람들의 피부 상태는 계절에 따라서도 크게 달라지며, 개인마다 편차가 심하기 때문에 적절한 처방을 위해서는 정확한 진단이 무엇보다 중요하다.The condition of people's skin varies greatly depending on the season, and since individual variations are severe, accurate diagnosis is paramount for proper prescription.

피부 상태의 진단을 위하여 피부과의원이나 클리닉 등지에는 전문적인 의료장비들이 구비되어 모공의 확대사진을 촬영하는 등의 진단 행위를 가능케 하고 있다.For the diagnosis of skin conditions, specialized medical equipments are provided in dermatology clinics and clinics to enable diagnosis such as taking enlarged photographs of pores.

그러나, 피부 미용에 대한 관심의 증가로 인해 사용자들의 피부에 대한 지식수준도 함께 증가하였으며, 사용자들은 자신의 피부의 상태에 대해서 또는 피부의 상태변화에 대해서 보다 상세하게 알기를 원하게 되었다.However, due to the increase in interest in skin beauty, the level of knowledge about the skin of users has also increased, and users want to know more about the condition of their own skin or changes in the condition of the skin.

그럼에도 불구하고 단순히 피부 상태를 모니터링하고, 화장품 등의 사용에 따른 변화추이를 파악하기 위하여 정기적으로 클리닉 등에 방문하는 것은 매우 번거로운 일이라 하겠다.Nevertheless, it would be very cumbersome to simply monitor the skin condition and visit the clinic on a regular basis to understand the trend of changes caused by the use of cosmetics and the like.

따라서, 사용자들이 휴대하면서 간단히 자신의 피부상태를 확인하고 진단할 수 있도록 하는 방안의 마련이 필요하다.Therefore, there is a need to prepare a plan that allows users to simply check and diagnose their skin condition while carrying.

또한, 종래의 피부에 대한 종합적인 정보를 제공하는 카메라, 센서 등은 단순히 운영자가 수동으로 피부에 접촉하여 촬영하고 정보를 획득한다. In addition, conventional cameras, sensors, etc. that provide comprehensive information on skin are simply photographed by an operator manually touching the skin to obtain information.

또한, 피부에 대한 대략의 상태를 측정하는 경우에는 고해상도 카메라로 2D 영상을 획득하여 분석하여 왔고, 얼굴 피부에 대한 종합적인 정보를 획득하기 위해서는 고해상도 카메라 외에 다른 센서를 이용하여 접촉식 국부 촬영 센서로 재촬영해야 하는 번거로움이 존재했다. In addition, in the case of measuring the approximate condition of the skin, 2D images have been acquired and analyzed with a high-resolution camera, and in order to obtain comprehensive information on the facial skin, other sensors other than the high-resolution camera are used to use a contact-type local imaging sensor. There was a hassle of having to re-shoot.

이런 경우, 얼굴을 예를 들자면, 고해상도 카메라 앞에서 피부 촬영 후 기구로부터 얼굴을 분리한 뒤 접촉식 국부 촬영 카메라를 수동으로 밀착하여 촬영하는 과정을 거쳐야 하는 불편함이 있었다.In this case, taking a face as an example, there was an inconvenience of having to take a photograph by manually attaching a contact-type local photographing camera after separating the face from the device after photographing the skin in front of a high-resolution camera.

한편, 인간과 기기 간의 인터페이스로 카메라를 이용하는 컴퓨터 비전 기반의 방법들이 근래에 들어 많이 이용되고 있다. Meanwhile, computer vision-based methods using a camera as an interface between humans and devices have been widely used in recent years.

특히, 사용자의 움직임을 인식하여 이를 콘텐츠에 반영하는 체감형 게임과 같은 엔터테인먼트 컴퓨팅 분야 또는 사용자의 가상 체험을 필요로 하는 컴퓨터 시뮬레이션 등의 분야에 이용될 수 있다.In particular, it may be used in fields such as entertainment computing fields such as haptic games that recognize the user's movements and reflect them in content, or fields such as computer simulations that require a user's virtual experience.

일반 가시광 카메라 또는 그로부터 획득된 영상을 기반으로 하는 경우 주위 조명 환경이나 배경에 그 성능이 크게 좌우된다. In the case of using a general visible light camera or an image acquired therefrom, its performance greatly depends on the surrounding lighting environment or background.

이러한 문제를 극복하기 위한 방법으로 조명 환경 변화에 비교적 강인한 속성을 가지는 적외선 영상을 이용할 수 있다. As a method to overcome this problem, an infrared image having a property that is relatively robust to changes in the lighting environment can be used.

또한 특정한 형태의 마커를 추적하고자 하는 물체에 부착하여 이를 탐지하여 그 물체의 위치를 추적할 수 있다. In addition, a specific type of marker can be attached to an object to be tracked, and the location of the object can be tracked by detecting it.

이 경우 마커의 형태를 고려하지 않고 단순히 반사하는 빛의 양이 가장 큰 영역을 탐지하는 방법은 대상 물체의 속성에 따른 반사강도에 의해 정밀한 물체 추적이 힘들어지는 문제가 있다.In this case, the method of detecting an area where the amount of light reflected simply is the largest without considering the shape of the marker has a problem that precise object tracking is difficult due to the reflection intensity according to the properties of the target object.

예를 들어 설명하면, 구급 차량 내에서 응급시술을 수행할 수도 있는데, 이에 따라 응급시술의 정확한 위치와 시술 이미지 등을 블랙박스 상에 저장, 관리하여야 하지만, 시술 위치를 정확하게 확인하여 해당 위치에 이미지를 맵핑시킬 수 없는 문제점이 발생하여 병원에 도착하여 수술을 진행할 경우에 골든 타임을 놓치는 불상사가 발생하게 되었다.For example, an emergency procedure may be performed in an ambulance vehicle, and accordingly, the exact location of the emergency procedure and the procedure image must be stored and managed on a black box. There was a problem that could not be mapped, so when you arrive at the hospital and proceed with the surgery, an unemployment person misses the golden time.

따라서, 특정 대상체의 전체 영역을 일정한 크기로 분류한 다수의 분류 영역 중에서 마커가 위치한 특정 영역에 한정하여 새로운 맵을 구성하여 마커의 정확한 위치를 확인할 수 있는 기술이 필요하게 된 것이다.Accordingly, there is a need for a technique capable of confirming the exact position of the marker by constructing a new map by confining the specific area where the marker is located among a plurality of classification areas in which the entire area of a specific object is classified with a certain size.

(등록특허문헌) 대한민국등록특허공보 제10-1175611호(Registered Patent Document) Korean Registered Patent Publication No. 10-1175611

따라서 본 발명은 상기와 같은 종래 기술의 문제점을 감안하여 제안된 것으로서, 본 발명의 목적은 진단기에 의해 대상체의 특정 부위를 진단하여 진단 결과 정보를 스마트위치인식형진단기기로 제공할 경우에 진단기에 형성된 마커를 통해 진단 위치를 스마트위치인식형진단기기에서 정확하게 판단하고, 마커의 정확한 위치와 해당 위치에서 획득된 진단 결과 정보를 저장 관리하거나, 화면에 출력시키는데 있다.Accordingly, the present invention has been proposed in view of the problems of the prior art as described above, and an object of the present invention is to diagnose a specific part of an object by a diagnostic device and provide diagnostic result information to a smart location recognition diagnostic device. A smart location recognition diagnostic device accurately determines a diagnosis location through the formed marker, and stores and manages the exact location of the marker and diagnostic result information obtained at the corresponding location, or outputs it on the screen.

본 발명이 해결하고자 하는 과제를 달성하기 위하여, 본 발명의 실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치는,
대상체의 진단 결과 정보를 스마트위치인식형진단기기(300)로 제공하기 위한 진단기(100)와;
상기 진단기(100)에 형성되어 진단 위치를 스마트위치인식형진단기기(300)에서 판단할 수 있도록 하기 위한 마커(200)와;
In order to achieve the problem to be solved by the present invention, an object position recognition type diagnosis apparatus for outputting an object position and a diagnosis result using a diagnostic device having a marker according to an embodiment of the present invention,
A diagnosis device 100 for providing diagnosis result information of an object to the smart location recognition type diagnosis device 300;
A marker 200 formed on the diagnosis device 100 to enable the smart location recognition type diagnosis device 300 to determine a diagnosis location;

진단기(100)가 제공한 대상체의 진단 결과 정보를 획득하고, 자체 촬영한 영상 정보를 이용해 진단 위치를 파악하고, 파악한 진단 위치와 진단기에서 제공한 진단 결과 정보를 매칭시켜 화면에 출력하기 위한 스마트위치인식형진단기기(300);를 포함한다.A smart location for acquiring the diagnosis result information of the object provided by the diagnosis device 100, identifying the diagnosis location using self-imaged image information, matching the detected diagnosis location with the diagnosis result information provided by the diagnosis device, and outputting it on the screen. Recognition type diagnostic device 300; includes.

삭제delete

삭제delete

본 발명에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치는, An object position recognition type diagnosis apparatus for outputting an object position and a diagnosis result using a diagnostic device on which a marker is formed according to the present invention,

진단기에 의해 대상체의 특정 부위를 진단하여 진단 결과 정보를 스마트위치인식형진단기기로 제공할 경우에 진단기에 형성된 마커를 통해 진단 위치를 스마트위치인식형진단기기에서 정확하게 판단하고, 마커의 정확한 위치와 해당 위치에서 획득된 진단 결과 정보를 저장 관리하거나, 화면에 출력시킬 수 있게 된다.When a specific part of the object is diagnosed by a diagnostic device and the diagnosis result information is provided to the smart location recognition diagnostic device, the location of the diagnosis is accurately determined by the smart location recognition diagnostic device through the marker formed on the diagnostic device, and the exact location of the marker and The diagnosis result information obtained at the corresponding location can be stored and managed or displayed on the screen.

예를 들어, 구급 차량 내에서 응급시술을 수행할 수도 있는데, 이에 따라 응급시술의 정확한 위치와 시술 이미지 등을 블랙박스 상에 저장, 관리할 수 있게 되어 병원에 도착하여 수술을 진행할 경우에 이를 확인할 수 있게 되는 것이다.For example, emergency procedures can be performed in an ambulance, and accordingly, the exact location and procedure images of the emergency procedures can be stored and managed on a black box, so that when you arrive at the hospital and perform surgery, you can check it. It will be possible.

도 1은 본 발명의 일실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 전체 구성도.
도 2는 본 발명의 일실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 스마트위치인식형진단기기(300) 블록도.
도 3은 본 발명의 일실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 인체 분류 예시도이며, 도 4는 각 상세 부위에 대한 분류 영역별 맵 예시도.
1 is an overall configuration diagram of an object position recognition type diagnostic apparatus for outputting an object position and a diagnosis result using a diagnostic device on which a marker is formed according to an embodiment of the present invention.
2 is a block diagram of a smart location recognition diagnosis device 300 of an object location recognition diagnosis apparatus for outputting a location of an object and a diagnosis result using a diagnosis device having a marker according to an embodiment of the present invention.
FIG. 3 is an exemplary diagram of human body classification of an object location recognition type diagnosis apparatus that outputs the location of an object and a diagnosis result using a diagnostic device on which a marker is formed according to an embodiment of the present invention, and FIG. 4 is a map by classification area for each detailed region. Illustrative diagram.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. The following content merely exemplifies the principles of the present invention. Therefore, those skilled in the art can implement the principles of the present invention and invent various devices included in the concept and scope of the present invention, although not clearly described or illustrated herein.

또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.In addition, all conditional terms and examples listed in this specification are, in principle, clearly intended only for the purpose of understanding the concept of the present invention, and should be understood as not limiting to the embodiments and states specifically listed as described above. do.


본 발명의 실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치는,
대상체의 진단 결과 정보를 스마트위치인식형진단기기(300)로 제공하기 위한 진단기(100)와;
상기 진단기(100)에 형성되어 진단 위치를 스마트위치인식형진단기기(300)에서 판단할 수 있도록 하기 위한 마커(200)와;

An object position recognition type diagnostic apparatus for outputting an object position and a diagnosis result using a diagnostic device on which a marker is formed according to an embodiment of the present invention,
A diagnosis device 100 for providing diagnosis result information of an object to the smart location recognition type diagnosis device 300;
A marker 200 formed on the diagnosis device 100 to enable the smart location recognition type diagnosis device 300 to determine a diagnosis location;

진단기(100)가 제공한 대상체의 진단 결과 정보를 획득하고, 자체 촬영한 영상 정보를 이용해 진단 위치를 파악하고, 파악한 진단 위치와 진단기에서 제공한 진단 결과 정보를 매칭시켜 화면에 출력하기 위한 스마트위치인식형진단기기(300);를 포함하여 구성되는 것을 특징으로 한다.A smart location for acquiring the diagnosis result information of the object provided by the diagnosis device 100, identifying the diagnosis location using self-imaged image information, matching the detected diagnosis location with the diagnosis result information provided by the diagnosis device, and outputting it on the screen. Recognition type diagnosis device 300; characterized in that it is configured to include.

삭제delete

삭제delete

또한, 상기 진단기(100)에 형성된 마커(200)는 진단기(100)의 헤드 부분에 특수한 형상이나 구별되는 색이나 모양으로 구성되는 것을 특징으로 한다.
또한, 상기 스마트위치인식형진단기기(300)는,
마커가 형성된 진단기(100)가 대상체를 진단하고 있는 전체 상황을 촬영하는 대상체촬영부(310)와,
대상체촬영부(310)가 촬영한 영상 정보를 이용해 진단기에 형성된 마커가 위치하고 있는 대상체의 신체 부위가 어디 인지를 파악하고, 파악된 신체 부위 중 마커가 위치한 진단 위치 정보를 생성하는 진단위치판단부(320)와,
상기 진단위치판단부(320)가 파악한 신체 부위에 대응되는 신체 영역 이미지를 영역별맵정보저장부(340)로부터 추출하는 맵정보추출부(330)와,
신체 영역별 이미지 정보를 저장하고 있는 영역별맵정보저장부(340)와,
In addition, the marker 200 formed on the diagnostic device 100 is characterized in that the head of the diagnostic device 100 has a special shape or a distinct color or shape.
In addition, the smart location recognition diagnostic device 300,
An object imaging unit 310 for capturing the entire situation in which the diagnostic device 100 on which the marker is formed is diagnosing an object,
A diagnostic position determination unit (which determines where the body part of the object where the marker formed in the diagnostic device is located is) using image information captured by the object imaging unit 310, and generates diagnosis position information where the marker is located among the identified body parts ( 320) and,
A map information extracting unit 330 for extracting a body region image corresponding to the body part identified by the diagnosis location determination unit 320 from the map information storage unit 340 for each region;
A map information storage unit 340 for each area that stores image information for each body area,

삭제delete

상기 맵정보추출부(330)가 추출한 신체 영역 이미지상 진단위치판단부(320)가 생성한 진단 위치에 진단기가 제공한 진단 결과 정보를 맵핑시켜 얼라인 처리하기 위한 위치인식얼라인처리부(350)를 포함하는 것을 특징으로 한다.A position recognition alignment processing unit 350 for aligning by mapping the diagnosis result information provided by the diagnosis device to the diagnosis position generated by the diagnosis position determination unit 320 on the body region image extracted by the map information extraction unit 330 It characterized in that it comprises a.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

또한, 상기 대상체의 진단 결과 정보는 피부 표면의 이미지 혹은 초음파를 통해 획득된 피부의 안쪽 이미지를 포함하는 것을 특징으로 한다.In addition, the diagnosis result information of the object may include an image of the surface of the skin or an image of the inside of the skin obtained through ultrasound.

삭제delete

이하, 본 발명에 의한 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 실시예를 통해 상세히 설명하도록 한다.Hereinafter, a detailed description will be given through an embodiment of an object position recognition type diagnosis apparatus that outputs an object position and a diagnosis result using a diagnostic device on which a marker is formed according to the present invention.

도 1은 본 발명의 일실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 전체 구성도이다.1 is an overall configuration diagram of an object position recognition type diagnosis apparatus for outputting an object position and a diagnosis result using a diagnosis device on which a marker is formed according to an exemplary embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명인 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치는, 진단기(100), 마커(200), 스마트위치인식형진단기기(300)를 포함하여 구성되게 된다.As shown in FIG. 1, an object position recognition type diagnosis apparatus for outputting an object location and diagnosis result using a diagnosis device having a marker formed thereon according to the present invention includes a diagnosis device 100, a marker 200, and a smart position recognition diagnosis device 300. ).

상기 진단기(100)와 스마트위치인식형진단기기(300)는 유무선 통신을 이용하여 서로 대상체 진단과 관련된 정보를 주고 받게 되는 것이다.The diagnostic device 100 and the smart location recognition diagnostic device 300 exchange information related to object diagnosis with each other using wired or wireless communication.

상기 진단기(100)가 스마트위치인식형진단기기(300)로 제공하는 진단 결과 정보는 대상체의 피부 표면 이미지, 초음파와 같은 피부의 안쪽 이미지, 수분, 유분 등과 같은 피부 정보 등을 포함할 수 있다.The diagnostic result information provided by the diagnostic device 100 to the smart location recognition diagnostic device 300 may include a skin surface image of an object, an inner image of the skin such as ultrasound, skin information such as moisture, oil, and the like.

만약, 피부 표면 이미지를 획득하는 진단기일 경우에는 카메라를 장착하고, 초음파와 같은 피부의 안쪽 이미지를 획득하는 진단기일 경우에는 초음파 촬영용 카메라를 장착하게 되고, 수분, 유분 등과 같은 피부 정보 등을 획득하는 진단기일 경우는 수분이나 유분 측정 센서를 장착하게 되는 것이다.In the case of a diagnostic device that acquires an image of the skin surface, a camera is mounted, and in the case of a diagnostic device that acquires an inner image of the skin such as ultrasound, an ultrasound camera is mounted, and skin information such as moisture and oil is acquired. In the case of a diagnostic device, a moisture or oil measurement sensor is installed.

또한, 진단기는 접촉식이든 비접촉식이든 상관없으며, 소비자들이 쉽게 휴대할 수 있는 사이즈로서 언제 어디서든지 측정이 가능하게 되고, 해당 진단 정보를 스마트위치인식형진단기기에서 실시간으로 확인할 수 있게 되는 것이다.In addition, the diagnostic device does not matter whether it is a contact type or a non-contact type, and it is a size that consumers can easily carry and can be measured anytime, anywhere, and the corresponding diagnostic information can be checked in real time on a smart location recognition type diagnosis device.

이때, 상기 진단기에 마커(200)를 형성하여 진단 위치를 스마트위치인식형진단기기에서 판단할 수 있도록 하는데, 상기 마커는 스마트위치인식형진단기기에서 촬영 영상을 이용해 진단 위치를 파악할 수 있도록 특수한 형태의 마커이거나 특수한 색깔의 마커일 수 있다.
즉, 상기 진단기(100)에 형성된 마커(200)는 진단기(100)의 헤드 부분의 특수한 형상이나 구별되는 색이나 모양으로 구성되는 것을 특징으로 한다. 따라서, 마커를 토대로 진단 위치를 파악할 수 있게 되는 것이다.
At this time, a marker 200 is formed on the diagnostic device so that the diagnostic location can be determined by a smart location recognition diagnostic device, which is a special shape so that the diagnosis location can be identified using a photographed image in a smart location recognition diagnostic device. It may be a marker of or a special colored marker.
That is, the marker 200 formed on the diagnostic device 100 is characterized in that it is configured with a special shape or a distinct color or shape of the head portion of the diagnostic device 100. Therefore, it is possible to grasp the diagnosis position based on the marker.

삭제delete

삭제delete

삭제delete

삭제delete

또한, 상기 스마트위치인식형진단기기(300)는 진단기(100)가 제공한 대상체의 진단 결과 정보를 획득하고, 자체 촬영한 영상 정보를 이용해 진단 위치를 파악하고, 파악한 진단 위치와 진단기에서 제공한 진단 결과 정보를 매칭시켜 화면에 출력하는 기능을 수행한다.In addition, the smart location recognition diagnostic device 300 acquires the diagnosis result information of the object provided by the diagnosis device 100, identifies the diagnosis location using self-imaged image information, and identifies the diagnosis location and the diagnosis device provided by the diagnosis device. It matches the diagnosis result information and outputs it to the screen.

또한, 매칭된 진단 위치와 진단 결과 정보를 원격지에 구성된 진단결관리클라우드서버로 송출하여 지속적인 관리를 수행할 수 있도록 별도의 디비에 저장시킬 수도 있다.In addition, the matched diagnosis location and diagnosis result information may be transmitted to a diagnosis result management cloud server configured in a remote location and stored in a separate DB so that continuous management can be performed.

도 2는 본 발명의 일실시예에 따른 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치의 스마트위치인식형진단기기(300) 블록도이다.2 is a block diagram of a smart location recognition diagnosis device 300 of an object location recognition diagnosis apparatus outputting a location of an object and a diagnosis result using a diagnosis device on which a marker is formed according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 상기 스마트위치인식형진단기기(300)는,
마커가 형성된 진단기(100)가 대상체를 진단하고 있는 전체 상황을 촬영하는 대상체촬영부(310)와,
대상체촬영부(310)가 촬영한 영상 정보를 이용해 진단기에 형성된 마커가 위치하고 있는 대상체의 신체 부위가 어디 인지를 파악하고, 파악된 신체 부위 중 마커가 위치한 진단 위치 정보를 생성하는 진단위치판단부(320)와,
상기 진단위치판단부(320)가 파악한 신체 부위에 대응되는 신체 영역 이미지를 영역별맵정보저장부(340)로부터 추출하는 맵정보추출부(330)와,
신체 영역별 이미지 정보를 저장하고 있는 영역별맵정보저장부(340)와,
상기 맵정보추출부(330)가 추출한 신체 영역 이미지상 진단위치판단부(320)가 생성한 진단 위치에 진단기가 제공한 진단 결과 정보를 맵핑시켜 얼라인 처리하기 위한 위치인식얼라인처리부(350)를 포함하여 구성되게 된다.
As shown in Figure 2, the smart location recognition type diagnostic device 300,
An object imaging unit 310 for capturing the entire situation in which the diagnostic device 100 on which the marker is formed is diagnosing an object,
A diagnostic position determination unit (which determines where the body part of the object where the marker formed in the diagnostic device is located is) using image information captured by the object imaging unit 310, and generates diagnosis position information where the marker is located among the identified body parts ( 320) and,
A map information extracting unit 330 for extracting a body region image corresponding to the body part identified by the diagnosis location determination unit 320 from the map information storage unit 340 for each region;
A map information storage unit 340 for each area that stores image information for each body area,
A position recognition alignment processing unit 350 for aligning by mapping the diagnosis result information provided by the diagnosis device to the diagnosis position generated by the diagnosis position determination unit 320 on the body region image extracted by the map information extraction unit 330 It will be configured to include.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명의 설명 예시에서는 인체를 가지고 예를 들어 설명하고 있으나 인체에 한정되어 동작하는 것은 아니며, 다른 대상체의 진단도 가능함은 당연한 것이다.In the illustrative example of the present invention, the human body is used as an example, but the operation is not limited to the human body, and it is natural that other objects can be diagnosed.

구체적으로 설명하자면,
상기 대상체촬영부(310)는 마커가 형성된 진단기(100)가 대상체를 진단하고 있는 전체 상황을 촬영하게 되는데, 예를 들어, 대상체가 인체일 경우, 진단기(100)가 머리, 가슴, 복부, 상지, 하지 등을 진단하는 상황을 촬영하게 되고, 촬영된 영상 정보는 별도의 메모리에 저장되게 된다.
Specifically,
The object photographing unit 310 photographs the entire situation in which the diagnostic device 100 on which the marker is formed is diagnosing the object. For example, when the object is a human body, the diagnostic device 100 is used for the head, chest, abdomen, and upper limbs. The situation of diagnosing the lower limbs, etc. is photographed, and the photographed image information is stored in a separate memory.

이때, 상기 진단위치판단부(320)는 대상체촬영부(310)가 촬영한 영상 정보를 이용해 진단기에 형성된 마커가 위치하고 있는 대상체의 신체 부위가 어디 인지를 파악하고, 파악된 신체 부위 중 마커가 위치한 진단 위치 정보를 생성한다. 예를 들면 진단 위치 정보는 머리상에서의 눈, 코, 입 등의 좌표 정보일 수 있다.
마커가 위치하고 있는 대상체의 신체 부위 파악과, 파악된 신체 부위 중 마커가 위치한 진단 위치 판단은 영상 처리 알고리즘을 이용하여 파악하거나 판단할 수 있게 되는 것이다.
At this time, the diagnosis position determination unit 320 uses the image information captured by the object imaging unit 310 to determine where the body part of the object where the marker formed in the diagnosis device is located is, and among the identified body parts, the marker is located. Generate diagnostic location information. For example, the diagnosis location information may be coordinate information such as eyes, nose, and mouth on the head.
The identification of the body part of the object where the marker is located and the determination of the diagnosis position where the marker is located among the identified body parts can be identified or determined using an image processing algorithm.

예를 들어, 도 3에 도시한 바와 같이, 대상체촬영부(310)가 촬영한 영상 이미지 상에서 마커의 위치가 머리에 위치하게 되면 마커가 위치하고 있는 대상체의 신체 부위가 머리인 것으로 1차적으로 파악하고, 이어서 머리 부위중 마커가 눈에 위치하는지 코에 위치하는지 입에 위치하는지 등을 영상 처리 알고리즘을 이용하여 2차적으로 파악하여 진단 위치 정보를 생성하게 되는 것이다.For example, as shown in FIG. 3, when the position of the marker is located on the head on the image image captured by the object photographing unit 310, it is primarily determined that the body part of the object where the marker is located is the head. Then, among the head, whether the marker is located on the eye, the nose, or the mouth is secondarily identified using an image processing algorithm to generate diagnostic location information.

삭제delete

즉, 1차적으로 마커의 위치가 대분류 카테고리(예를 들면 머리, 가슴, 복부, 상지, 하지 등)중 어느 카테고리에 포함되는지를 판단하고(예를 들어, 머리로 판단하고), 이중 해당 대분류 카테고리의 세부 카테고리(예를 들면 눈, 코, 입, 어깨, 팔, 손, 골반, 다리, 발 등)중 어느 세부 카테고리인지를 2차적으로 판단(예를 들면 눈으로 판단)하게 된다. 이는 영상 처리 알고리즘을 이용하여 판단하게 되는데, 영상 처리 알고리즘을 이용해 인체의 어느 위치에 마커가 위치하는지를 판단하는 기술은 일반적인 영상 처리 기술인바 구체적인 설명은 생략하기로 한다.That is, firstly, it is determined whether the position of the marker is included in any of the major category categories (eg, head, chest, abdomen, upper limb, lower limbs, etc.) (eg, judging by the head), and among them, the corresponding major category category. Among the subcategories of (for example, eyes, nose, mouth, shoulders, arms, hands, pelvis, legs, feet, etc.), which subcategory is secondly judged (for example, judged by eyes). This is determined using an image processing algorithm. Since a technique for determining where a marker is located on a human body using an image processing algorithm is a general image processing technique, a detailed description will be omitted.

삭제delete

상기 맵정보추출부(330)는 진단위치판단부(320)가 파악한 신체 부위에 대응되는 신체 영역 이미지를 영역별맵정보저장부(340)로부터 추출한다.The map information extracting unit 330 extracts a body region image corresponding to the body part identified by the diagnosis position determining unit 320 from the map information storage unit 340 for each region.

예를 들어, 진단위치판단부(320)가 파악한 신체 부위가 머리라면 영역별맵정보저장부(340)로부터 도 4에 도시한 바와 같은, 머리 이미지를 추출한다.For example, if the body part identified by the diagnosis position determination unit 320 is a head, a head image as shown in FIG. 4 is extracted from the map information storage unit 340 for each region.

상기 영역별맵정보저장부(340)에는 신체 영역별 이미지 정보를 저장하고 있는데, 예를 들면, 도 4에 도시된 바와 같이, 머리, 가슴, 복부, 어깨, 팔, 손, 골반, 발 등의 신체 영역별 이미지가 저장된다.
이후, 상기 위치인식얼라인처리부(350)는 맵정보추출부(330)가 추출한 신체 영역 이미지상 진단위치판단부(320)가 생성한 진단 위치에 진단기가 제공한 진단 결과 정보를 맵핑시켜 얼라인 처리하게 되는 것이다.
The map information storage unit 340 for each area stores image information for each body area. For example, as shown in FIG. 4, the body such as head, chest, abdomen, shoulders, arms, hands, pelvis, and feet Images for each area are saved.
Thereafter, the position recognition alignment processing unit 350 maps the diagnosis result information provided by the diagnosis unit to the diagnosis position generated by the diagnosis position determination unit 320 on the body region image extracted by the map information extraction unit 330 and aligns. It will be processed.

삭제delete

예를 들어, 맵정보추출부(330)가 추출한 신체 영역 이미지가 머리이고, 진단위치판단부(320)가 생성한 진단 위치가 볼 부위이고, 진단기가 제공한 진단 결과 정보가 유분 85AU, 수분 67%와 같은 피부 정보이거나 볼 부위의 피부 표면 이미지일 경우, 위치인식얼라인처리부(350)는 머리 이미지상 볼 부위에 상기와 같은 진단 결과 정보를 매핑시키는 얼라인 처리를 하는 것이다.For example, the body region image extracted by the map information extracting unit 330 is the head, the diagnosis position generated by the diagnosis position determination unit 320 is the ball, and the diagnosis result information provided by the diagnosis unit is oil 85AU, moisture 67 In the case of skin information such as% or the skin surface image of the cheek region, the position recognition alignment processing unit 350 performs alignment processing to map the diagnosis result information to the cheek region on the head image.

삭제delete

삭제delete

삭제delete

삭제delete

본 발명의 전체 동작 과정을 얼굴 진단을 예를 들어 설명한다.
스마트위치인식형진단기기(300)를 실행하면, 스마트위치인식형진단기기(300)의 대상체촬영부(310)가 마커가 형성된 진단기(100)를 이용해 대상체의 얼굴을 진단하고 있는 전체 상황을 촬영한다.
The entire operation process of the present invention will be described with an example of face diagnosis.
When the smart location recognition diagnostic device 300 is executed, the object imaging unit 310 of the smart location recognition diagnostic device 300 captures the entire situation in which the face of the object is diagnosed using the diagnostic device 100 on which a marker is formed. do.

스마트위치인식형진단기기와 페어링된 진단기(100)를 진단하고자 하는 신체 중 얼굴의 볼 부위에 접촉 혹은 비접촉 시킨후 진단을 수행하여 진단 결과정보를 생성하여 스마트위치인식형진단기기(300)로 제공한다.After making the diagnosis device 100 paired with the smart location recognition diagnosis device contact or non-contact with the cheek part of the body to be diagnosed, the diagnosis result information is generated and provided to the smart location recognition diagnosis device 300 do.

이후, 진단위치판단부(320)는 대상체촬영부(310)가 촬영한 영상 정보(예를 들어, 진단기를 이용해 얼굴의 볼 부위를 진단하고 있는 상황에 관한 영상 정보)를 이용해 진단기에 형성된 마커가 위치하고 있는 대상체의 신체 부위가 얼굴인지를 파악하게 되고, 파악된 얼굴 부위 중 마커가 위치한 볼 부위를 진단 위치 정보로 생성하게 된다.Thereafter, the diagnosis position determination unit 320 uses the image information captured by the object imaging unit 310 (eg, image information about a situation in which the cheek part of the face is diagnosed using a diagnosis device), and the marker formed in the diagnosis unit is It is determined whether the body part of the object being located is a face, and a ball part where the marker is located among the identified facial parts is generated as diagnostic location information.

삭제delete

삭제delete

이후, 맵정보추출부(330)는 진단위치판단부(320)가 파악한 신체 부위인 얼굴에 대응되는 신체 영역 이미지를 영역별맵정보저장부(340)로부터 추출한다.
이후, 위치인식얼라인처리부(350)는 맵정보추출부(330)가 추출한 얼굴 이미지상 진단위치판단부(320)가 생성한 진단 위치인 볼 부위에 진단기가 제공한 진단 결과 정보를 맵핑시켜 저장한다.
Thereafter, the map information extracting unit 330 extracts a body region image corresponding to the face, which is a body part identified by the diagnosis position determining unit 320, from the map information storage unit 340 for each region.
Thereafter, the position recognition alignment processing unit 350 maps and stores the diagnosis result information provided by the diagnosis device to the cheek region, which is the diagnosis position generated by the diagnosis position determination unit 320, on the face image extracted by the map information extraction unit 330. do.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and is generally used in the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications may be implemented by a person having the knowledge of, and these modifications should not be individually understood from the technical idea or perspective of the present invention.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

100 : 진단기
200 : 마커
300 : 스마트위치인식형진단기기
100: diagnostic device
200: marker
300: Smart location recognition diagnostic device

Claims (6)

마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치에 있어서,
대상체의 진단 결과 정보를 스마트위치인식형진단기기(300)로 제공하기 위한 진단기(100)와;
상기 진단기(100)에 형성되어 진단 위치를 스마트위치인식형진단기기(300)에서 판단할 수 있도록 하기 위한 마커(200)와;
진단기(100)가 제공한 대상체의 진단 결과 정보를 획득하고, 자체 촬영한 영상 정보를 이용해 진단 위치를 파악하고, 파악한 진단 위치와 진단기에서 제공한 진단 결과 정보를 매칭시켜 화면에 출력하기 위한 스마트위치인식형진단기기(300);를 포함하여 구성되되,

상기 스마트위치인식형진단기기(300)는,
마커가 형성된 진단기(100)가 대상체를 진단하고 있는 전체 상황을 촬영하는 대상체촬영부(310)와,
대상체촬영부(310)가 촬영한 영상 정보를 이용해 진단기에 형성된 마커가 위치하고 있는 대상체의 신체 부위가 어디 인지를 파악하고, 파악된 신체 부위 중 마커가 위치한 진단 위치 정보를 생성하는 진단위치판단부(320)와,
상기 진단위치판단부(320)가 파악한 신체 부위에 대응되는 신체 영역 이미지를 영역별맵정보저장부(340)로부터 추출하는 맵정보추출부(330)와,
신체 영역별 이미지 정보를 저장하고 있는 영역별맵정보저장부(340)와,
상기 맵정보추출부(330)가 추출한 신체 영역 이미지상 진단위치판단부(320)가 생성한 진단 위치에 진단기가 제공한 진단 결과 정보를 맵핑시켜 얼라인 처리하기 위한 위치인식얼라인처리부(350)를 포함하여 구성되는 것을 특징으로 하는 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치.
In the object position recognition type diagnostic apparatus for outputting an object position and a diagnosis result using a diagnostic device on which a marker is formed,
A diagnosis device 100 for providing diagnosis result information of an object to the smart location recognition type diagnosis device 300;
A marker 200 formed on the diagnosis device 100 to enable the smart location recognition type diagnosis device 300 to determine a diagnosis location;
A smart location for acquiring the diagnosis result information of the object provided by the diagnosis device 100, identifying the diagnosis location using self-imaged image information, matching the detected diagnosis location with the diagnosis result information provided by the diagnosis device, and outputting it on the screen. Consisting, including; recognition type diagnostic device 300;

The smart location recognition diagnostic device 300,
An object imaging unit 310 for capturing the entire situation in which the diagnostic device 100 on which the marker is formed is diagnosing an object,
A diagnostic position determination unit (which determines where the body part of the object where the marker formed in the diagnostic device is located is) using image information captured by the object imaging unit 310, and generates diagnosis position information where the marker is located among the identified body parts ( 320) and,
A map information extracting unit 330 for extracting a body region image corresponding to the body part identified by the diagnosis location determination unit 320 from the map information storage unit 340 for each region;
A map information storage unit 340 for each area that stores image information for each body area,
A position recognition alignment processing unit 350 for aligning by mapping the diagnosis result information provided by the diagnosis device to the diagnosis position generated by the diagnosis position determination unit 320 on the body region image extracted by the map information extraction unit 330 An object position recognition type diagnosis apparatus for outputting a position of an object and a diagnosis result using a diagnostic device on which a marker is formed, comprising: a.
제 1항에 있어서,
상기 진단기(100)에 형성된 마커(200)는,
진단기(100)의 헤드 부분의 특수한 형상이나 구별되는 색이나 모양으로 구성되는 것을 특징으로 하는 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치.
The method of claim 1,
The marker 200 formed on the diagnostic device 100,
An object position recognition type diagnosis apparatus for outputting the position of the object and the diagnosis result using a diagnosis device having a marker, characterized in that the head of the diagnosis device 100 has a special shape or a distinct color or shape.
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 대상체의 진단 결과 정보는,
피부의 표면 이미지 혹은 피부의 안쪽 이미지를 포함하는 것을 특징으로 하는 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치.
The method of claim 1,
The diagnosis result information of the subject,
An object position recognition type diagnosis apparatus for outputting a position of an object and a diagnosis result using a diagnostic device including a surface image of the skin or an image of the inside of the skin.
KR1020200062765A 2020-05-26 2020-05-26 Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker KR102222059B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200062765A KR102222059B1 (en) 2020-05-26 2020-05-26 Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200062765A KR102222059B1 (en) 2020-05-26 2020-05-26 Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker

Publications (1)

Publication Number Publication Date
KR102222059B1 true KR102222059B1 (en) 2021-03-03

Family

ID=75151089

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200062765A KR102222059B1 (en) 2020-05-26 2020-05-26 Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker

Country Status (1)

Country Link
KR (1) KR102222059B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101175611B1 (en) 2011-03-16 2012-08-21 재단법인대구경북과학기술원 Object tracking system using marker and method thereof
KR20140097640A (en) * 2013-01-28 2014-08-07 동국대학교 산학협력단 Apparatus for tracing diagnosis site, device for tracing diagnosis site and diagnosis device
KR20140108417A (en) * 2013-02-27 2014-09-11 김민준 Health diagnosis system using image information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101175611B1 (en) 2011-03-16 2012-08-21 재단법인대구경북과학기술원 Object tracking system using marker and method thereof
KR20140097640A (en) * 2013-01-28 2014-08-07 동국대학교 산학협력단 Apparatus for tracing diagnosis site, device for tracing diagnosis site and diagnosis device
KR20140108417A (en) * 2013-02-27 2014-09-11 김민준 Health diagnosis system using image information

Similar Documents

Publication Publication Date Title
US11576645B2 (en) Systems and methods for scanning a patient in an imaging system
US7657101B2 (en) Devices and methods for identifying and monitoring changes of a suspect area on a patient
US11576578B2 (en) Systems and methods for scanning a patient in an imaging system
KR102317478B1 (en) Method and system for wound assessment and management
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
KR101492803B1 (en) Apparatus and method for breast tumor detection using tactile and near infrared hybrid imaging
CN107949863A (en) Use the authentication device and authentication method of Biont information
US20120206587A1 (en) System and method for scanning a human body
KR101793468B1 (en) Self-Beauty App platform System using AR and method
KR100979506B1 (en) Diagnosis device of Sasang constitution
KR101792541B1 (en) Smart Device Skin care service system using Skin Diagnostic Information
CN113658211B (en) User gesture evaluation method and device and processing equipment
WO2013126877A1 (en) Personal skin scanner system
WO2011016782A1 (en) Condition detection methods and condition detection devices
JP2021168984A (en) Information processing device, testing system, and information processing method
Pires et al. Wound Area Assessment using Mobile Application.
US11931166B2 (en) System and method of determining an accurate enhanced Lund and Browder chart and total body surface area burn score
Bumacod et al. Image-processing-based digital goniometer using OpenCV
Palmero et al. Automatic sleep system recommendation by multi-modal RBG-depth-pressure anthropometric analysis
US10993625B1 (en) System, method, and apparatus for temperature asymmetry measurement of body parts
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
KR102222059B1 (en) Object position recognition diagnostic device that outputs the object position and the diagnosis result using a diagnostic device with marker
CN108885087A (en) Measuring device, measurement method and computer readable recording medium
KR102473744B1 (en) A method of diagnosing strabismus through the analysis of eyeball image from cover and uncovered test
US20220296158A1 (en) System, method, and apparatus for temperature asymmetry measurement of body parts

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant