WO2023163274A1 - 반려동물 피부 진단 시스템 및 그 동작 방법 - Google Patents

반려동물 피부 진단 시스템 및 그 동작 방법 Download PDF

Info

Publication number
WO2023163274A1
WO2023163274A1 PCT/KR2022/004668 KR2022004668W WO2023163274A1 WO 2023163274 A1 WO2023163274 A1 WO 2023163274A1 KR 2022004668 W KR2022004668 W KR 2022004668W WO 2023163274 A1 WO2023163274 A1 WO 2023163274A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
companion animal
image data
user terminal
hair
Prior art date
Application number
PCT/KR2022/004668
Other languages
English (en)
French (fr)
Inventor
김영선
유원상
Original Assignee
주식회사 오엔디자인
선문대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오엔디자인, 선문대학교 산학협력단 filed Critical 주식회사 오엔디자인
Priority claimed from KR1020220040846A external-priority patent/KR20230127099A/ko
Publication of WO2023163274A1 publication Critical patent/WO2023163274A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K13/00Devices for grooming or caring of animals, e.g. curry-combs; Fetlock rings; Tail-holders; Devices for preventing crib-biting; Washing devices; Protection against weather conditions or insects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • It relates to a companion animal skin diagnosis system and operation method for diagnosing skin diseases of companion animals using a smart comb.
  • Korean Patent Publication No. 10-2019-0118358 discloses an image processing method for photographing human skin using a plurality of photographing units and diagnosing a lesion from the photographed image.
  • the purpose of this study is to provide a companion animal skin diagnosis system and operation method for diagnosing skin diseases through a pre-processing process of removing hairs from image data taken of the companion animal's skin using a smart comb.
  • the companion animal skin diagnosis system includes a camera, and includes a smart comb for generating image data by photographing the skin of the companion animal through the camera; and a user terminal that receives image data from the smart comb and outputs image data received through an interface and skin diagnosis data analyzed based on the image data.
  • the smart comb includes a body composed of an upper body for the user to grip the smart comb and a lower body having comb teeth for combing companion animal hair, a camera is provided inside the body, and a lens of the camera is part of the lower body. It can be installed to photograph the skin of a companion animal by penetrating.
  • the teeth of the comb may include a lamp emitting near-infrared rays at one end of the teeth of the comb in contact with the skin of the companion animal.
  • the user terminal may generate hair removal image data in which the hair is removed from image data obtained by photographing the skin of the companion animal by using the first artificial neural network trained to generate an image in which the hair is removed from the skin image of the companion animal.
  • the user terminal may generate skin disease prediction data of the companion animal from hair removal image data using the second artificial neural network learned to detect the skin disease of the companion animal.
  • the first artificial neural network and the second artificial neural network may be provided together or separately in a user terminal or an external server that communicates with the user terminal.
  • the user terminal searches for a recommended veterinary hospital based on at least one of skin disease prediction data and current location information of a companion animal by communicating with an external server including veterinary clinic data classified by location and medical specialty, and the searched recommendation Information about the animal hospital can be output through the interface.
  • the first artificial neural network may be trained using training data composed of hairless skin image data and hair synthesis image data in which a hair synthesis mask is combined with the hairless skin image data.
  • the first artificial neural network is trained using training data composed of hairless skin image data and hair-containing image data, and the hairless skin image data and hair-containing image data may be generated by photographing different objects.
  • a method for diagnosing companion animal skin includes generating image data obtained by photographing the skin of a companion animal by a smart comb equipped with a camera; and receiving, by the user terminal, image data from the smart comb and outputting the received image data and skin diagnosis data analyzed based on the image data.
  • the smart comb for companion animal skin diagnosis includes an image acquisition module including a camera for photographing the companion animal's skin and an image processing unit for digitally converting the photographed image, and the photographed companion animal's skin image to a user terminal.
  • It may include a control unit that controls the treatment module by receiving a control signal generated from the user terminal based on the module and diagnosis data on the skin of the companion animal.
  • FIG. 1 is a configuration diagram of a companion animal skin diagnosis system according to an embodiment.
  • FIG 2 is an exemplary view of a smart comb according to an embodiment.
  • FIG. 3 is a configuration diagram of a smart comb according to an embodiment.
  • FIG. 4 is an example of a beam guide according to an embodiment.
  • FIG. 5 is an exemplary diagram of a user terminal according to an embodiment.
  • FIG. 6 is an exemplary diagram for explaining an artificial neural network learning method according to an example.
  • FIG. 7 is a flowchart illustrating a method for diagnosing companion animal skin according to an embodiment.
  • FIG. 1 is a configuration diagram of a companion animal skin diagnosis system according to an embodiment.
  • the companion animal skin diagnosis system 100 is equipped with a camera, and the smart comb 110 generates image data by photographing the skin of the companion animal through the camera and image data from the smart comb 110. It may include a user terminal 120 that receives and outputs image data received through an interface and skin diagnosis data analyzed based on the image data.
  • the user terminal 120 may communicate with an external server 130, and some of the embodiments of the user terminal 120 described below may be performed in the server 130. .
  • FIG. 2 is an exemplary view of a smart comb according to an embodiment
  • FIG. 3 is a configuration diagram of a smart comb according to an embodiment.
  • the smart comb 110 includes a body composed of an upper body 111 for the user to grip the smart comb and a lower body 112 having comb teeth 113 for combing companion animal hair. can do.
  • a 'module' may be a hardware device widely known in the art to which the present invention belongs.
  • a 'module' is a unit that performs one function according to an embodiment of the present invention, and may refer to the hardware device and software combined therewith.
  • the communication module may be a combination of a hardware device for performing a communication function according to an embodiment of the present invention and software for operating or controlling the same.
  • the smart comb 110 may include a communication module 121, an image acquisition module 124, a treatment module 125, and a control unit 126 inside the body.
  • the smart comb 110 may include a battery and a power supply module.
  • the communication module 121 may provide Wifi-based wireless connection, mobile communication, or wired connection between the smart comb 110 and the user terminal 120 and/or the external server 130. It is in charge of communication and data transmission functions between the smart comb and the mobile app, that is, the user terminal 120 and/or the external server 130.
  • the image acquisition module 124 may include an image processing unit and a camera.
  • the camera may be a high-magnification camera optimized for photographing a companion animal's skin. For example, in order to closely observe a skin disease of a companion animal, it may have a magnification of 20 times or more.
  • the image processing unit may convert data photographed by the camera into a digital format.
  • the camera is provided inside the body, and the lens 114 of the camera may be installed to photograph the skin of the companion animal through a part of the lower body 112 .
  • the camera may include a camera lens 114, an image sensor, an image signal processor (ISP), and other input/output interfaces.
  • the camera lens 114 determines the ratio of the size of the image to the size of the object to be photographed, ie, magnification, and the image sensor converts light entering through the lens into a digital signal, ie, determines resolution.
  • the ISP generates an image by combining the converted digital signals and determines the image format, and the input/output interface transmits the generated image to the outside and determines the transmission speed.
  • the quality of an image captured by a camera may require a resolution of 640x480 pixels or higher, and may require providing the image to the user terminal 120 with a frame rate of 30 pfs or higher. there is.
  • FIG. 4 is an example of a beam guide according to an embodiment.
  • the smart comb 110 may additionally have a light.
  • the smart comb when the light is mounted around the camera, there may be a problem of lack of brightness of the light irradiated due to the hair on the skin of the companion animal, so the smart comb is a beam guide ( Beam Guide) may be additionally included.
  • Beam Guide Beam Guide
  • the treatment module 125 may be, for example, a near-infrared treatment module.
  • the treatment module 125 may include a near-infrared LED device for skin treatment of companion animals, and uses a near-infrared LED light source to treat skin diseases, inflammation, wounds, skin regeneration, recovery from burns or post-surgical wounds, and relief of swelling/pain. can be done
  • the wavelength of the near-infrared LED light source may have a wavelength of 650 nm.
  • an operating time of 30 minutes or more may be required for the near-infrared LED.
  • the smart comb 110 may have a switch or adjust the output intensity of the near infrared ray LED by the user terminal 120 .
  • the controller 126 controls all operations and functions of the smart comb 110.
  • the controller 126 may support remote control of the user terminal 120, but the embodiment of the present invention is not limited thereto.
  • the controller 126 controls activation or deactivation of the camera and near-infrared LED.
  • the controller 126 adjusts the intensity of the near-infrared LED.
  • the comb teeth 113 may include a lamp 115 emitting near-infrared rays at one end of the comb teeth in contact with the skin of the companion animal.
  • the comb 113 may be composed of a plurality of comb teeth, and a lamp 115 may be included at one end of each of the plurality of comb teeth 113 .
  • the lamp 115 may be a near-infrared LED lamp.
  • the smart comb 110 may include an interface for controlling power and brightness of the lamp.
  • FIG. 5 is an exemplary diagram of a user terminal according to an embodiment.
  • the user terminal 120 uses a first artificial neural network trained to generate an image in which hair is removed from an image of the companion animal's skin, and obtains a hair removal image in which hair is removed from image data obtained by photographing the companion animal's skin. data can be generated.
  • the user terminal 120 may receive image data obtained by photographing the skin of a companion animal from the smart comb 110 .
  • the image data may include a skin image including hair of the companion animal.
  • the hair may cover the skin disease and the detection rate may decrease when examining a disease occurring on the skin. Therefore, it is most effective to remove the hair and examine the disease when examining skin diseases, but it may be objectionable from a cosmetic point of view. Therefore, it is necessary to apply a hair removal method through image processing without actual hair removal.
  • the first artificial neural network may be trained to generate an image from which hair is removed.
  • the first artificial neural network 121 may be trained using training data composed of hairless skin image data and hair synthesis image data in which a hair synthesis mask is combined with the hairless skin image data.
  • hairless skin image data may be combined with a hair synthesis mask to be converted into hair synthesis image data in which hair is synthesized.
  • the hair synthesis image data is input to the first artificial neural network 121 to be trained to remove the hair image, and the first artificial neural network 121 may generate a hair removal image in which the hair image is removed.
  • a loss function of the generated hair removal image may be calculated using the hairless skin image data used to generate the hair synthesis image data as the correct value, and the calculated loss function result is fed back to the first artificial neural network 121
  • the first artificial neural network 121 may be trained.
  • the first artificial neural network may be trained using training data composed of hairless skin image data and hair-containing image data.
  • the skin image data without hair and the image data including hair may be generated by photographing different objects.
  • the first artificial neural network 121 may receive image data including hair of the subject A to be photographed and generate hair removal image data in which the hair is removed. Thereafter, the hair removal image data is compared with the hairless image data of the subject B to determine which image data is the real hairless image data, and the first artificial neural network 121 can be trained based on the determination result.
  • the first artificial neural network 121 may be trained using an adversarial generative neural network method.
  • the image of the subject A may be an image obtained by capturing the skin of a hairy animal
  • the image of the subject B may be an image obtained by capturing the skin of a person with little hair.
  • the user terminal may generate skin disease prediction data of the companion animal from hair removal image data using the second artificial neural network learned to detect the skin disease of the companion animal.
  • the second artificial neural network 123 may receive hair removal image data from the first artificial neural network 121 and detect a skin disease of a target based on the received hair removal image data.
  • the second artificial neural network may output a diagnosis name of a skin disease and probability data corresponding to the disease.
  • the first artificial neural network 121 and the second artificial neural network 123 may be provided together or separately in the user terminal 120 or in the external server 130 communicating with the user terminal. there is.
  • both the first artificial neural network 121 and the second artificial neural network 123 may be included in the user terminal 120 and may operate.
  • the first artificial neural network 121 may be included in the user terminal 120, and the second artificial neural network 123 may be driven by an external server 130.
  • the user terminal 120 generates hair removal image data through the first artificial neural network 121 and transmits the corresponding data to the server 130, and the server 130 receives the hair removal image data and controls the hair removal image data. 2 After detecting a skin disease through the artificial neural network 123, the detected result may be transmitted to the user terminal.
  • both the first artificial neural network 121 and the second artificial neural network 123 may be installed and run in a server.
  • the user terminal 120 transmits the image data to the server 130, and the server 130 transmits skin disease prediction data detected through the first artificial neural network 121 and the second artificial neural network 123 to the user. It can be transmitted to the terminal 120.
  • the user terminal communicates with an external server including veterinary hospital data classified by location and medical specialty, and recommends a veterinary hospital based on at least one of skin disease prediction data and current location information of a companion animal. is searched, and information on the searched recommended animal hospital can be output through the interface.
  • an external server including veterinary hospital data classified by location and medical specialty
  • the server 130 may know information about the location of animal hospitals and specialized treatment fields for each animal hospital, and may include a database in which animal hospitals are classified based on the corresponding information.
  • the user terminal 120 can know the user's location information and can know the diagnosis of the companion animal by analyzing the image data. Thereafter, the user terminal 120 may search the database of the server 130 according to the user's request to obtain information about a veterinary hospital close to the user's location, and output the obtained information through an interface.
  • the user terminal may search the database of the server 130 according to the user's request to find a veterinary hospital that specializes in treating a disease corresponding to the diagnosis, and provide the search results to the user.
  • FIG. 7 is a flowchart illustrating a method for diagnosing companion animal skin according to an embodiment.
  • a smart comb equipped with a camera may generate image data photographing the skin of a companion animal (610).
  • the smart comb may include a main body including an upper body for holding the smart comb by a user and a lower body having comb teeth for combing companion animal hair.
  • the smart comb may include a camera, a battery, and a communication module for communicating with a user terminal inside the main body.
  • a camera may be provided inside the body, and a lens of the camera may be installed to photograph the skin of a companion animal through a part of the lower body.
  • the user terminal may receive image data from the smart comb and output the received image data and skin diagnosis data analyzed based on the image data (620).
  • the user terminal may generate hair removal image data from which hair is removed by using an artificial neural network trained to generate an image in which hair is removed from a skin image of a companion animal, and learn to detect a skin disease of the companion animal. It is possible to generate skin disease prediction data of a companion animal from hair removal image data using an artificial neural network.
  • An aspect of the present invention may be implemented as computer readable code on a computer readable recording medium. Codes and code segments implementing the above program can be easily inferred by a computer programmer in the art.
  • a computer-readable recording medium may include all types of recording devices storing data that can be read by a computer system. Examples of computer-readable recording media may include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, and the like.
  • the computer-readable recording medium may be distributed among computer systems connected through a network, and may be written and executed as computer-readable codes in a distributed manner.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Animal Behavior & Ethology (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Zoology (AREA)
  • Animal Husbandry (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

반려동물의 피부를 촬영한 영상 데이터에서 털을 제거하는 전처리과정을 통하여 피부 질환을 진단하는 반려동물 피부 진단 시스템 및 그 동작 방법이 개시된다. 일 실시예에 따른 반려동물 피부 진단 시스템은 카메라를 구비하고 있으며, 카메라를 통해 반려동물의 피부를 촬영하여 영상 데이터를 생성하는 스마트 빗; 및 스마트 빗으로부터 영상 데이터를 수신하며, 인터페이스를 통하여 수신된 영상 데이터 및 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 사용자 단말을 포함할 수 있다.

Description

반려동물 피부 진단 시스템 및 그 동작 방법
스마트 빗을 이용하여 반려동물의 피부 질환을 진단하기 위한 반려동물 피부 진단 시스템 및 그 동작 방법에 관한 것이다.
최근 스마트 기기를 이용한 자가 진단에 대한 기술이 활발히 연구되고 있으며, 나아가, 사람이 아닌 반려동물을 관리하기 위한 다양한 장치들이 개발되고 있다. 일 예로, 대한민국 공개특허 제10-2019-0118358호의 경우, 복수의 촬영 유닛을 이용하여 사람의 피부를 촬영하고, 촬영된 이미지로부터 병변을 진단하기 위한 영상 가공 방법에 대하여 개시하고 있다.
반면, 반려동물의 경우 사람과 달리 피부의 대부분에 털이 나 있어 피부 질환의 판단에 어려움이 있다. 이에 따라, 영상 이미지에서 털을 제거하는 전처리 과정이 필수적으로 필요하다.
스마트 빗을 이용하여 반려동물의 피부를 촬영한 영상 데이터에서 털을 제거하는 전처리과정을 통해 피부 질환을 진단하는 반려동물 피부 진단 시스템 및 그 동작 방법을 제공하는데 목적이 있다.
일 양상에 따르면, 반려동물 피부 진단 시스템은 카메라를 구비하고 있으며, 카메라를 통해 반려동물의 피부를 촬영하여 영상 데이터를 생성하는 스마트 빗; 및 스마트 빗으로부터 영상 데이터를 수신하며, 인터페이스를 통하여 수신된 영상 데이터 및 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 사용자 단말을 포함할 수 있다.
스마트 빗은 사용자가 스마트 빗을 파지하기 위한 상부 본체 및 반려동물의 털을 빗기 위한 빗살을 구비하는 하부 본체로 구성되는 본체를 포함하며, 카메라는 본체의 내부에 구비되며, 카메라의 렌즈는 하부 본체의 일부를 관통하여 반려동물의 피부를 촬영하도록 설치될 수 있다.
빗살은 반려동물의 피부와 닿는 빗살의 일단에 근적외선을 발광하는 램프를 포함할 수 있다.
사용자 단말은 반려동물의 피부 영상에서 털이 제거된 영상을 생성하도록 학습된 제 1 인공 신경망을 이용하여 반려동물의 피부를 촬영한 영상 데이터로부터 털이 제거된 털 제거 영상 데이터를 생성할 수 있다.
사용자 단말은 반려동물의 피부 질환을 검출하도록 학습된 제 2 인공 신경망을 이용하여 털 제거 영상 데이터로부터 반려동물의 피부 질환 예측 데이터를 생성할 수 있다.
제 1 인공 신경망 및 제 2 인공 신경망은 사용자 단말 내 또는 사용자 단말과 통신을 수행하는 외부 서버에 함께 또는 별도로 분리되어 구비될 수 있다.
사용자 단말은 위치 및 진료 전문 분야로 분류된 동물병원 데이터를 포함하는 외부 서버와 통신을 수행하여 반려동물의 피부 질환 예측 데이터 및 현재 위치 정보 중 적어도 하나에 기초하여 추천 동물병원을 검색하며, 검색된 추천 동물병원에 대한 정보를 인터페이스를 통하여 출력할 수 있다.
제 1 인공 신경망은 털이 없는 피부 영상 데이터 및 털이 없는 피부 영상 데이터에 털 합성 마스크가 결합된 털 합성 영상 데이터로 구성된 학습 데이터를 이용하여 학습될 수 있다.
제 1 인공 신경망은 털이 없는 피부 영상 데이터 및 털이 포함된 영상 데이터로 구성된 학습 데이터를 이용하여 학습되며, 털이 없는 피부 영상 데이터 및 털이 포함된 영상 데이터는 서로 다른 대상을 촬영하여 생성될 수 있다.
일 양상에 따르면, 반려동물 피부 진단 방법은 카메라를 구비하고 있는 스마트 빗이 반려동물의 피부를 촬영한 영상 데이터를 생성하는 단계; 및 사용자 단말이 스마트 빗으로부터 영상 데이터를 수신하여 수신된 영상 데이터 및 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 단계를 포함할 수 있다.
일 양상에 따르면, 반려동물 피부 진단을 위한 스마트 빗은, 반려동물의 피부를 촬영하는 카메라와 촬영된 영상을 디지털 변환하는 영상처리부를 포함하는 영상 획득 모듈과 상기 촬영된 반려동물의 피부영상을 사용자 단말에 송신하고, 상기 사용자 단말로부터 상기 반려동물의 피부에 대한 진단 데이터를 수신하는 통신 모듈과 상기 반려동물에 빗질을 하는 동안 상기 스마트 빗의 빗살을 통해 상기 반여동물의 피부에 근적외선 LED 광원을 조사하는 치료 모듈 및 상기 반려동물의 피부에 대한 진단 데이터를 기초로 상기 사용자 단말로부터 생성된 제어 신호를 수신함에 따라, 상기 치료 모듈을 제어하는 제어부를 포함할 수 있다.
스마트 빗을 이용하여 손쉽게 반려동물의 피부를 촬영할 수 있으며, 사용자 단말을 통해 반려동물의 피부 질환을 진단하여 초기에 치료를 도울 수 있다.
도 1은 일 실시예에 따른 반려동물 피부 진단 시스템의 구성도이다.
도 2는 일 실시예에 따른 스마트 빗의 예시도이다.
도 3은 일 실시예에 따른 스마트 빗의 구성도이다.
도 4는 일 실시예에 따른 빔가이드의 예시이다.
도 5는 일 실시예에 따른 사용자 단말의 예시도이다.
도 6는 일 예에 따른 인공 신경망 학습 방법을 설명하기 위한 예시도이다.
도 7은 일 실시예에 따른 반려동물 피부 진단 방법을 도시한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 반려동물 피부 진단 시스템 및 방법의 실시예들을 도면들을 참고하여 자세히 설명한다.
도 1은 일 실시예에 따른 반려동물 피부 진단 시스템의 구성도이다.
일 실시예에 따르면, 반려동물 피부 진단 시스템(100)은 카메라를 구비하고 있으며, 카메라를 통해 반려동물의 피부를 촬영하여 영상 데이터를 생성하는 스마트 빗(110) 및 스마트 빗(110)으로부터 영상 데이터를 수신하며, 인터페이스를 통하여 수신된 영상 데이터 및 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 사용자 단말(120)을 포함할 수 있다.
일 예에 따르면, 사용자 단말(120)은 외부의 서버(130)와 통신을 수행할 수 있으며, 아래에서 설명하는 사용자 단말(120)의 실시예들 중 일부는 서버(130)에서 수행될 수 있다.
도 2는 일 실시예에 따른 스마트 빗의 예시도이고, 도 3은 일 실시예에 따른 스마트 빗의 구성도이다.
도 2를 참조하면, 스마트 빗(110)은 사용자가 스마트 빗을 파지하기 위한 상부 본체(111) 및 반려동물의 털을 빗기 위한 빗살(113)을 구비하는 하부 본체(112)로 구성되는 본체를 포함할 수 있다.
이하, 일 실시예에 따르면,'모듈'은, 본 발명이 속한 기술분야에서 널리 알려진 하드웨어 장치일 수 있다. 다른 실시예에 따르면, 이하, '모듈'은 본 발명의 실시예에 따른 하나의 기능을 수행하는 단위로서, 상기 하드웨어 장치 및 이와 결합된 소프트웨어를 의미할 수 있다. 예를 들어, 통신 모듈은, 본 발명의 실시예에 따른 통신 기능을 수행하기 위한 하드웨어 장치 및 이를 운영 또는 제어하기 위한 소프트웨어의 결합일 수 있다.
도 3을 참조하면, 스마트 빗(110)은 본체 내부에, 통신 모듈(121) 및 영상 획득 모듈(124), 치료 모듈(125) 및 제어부(126)를 포함할 수 있다. 도 3에 도시되지 않았으나, 스마트 빗(110)은 배터리 및 전원 공급 모듈을 포함할 수도 있다.
통신 모듈(121)은, 스마트 빗(110)과 사용자 단말(120) 및/또는 외부의 서버(130) 사이의 Wifi 기반 무선 연결, 이동 통신 또는 유선 연결을 제공할 수 있다. 스마트 빗과 모바일 앱, 즉 사용자 단말(120) 및/또는 외부의 서버(130) 사이의 통신과 데이터 전송 기능을 담당한다.
영상 획득 모듈(124)은, 영상처리부와 카메라를 포함할 수 있으며, 예를 들어, 카메라는, 반려동물 피부 촬영에 최적화된 고배율 카메라일 수 있다. 예를 들어, 반려동물의 피부 질환을 자세히 관찰하기 위하여, 20배 이상의 배율을 가질 수 있다.
영상처리부는, 카메라로부터 촬영된 데이터를 디지털 포맷으로 변환할 수 있다.
카메라는 본체의 내부에 구비되며, 카메라의 렌즈(114)는 하부 본체(112)의 일부를 관통하여 반려동물의 피부를 촬영하도록 설치될 수 있다.
카메라는 카메라 렌즈(114), 이미지 센서, ISP(Image Signal Processor), 그 밖의 입출력 인터페이스를 포함할 수 있다. 카메라 렌즈(114)는 촬영대상의 크기에 대한 상의 크기 비율, 즉, 배율을 결정하고, 이미지 센서는 렌즈를 통해 들어온 빛을 디지털 신호로 변환, 즉, 해상도를 결정한다. 또한, ISP는 변환된 디지털 신호를 결합하여 영상을 생성하고 이미지 포맷을 결정하고, 입출력 인터페이스는 생성된 영상을 외부로 전송하고 전송속도를 결정한다.
본 발명의 실시예에 따르면, 예를 들어, 카메라에 의해 촬영된 영상 품질은, 해상도는 640x480 픽셀 이상이 요구될 수 있으며, 30 pfs 이상의 프레임수로 사용자 단말(120)에 영상 제공이 요구될 수 있다.
도 4는 일 실시예에 따른 빔가이드의 예시이다.
반려동물의 피부에 조명이 없을 경우, 피부와 카메라 간의 거리가 가깝기 때문에 충분한 조도를 확보하지 못하는 상황이 발생할 방지하기 위해, 스마트 빗(110)은 조명을 추가로 구비할 수 있다.
일 실시예에 따르면, 조명이 카메라 주변에 장착이 될 경우, 반려동물 피부 위의 털로 인하여 조사하는 조명의 밝기가 부족한 문제가 발생할 수 있어, 스마트 빗은 피부에 조명이 직접 조사될 수 있도록 빔가이드(Beam Guide)를 추가로 포함할 수도 있다.
다시 도 2 및 도 3을 참조하면, 치료 모듈(125)은 일 예로, 근적외선 치료 모듈일 수 있다. 치료 모듈(125)은 반려동물 피부 치료를 위한 근적외선 LED 장치를 포함할 수 있으며, 근적외선 LED 광원을 이용하여 피부질환, 염증, 상처 치료, 피부 재생, 화상 또는 수술 후 상처회복, 부종/통증 완화를 수행할 수 있다.
근적외선 LED 광원의 파장에 따라 피부 투과의 깊이가 결정되고 치료 효능도 달라질 수 있으며, 본 발명의 일 실시예에 따르면, 근적외선 LED 광원의 파장은 650nm 파장을 가질 수 있다. 일 실시예에서, 치료 모듈(125)의 최대 연속 사용 시간으로 근적외선 LED가 30분 이상 동작 시간이 요구될 수 있다.
스마트 빗(110)은 스위치를 구비하거나, 사용자 단말(120)에 의해 근적외선 LED 출력 강도를 조절할 수 있다.
제어부(126)는 스마트 빗(110)의 모든 동작 및 기능을 제어한다. 일 예로, 제어부(126)는 사용자 단말(120)의 원격제어를 지원할 수 있으나, 본 발명의 실시예는 이에 한정되지 않는다.
제어부(126)는, 카메라 및 근적외선 LED의 활성화 또는 비활성화를 제어한다.
제어부(126)는, 근적외선 LED의 강도를 조절한다.
일 실시예에 따르면, 빗살(113)은 반려동물의 피부와 닿는 빗살의 일단에 근적외선을 발광하는 램프(115)를 포함할 수 있다. 예를 들어, 빗살(113)은 복수개의 빗살로 구성될 수 있으며, 복수개의 빗살(113) 각각의 일단에 램프(115)가 포함될 수 있다. 일 예로, 램프(115)는 근적외선 LED 램프일 수 있다. 일 예로, 스마트 빗(110)은 램프의 전원을 제어 및 램프의 밝기를 제어하기 위한 인터페이스를 포함할 수 있다.
도 5는 일 실시예에 따른 사용자 단말의 예시도이다.
일 실시예에 따르면, 사용자 단말(120)은 반려동물의 피부 영상에서 털이 제거된 영상을 생성하도록 학습된 제 1 인공 신경망을 이용하여 반려동물의 피부를 촬영한 영상 데이터로부터 털이 제거된 털 제거 영상 데이터를 생성할 수 있다.
도 5를 참조하면, 사용자 단말(120)은 스마트 빗(110)으로부터 반려동물의 피부를 촬영한 영상 데이터를 수신할 수 있다. 이때, 영상 데이터는 반려동물의 털을 포함하는 피부 이미지를 포함할 수 있다. 그러나, 피부에 털이 나 있는 경우, 피부에 발생한 질환을 검사 시 털이 피부 질환을 가려 검출율이 떨어질 수 있다. 따라서, 피부 질환 검사 시 털을 제거하고 질환을 검사하는 것이 가장 효과적이나 미용적인 측면에서 거부감이 들 수 있다. 따라서, 실재 털 제거 없이 이미지 처리를 통한 털 제거 방식의 적용이 필요하다.
제 1 인공 신경망은 털이 제거된 영상을 생성하도록 학습될 수 있다.
일 실시예에 따르면, 제 1 인공 신경망(121)은 털이 없는 피부 영상 데이터 및 털이 없는 피부 영상 데이터에 털 합성 마스크가 결합된 털 합성 영상 데이터로 구성된 학습 데이터를 이용하여 학습될 수 있다.
도 6를 참조하면, 털이 없는 피부 영상 데이터는 털 합성 마스크와 결합하여 털이 합성된 털 합성 영상 데이터로 변환될 수 있다. 털 합성 영상 데이터는 털 이미지를 제거하도록 학습될 제 1 인공 신경망(121)에 입력되며, 제 1 인공 신경망(121)은 털 이미지가 제거된 털 제거 영상을 생성할 수 있다. 이후, 털 합성 영상 데이터의 생성에 사용된 털이 없는 피부 영상 데이터를 정답값으로 하여 생성된 털 제거 영상의 손실 함수를 계산할 수 있으며, 계산된 손실 함수 결과는 제 1 인공 신경망(121)으로 피드백되어 제 1 인공 신경망(121)을 학습시킬 수 있다.
일 실시예에 따르면, 제 1 인공 신경망은 털이 없는 피부 영상 데이터 및 털이 포함된 영상 데이터로 구성된 학습 데이터를 이용하여 학습될 수 있다. 이때, 털이 없는 피부 영상 데이터 및 털이 포함된 영상 데이터는 서로 다른 대상을 촬영하여 생성된 것일 수 있다.
일 예로, 제 1 인공 신경망(121)은 촬영 대상 A에 대한 털이 포함된 영상 데이터를 입력 받아 털이 제거된 털 제거 영상 데이터를 생성할 수 있다. 이후, 털 제거 영상 데이터는 촬영 대상 B에 대한 털이 없는 영상 데이터와 비교하여 어떤 영상 데이터가 진짜 털이 없는 영상 데이터인지 판단하며, 판단 결과에 기초하여 제 1 인공 신경망(121)을 학습시킬 수 있다. 다시 말해, 제 1 인공 신경망(121)은 적대적 생성 신경망 방식을 이용하여 학습될 수 있다. 예를 들어, 촬영 대상 A의 이미지는 털이 많은 동물의 피부를 촬영한 영상일 수 있으며, 촬영 대상 B의 이미지는 털이 적은 사람의 피부를 촬영한 영상일 수 있다.
일 실시예에 따르면, 사용자 단말은 반려동물의 피부 질환을 검출하도록 학습된 제 2 인공 신경망을 이용하여 털 제거 영상 데이터로부터 반려동물의 피부 질환 예측 데이터를 생성할 수 있다.
도 5를 참조하면, 제 2 인공 신경망(123)은 제 1 인공 신경망(121)으로부터 털 제거 영상 데이터를 입력 받을 수 있으며, 입력 받은 털 제거 영상 데이터에 기초하여 대상의 피부 질환을 검출할 수 있다. 예를 들어, 제 2 인공 신경망은 피부 질환의 진단명과 해당 질환에 해당할 확률 데이터를 출력할 수 있다.
일 실시예에 따르면, 제 1 인공 신경망(121) 및 제 2 인공 신경망(123)은 사용자 단말(120) 내 또는 사용자 단말과 통신을 수행하는 외부 서버(130)에 함께 또는 별도로 분리되어 구비될 수 있다.
예를 들어, 제 1 인공 신경망(121) 및 제 2 인공 신경망(123)은 모두 사용자 단말(120)에 포함되어 동작할 수 있다.
다른 예로, 제 1 인공 신경망(121)은 사용자 단말(120)에 포함되며, 제 2 인공 신경망(123)은 외부의 서버(130)에서 구동될 수 있다. 이러한 경우, 사용자 단말(120)은 제 1 인공 신경망(121)을 통해 털 제거 영상 데이터를 생성한 후 해당 데이터를 서버(130)로 전송하며, 서버(130)는 털 제거 영상 데이터를 입력 받아 제 2 인공 신경망(123)을 통해 피부 질환을 검출한 후 검출된 결과를 사용자 단말로 전송해줄 수 있다.
또 다른 예로, 제 1 인공 신경망(121) 및 제 2 인공 신경망(123)은 모두 서버에 설치되어 구동할 수 있다. 이러한 경우, 사용자 단말(120)은 영상 데이터를 서버(130)로 전송하며, 서버(130)는 제 1 인공 신경망(121)과 제 2 인공 신경망(123)을 통해 검출한 피부 질환 예측 데이터를 사용자 단말(120)로 전송할 수 있다.
일 실시예에 따르면, 사용자 단말은 위치 및 진료 전문 분야로 분류된 동물병원 데이터를 포함하는 외부 서버와 통신을 수행하여 반려동물의 피부 질환 예측 데이터 및 현재 위치 정보 중 적어도 하나에 기초하여 추천 동물병원을 검색하며, 검색된 추천 동물병원에 대한 정보를 인터페이스를 통하여 출력할 수 있다.
일 예에 따르면, 서버(130)는 동물병원의 위치 및 동물병원 별 전문 치료 분야에 대한 정보를 알 수 있으며, 해당 정보를 기초로 동물 병원을 분류한 데이터 베이스를 포함할 수 있다. 사용자 단말(120)은 사용자의 위치 정보를 알 수 있으며, 영상 데이터를 분석하여 반려동물의 진단명을 알 수 있다. 이후, 사용자 단말(120)은 사용자의 요청에 따라 서버(130)의 데이터 베이스를 검색하여 사용자의 위치와 가까운 동물병원 정보를 획득할 수 있으며, 획득된 정보를 인터페이스를 통하여 출력할 수 있다. 다른 예로, 사용자 단말은 사용자의 요청에 따라 서버(130)의 데이터 베이스를 검색하여 진단명에 해당하는 질환을 전문적으로 치료하는 동물병원을 검색하여 사용자에게 제공할 수 있다.
도 7은 일 실시예에 따른 반려동물 피부 진단 방법을 도시한 흐름도이다.
일 실시예에 따르면, 카메라를 구비하고 있는 스마트 빗은 반려동물의 피부를 촬영한 영상 데이터를 생성할 수 있다(610). 일 예에 따르면, 스마트 빗은 사용자가 스마트 빗을 파지하기 위한 상부 본체 및 반려동물의 털을 빗기 위한 빗살을 구비하는 하부 본체로 구성되는 본체를 포함할 수 있다. 또한, 스마트 빗은 본체 내부에 카메라, 배터리 및 사용자 단말과 통신을 수행하기 위한 통신 모듈을 포함할 수 있다. 일 예로, 카메라는 본체의 내부에 구비되며, 카메라의 렌즈는 하부 본체의 일부를 관통하여 반려동물의 피부를 촬영하도록 설치될 수 있다.
일 실시예에 따르면, 사용자 단말은 스마트 빗으로부터 영상 데이터를 수신하여 수신된 영상 데이터 및 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력할 수 있다(620). 일 예에 따르면, 사용자 단말은 반려동물의 피부 영상에서 털이 제거된 영상을 생성하도록 학습된 인공 신경망을 이용하여 털이 제거된 털 제거 영상 데이터를 생성할 수 있으며, 반려동물의 피부 질환을 검출하도록 학습된 인공 신경망을 이용하여 털 제거 영상 데이터로부터 반려동물의 피부 질환 예측 데이터를 생성할 수 있다.
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함할 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 작성되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (11)

  1. 카메라를 구비하고 있으며, 카메라를 통해 반려동물의 피부를 촬영하여 영상 데이터를 생성하는 스마트 빗; 및
    상기 스마트 빗으로부터 영상 데이터를 수신하며, 인터페이스를 통하여 수신된 영상 데이터 및 상기 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 사용자 단말을 포함하는, 반려동물 피부 진단 시스템.
  2. 제 1 항에 있어서,
    상기 스마트 빗은
    사용자가 스마트 빗을 파지하기 위한 상부 본체 및 반려동물의 털을 빗기 위한 빗살을 구비하는 하부 본체로 구성되는 본체를 포함하며,
    상기 카메라는
    상기 본체의 내부에 구비되며, 카메라의 렌즈는 상기 하부 본체의 일부를 관통하여 반려동물의 피부를 촬영하도록 설치된, 반려동물 피부 진단 시스템.
  3. 제 2 항에 있어서,
    상기 빗살은
    반려동물의 피부와 닿는 빗살의 일단에 근적외선을 발광하는 램프를 포함하는, 반려동물 피부 진단 시스템.
  4. 제 1 항에 있어서,
    상기 사용자 단말은
    반려동물의 피부 영상에서 털이 제거된 영상을 생성하도록 학습된 제 1 인공 신경망을 이용하여 상기 반려동물의 피부를 촬영한 영상 데이터로부터 털이 제거된 털 제거 영상 데이터를 생성하는, 반려동물 피부 진단 시스템.
  5. 제 4 항에 있어서,
    상기 사용자 단말은
    반려동물의 피부 질환을 검출하도록 학습된 제 2 인공 신경망을 이용하여 상기 털 제거 영상 데이터로부터 반려동물의 피부 질환 예측 데이터를 생성하는, 반려동물 피부 진단 시스템.
  6. 제 5 항에 있어서,
    상기 제 1 인공 신경망 및 상기 제 2 인공 신경망은
    상기 사용자 단말 내 또는 상기 사용자 단말과 통신을 수행하는 외부 서버에 함께 또는 별도로 분리되어 구비되는, 반려동물 피부 진단 시스템.
  7. 제 5 항에 있어서,
    상기 사용자 단말은
    위치 및 진료 전문 분야로 분류된 동물병원 데이터를 포함하는 외부 서버와 통신을 수행하여 상기 반려동물의 피부 질환 예측 데이터 및 현재 위치 정보 중 적어도 하나에 기초하여 추천 동물병원을 검색하며, 검색된 추천 동물병원에 대한 정보를 인터페이스를 통하여 출력하는, 반려동물 피부 진단 시스템.
  8. 제 4 항에 있어서,
    상기 제 1 인공 신경망은
    털이 없는 피부 영상 데이터 및 상기 털이 없는 피부 영상 데이터에 털 합성 마스크가 결합된 털 합성 영상 데이터로 구성된 학습 데이터를 이용하여 학습된, 반려동물 피부 진단 시스템.
  9. 제 4 항에 있어서,
    상기 제 1 인공 신경망은
    털이 없는 피부 영상 데이터 및 털이 포함된 영상 데이터로 구성된 학습 데이터를 이용하여 학습되며,
    상기 털이 없는 피부 영상 데이터 및 상기 털이 포함된 영상 데이터는 서로 다른 대상을 촬영하여 생성된, 반려동물 피부 진단 시스템.
  10. 카메라를 구비하고 있는 스마트 빗이 반려동물의 피부를 촬영한 영상 데이터를 생성하는 단계; 및
    사용자 단말이 상기 스마트 빗으로부터 영상 데이터를 수신하여 수신된 영상 데이터 및 상기 영상 데이터에 기초하여 분석된 피부 진단 데이터를 출력하는 단계를 포함하는, 반려동물 피부 진단 방법.
  11. 반려동물 피부 진단을 위한 스마트 빗으로서,
    반려동물의 피부를 촬영하는 카메라와 촬영된 영상을 디지털 변환하는 영상처리부를 포함하는 영상 획득 모듈;
    상기 촬영된 반려동물의 피부영상을 사용자 단말에 송신하고, 상기 사용자 단말로부터 상기 반려동물의 피부에 대한 진단 데이터를 수신하는 통신 모듈;
    상기 반려동물에 빗질을 하는 동안 상기 스마트 빗의 빗살을 통해 상기 반여동물의 피부에 근적외선 LED 광원을 조사하는 치료 모듈; 및
    상기 반려동물의 피부에 대한 진단 데이터를 기초로 상기 사용자 단말로부터 생성된 제어 신호를 수신함에 따라, 상기 치료 모듈을 제어하는 제어부를 포함하는,
    스마트 빗.
PCT/KR2022/004668 2022-02-23 2022-03-31 반려동물 피부 진단 시스템 및 그 동작 방법 WO2023163274A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220023524 2022-02-23
KR10-2022-0023524 2022-02-23
KR1020220040846A KR20230127099A (ko) 2022-02-23 2022-03-31 반려동물 피부 진단 시스템 및 그 동작 방법
KR10-2022-0040846 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023163274A1 true WO2023163274A1 (ko) 2023-08-31

Family

ID=87766092

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/004668 WO2023163274A1 (ko) 2022-02-23 2022-03-31 반려동물 피부 진단 시스템 및 그 동작 방법

Country Status (1)

Country Link
WO (1) WO2023163274A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101082A (ja) * 2007-10-25 2009-05-14 Panasonic Electric Works Co Ltd ペット用皮膚性状評価装置
JP2015505051A (ja) * 2011-12-21 2015-02-16 シャハーフ,キャサリン,エム. 組織表面を整列させる病変を撮像するためのシステム
KR101974215B1 (ko) * 2019-01-18 2019-04-30 정은경 반려견 토탈 서비스 제공 시스템
KR20210047403A (ko) * 2019-10-21 2021-04-30 주식회사 케이페이스 애완동물용 led 브러쉬 시스템
KR20210108686A (ko) * 2020-02-26 2021-09-03 송민구 영상 인공지능 기반 반려동물 질병 예후 진단 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101082A (ja) * 2007-10-25 2009-05-14 Panasonic Electric Works Co Ltd ペット用皮膚性状評価装置
JP2015505051A (ja) * 2011-12-21 2015-02-16 シャハーフ,キャサリン,エム. 組織表面を整列させる病変を撮像するためのシステム
KR101974215B1 (ko) * 2019-01-18 2019-04-30 정은경 반려견 토탈 서비스 제공 시스템
KR20210047403A (ko) * 2019-10-21 2021-04-30 주식회사 케이페이스 애완동물용 led 브러쉬 시스템
KR20210108686A (ko) * 2020-02-26 2021-09-03 송민구 영상 인공지능 기반 반려동물 질병 예후 진단 방법

Similar Documents

Publication Publication Date Title
US8078667B2 (en) Method and system for data transfer, auxiliary server and examination device
US20100152534A1 (en) Capsule endoscopy system, medical system, and operation method of medical system
WO2012176960A1 (ko) 홍채 전안부 촬영장치 및 스마트폰을 이용한 의료용 화상시스템
WO2017022986A1 (ko) 개인용 건강 정보를 취득하기 위한 장치 및 그 방법
CN106488738A (zh) 眼底成像系统
WO2011162548A2 (ko) 홍채 진단을 통한 건강 관리 시스템 및 방법
WO2021080069A1 (ko) 광을 이용한 마스크형 피부 미용 장치 및 그 제어 방법
CN103841175A (zh) 一种图像特征信息传输方法、装置及系统
WO2023163274A1 (ko) 반려동물 피부 진단 시스템 및 그 동작 방법
WO2021201582A1 (ko) 피부 병변의 원인 분석 방법 및 장치
WO2017175970A1 (ko) Uwb 펄스 레이더 기반 이동식 의료영상 전송장치
Jang et al. Development of the digital tongue inspection system with image analysis
CN207755384U (zh) 可分光式外科显微镜及其手术显微系统、可远程指导和教学系统
WO2018043799A1 (ko) 다기능을 갖는 건강 정보를 취득하기 위한 디바이스
WO2023121051A1 (ko) 환자 정보 제공 방법, 환자 정보 제공 장치, 및 컴퓨터 판독 가능한 기록 매체
KR20230127099A (ko) 반려동물 피부 진단 시스템 및 그 동작 방법
CN110772210A (zh) 一种诊断交互系统及方法
KR20220063705A (ko) 휴대용 의료 진단 장치 및 이를 이용한 질병 진단 방법
KR102418399B1 (ko) 인공지능 기반 치매 조기 진단 플랫폼
WO2021225370A1 (ko) 당뇨병성 합병증 모니터링 장치 및 이를 이용하는 당뇨병성 합병증 관리 시스템
WO2017150836A1 (ko) 실시간 후두스트로보스코피, 고속 후두내시경 검사, 및 평면 스캔 디지털 카이모그래피를 위한 영상 생성 시스템 및 방법
WO2022092380A1 (ko) 소독 스테이션을 구비하는 원격 진단 시스템
CN111325139B (zh) 一种唇语识别方法及装置
WO2023234758A1 (ko) 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2023054836A1 (ko) 패턴화된 광자극 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929026

Country of ref document: EP

Kind code of ref document: A1