KR102386497B1 - Apparatus and method for detecting personal identification information for surgical video de-identification - Google Patents

Apparatus and method for detecting personal identification information for surgical video de-identification Download PDF

Info

Publication number
KR102386497B1
KR102386497B1 KR1020190174761A KR20190174761A KR102386497B1 KR 102386497 B1 KR102386497 B1 KR 102386497B1 KR 1020190174761 A KR1020190174761 A KR 1020190174761A KR 20190174761 A KR20190174761 A KR 20190174761A KR 102386497 B1 KR102386497 B1 KR 102386497B1
Authority
KR
South Korea
Prior art keywords
scene
frame
personal identification
video
detecting
Prior art date
Application number
KR1020190174761A
Other languages
Korean (ko)
Other versions
KR20210082630A (en
Inventor
김덕석
안기옥
조영탁
Original Assignee
주식회사 엠티이지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠티이지 filed Critical 주식회사 엠티이지
Priority to KR1020190174761A priority Critical patent/KR102386497B1/en
Publication of KR20210082630A publication Critical patent/KR20210082630A/en
Application granted granted Critical
Publication of KR102386497B1 publication Critical patent/KR102386497B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Bioethics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Endoscopes (AREA)

Abstract

수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은, 입력된 수술 동영상의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출하는 단계 및 상기 객체가 검출되면, 상기 객체가 검출된 프레임의 프레임 번호 및 상기 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성하는 단계를 포함할 수 있다.Disclosed is an apparatus and method for detecting personal identification information for de-identification of a surgical video, and the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application, for each frame of an input surgery video detecting an object including text and a person corresponding to a personal identification information candidate requiring de-identification, and when the object is detected, an index including a frame number of a frame in which the object is detected and a time code associated with the frame It may include generating information.

Figure 112019133940149-pat00001
Figure 112019133940149-pat00001

Description

수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법{APPARATUS AND METHOD FOR DETECTING PERSONAL IDENTIFICATION INFORMATION FOR SURGICAL VIDEO DE-IDENTIFICATION}Device and method for detecting personally identifiable information for de-identification of surgical video

본원은 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for detecting personal identification information for de-identification of a surgical video.

의료정보기술은 최근 빅 데이터 및 인공지능 기술과 접목하여 비약적으로 발전하고 있으며, 이에 따라 기존의 텍스트 기반의 의무 기록과 같은 정형 데이터뿐만 아니라 MRI, X-Ray 등 정지영상 외에도 내시경/복강경 등의 장비에 의해 촬영 및 저장된 비디오와 같은 비정형 데이터의 생산과 활용이 증가하고 있다.Medical information technology is developing rapidly by combining with big data and artificial intelligence technology in recent years. The production and utilization of unstructured data such as videos shot and stored by

이러한 외과적 수술 과정 등을 비디오로 기록하는 사례가 증가하면서, 최근에는 수술 과정을 기록한 비디오의 풍부한 임상정보 보유 특성으로 인하여 비디오와 같은 비정형 데이터가 의료정보기술의 새로운 서비스 창출 및 연구개발을 위한 중요한 데이터로서 그 가치를 새롭게 평가 받고 있다.As the number of cases of video recording of such surgical procedures is increasing, recently, due to the abundant clinical information of video recording surgical procedures, unstructured data such as video is important for new service creation and R&D of medical information technology. Its value as data is being evaluated anew.

한편, 보건의료분야는 행정, 안전, 금융 등 다른 분야와 마찬가지로 개인정보의 취급과 보호가 매우 중요하다. 의과학연구에서의 개인정보와 비식별화에 대한 기준은 개인정보관련 생명윤리법과 IRB 운영지침, 개인정보 비식별 조치 가이드라인 등을 참고할 수 있다. 그러나 이러한 가이드라인에서 제시하는 익명성 방법의 경우 영상 장비마다 형식이 달라 일괄적으로 적용하기 어렵다는 한계가 있다.On the other hand, in the health and medical field, the handling and protection of personal information is very important as in other fields such as administration, safety, and finance. For the standards for personal information and de-identification in medical science research, you can refer to the Personal Information-related Bioethics Act, IRB Operation Guidelines, and Personal Information De-identification Measures Guidelines. However, in the case of the anonymity method suggested in these guidelines, there is a limitation in that it is difficult to apply it collectively because the format is different for each video equipment.

따라서, 비디오를 데이터로 이용하기 위하여, 비디오 내 각 프레임에 포함된 수집 대상 정보(개인식별정보)를 검출하고, 이를 인덱싱한 후 적절한 비식별화 처리 방법과 연동하는 방안의 필요성이 점차 높아지고 있다.Therefore, in order to use video as data, there is a growing need for a method of detecting collection target information (personal identification information) included in each frame of a video, indexing it, and interworking with an appropriate de-identification processing method.

그러나, 종래에는 비디오의 전체 프레임을 검사하여 개인식별정보를 선별하는 일련의 과정을 육안 검사 및 수작업에 의존하고 있어 외과적 수술 과정 등에서 생산된 풍부한 임상정보를 수록한 비디오 데이터를 적극적으로 활용하기 어려웠다.However, in the past, it was difficult to actively utilize video data containing abundant clinical information produced during surgical procedures, etc. because the series of processes of screening the entire video frame and selecting personally identifiable information depended on visual inspection and manual operation. .

이와 관련하여, 의료정보 비디오 데이터를 활용하기 위한 시스템을 구축하기 위해서는 비디오와 같은 비정형 데이터에 포함된 개인식별정보에 대한 처리 또는 이를 위한 의사결정을 지원할 수 있는 방안이 필요하다. 예를 들어 복강경 수술 과정에서 수술 도구의 교체 등을 목적으로 카메라가 체외에서 머물 때 의도하지 않게 환자의 얼굴 또는 의료진의 모습이 촬영된 경우, 이러한 식별요소와 그 발생 시점을 별도로 기록하는 과정이 필요하지만 일반적으로 의료현장에서 비디오의 관리는 의사 개인의 재량에 따라 이루어지고 있어 이를 강제하기 어려울 뿐만 아니라, 의료 정보 비디오를 연구에 이용하고자 할 때마다 육안 검사에 의존할 수 밖에 없다는 문제점이 있다.In this regard, in order to build a system for utilizing video data of medical information, a method capable of supporting the processing of personally identifiable information included in unstructured data such as video or decision-making for this is required. For example, if the patient's face or the appearance of the medical staff is unintentionally taken while the camera is staying outside the body for the purpose of replacing surgical tools during laparoscopic surgery, it is necessary to separately record these identification elements and the time of occurrence. However, in general, video management in the medical field is performed at the discretion of the individual doctor, so it is difficult to enforce it, and there is a problem in that each time a medical information video is used for research, there is no choice but to rely on visual inspection.

또한, 정지영상과 달리 대용량인 비디오의 경우 연속된 다수의 프레임으로 이루어지는데, 외과적 수술의 경우 30분 내외에서 길게는 수 시간 이상 소요될 수 있어 비디오의 재생 시간에 비례하여 검수 및 분석에 소요되는 시간은 급격히 증가할 수 밖에 없다. 또한, 의료현장에서 생산되는 비디오는 촬영 환경과 방식의 다양성, 검진 또는 수술에 이용되는 영상장치의 특성과 용도에 따라 진료 정보의 표현 형식을 달리하는 등 내용상의 다양성을 가진다. 결국 비디오에 대한 육안 검사는 비용 측면에서 비효율적이며, 검수자의 숙련도에 따라 검수 및 분석 결과에 대한 품질을 보장하기 어려운 문제가 발생할 수 있다.In addition, unlike still images, large-capacity videos consist of a number of consecutive frames. In the case of a surgical operation, it may take from about 30 minutes to several hours or longer, so the amount of time required for inspection and analysis is proportional to the playback time of the video. Time is bound to increase rapidly. In addition, videos produced in the medical field have diversity in content, such as varying the expression format of medical information according to the variety of shooting environments and methods, characteristics and uses of imaging devices used for examination or surgery. In the end, visual inspection of video is inefficient in terms of cost, and depending on the skill of the inspector, it may be difficult to guarantee the quality of inspection and analysis results.

또한, 종래의 의료영상을 위한 자동화된 개인정보 비식별화 방법도 정지영상을 주요 대상으로 하며, 영상 헤더에 포함된 정보와 같은 정형 데이터를 획득하는데 국한될 뿐이어서 이를 그대로 비정형 데이터인 다량 및 대용량의 비디오에 적용하기 어려운 문제가 있다.In addition, the conventional automated personal information de-identification method for medical images mainly targets still images, and is only limited to acquiring structured data such as information included in image headers. There is a problem that is difficult to apply to the video of

본원의 배경이 되는 기술은 한국등록특허공보 제10-1946333호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1946333.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 수술 동영상에 포함될 수 있는 개인식별정보를 자동적으로 검출하고, 검출된 개인식별정보에 대한 인덱싱을 제공함으로써 개인정보 비식별화 작업에 필요한 빠르고 유효한 의사결정을 보조할 수 있는 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, by automatically detecting personally identifiable information that can be included in a surgical video and providing indexing for the detected personally identifiable information, so that the fast and effective work required for de-identification of personal information An object of the present invention is to provide a device and method for detecting personally identifiable information for de-identification of a surgical video that can assist in decision-making.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은, 입력된 수술 동영상의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출하는 단계 및 상기 객체가 검출되면, 상기 객체가 검출된 프레임의 프레임 번호 및 상기 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application is personal identification information requiring de-identification for each frame of an inputted surgical video. Detecting an object including text and a person corresponding to a candidate, and when the object is detected, generating index information including a frame number of a frame in which the object is detected and a time code associated with the frame can do.

또한, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은, 상기 객체를 검출하는 단계 이전에, 각각이 소정의 프레임을 포함하는 복수의 장면으로 상기 수술 동영상을 분할하는 단계 및 분할된 상기 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 단계를 포함할 수 있다.In addition, in the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application, before the step of detecting the object, the surgical video is divided into a plurality of scenes each including a predetermined frame and classifying the plurality of divided scenes into an in-vitro scene and an in-vitro scene.

또한, 상기 분할하는 단계는, 상기 수술 동영상의 프레임 각각에 대하여 RGB 채널별로 기 설정된 가중치에 기초하여 결정되는 색상 정보 및 Kirsch 에지 검출기에 기초하여 결정되는 지역 방향 패턴 정보에 기초하여 상기 수술 동영상을 분할할 수 있다.In addition, the dividing includes dividing the surgical video based on color information determined based on a preset weight for each RGB channel for each frame of the surgery video and regional direction pattern information determined based on a Kirsch edge detector. can do.

또한, 상기 분할하는 단계는, 기 설정된 복수의 특징 각각에 대응하는 프레임별 히스토그램에 기초하여 상기 수술 동영상의 인접 프레임 간의 거리 차이를 계산하는 단계 및 계산된 상기 거리 차이와 기 설정된 임계값을 비교하여 상기 수술 동영상에 포함된 프레임들 중 장면 경계 프레임을 결정하는 단계를 포함할 수 있다.In addition, the dividing may include calculating a distance difference between adjacent frames of the surgical video based on a histogram for each frame corresponding to each of a plurality of preset features and comparing the calculated distance difference with a preset threshold value. It may include determining a scene boundary frame from among the frames included in the operation video.

또한, 상기 객체를 검출하는 단계는, 상기 체내 촬영 장면 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출하는 단계 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출하는 단계를 포함할 수 있다.In addition, the detecting of the object may include detecting a text with respect to a frame included in the in-vitro photographing scene and the in-vitro photographing scene, and detecting a person with respect to a frame included in the in-vitro photographing scene. there is.

또한, 상기 텍스트를 검출하는 단계는, 광학 문자 판독 장치(Optical Character Reader, OCR)에 기초하여 기 설정된 소정 길이 이상의 문자열이 탐지되면 상기 텍스트가 검출된 것으로 판단할 수 있다.Also, in the detecting of the text, when a character string having a predetermined length or longer is detected based on an optical character reader (OCR), it may be determined that the text is detected.

또한, 상기 인물을 검출하는 단계는, 딥러닝 기반의 인공지능 모델에 기초하여 환자 또는 의료진을 포함하는 인물의 신체 일부가 탐지되면 상기 인물이 검출된 것으로 판단할 수 있다.Also, in the detecting of the person, when a body part of a person including a patient or medical staff is detected based on a deep learning-based artificial intelligence model, it may be determined that the person is detected.

또한, 상기 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 단계는, 분할된 상기 복수의 장면 각각의 색상(Hue), 채도(Saturation) 및 밝기(Intensity)에 기초하여 각각의 상기 장면을 상기 체내 촬영 장면 및 상기 체외 촬영 장면 중 어느 하나로 결정하는 단계를 포함할 수 있다.In addition, in the step of classifying the scene taken inside the body and the scene taken outside the body, each scene is divided into the scene shot inside the body based on Hue, Saturation, and Intensity of each of the divided scenes. and determining one of the in vitro photographed scenes.

또한, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은, 상기 인덱스 정보를 상기 수술 동영상과 연계된 메타데이터로 매칭하여 상기 수술 동영상을 상기 인덱스 정보와 함께 기 설정된 스토리지에 저장하는 단계를 포함할 수 있다.In addition, in the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application, by matching the index information with metadata associated with the surgery video, the surgical video is preset together with the index information It may include the step of storing to storage.

또한, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은, 상기 인덱스 정보에 기초하여 상기 수술 동영상에 등장한 상기 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행하는 단계를 포함할 수 있다.In addition, the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application performs de-identification of at least some of the personal identification information candidates appearing in the operation video based on the index information. may include the step of

한편, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치는, 각각이 소정의 프레임을 포함하는 복수의 장면으로 상기 수술 동영상을 분할하는 장면 분할부, 분할된 상기 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 장면 분류부, 입력된 수술 동영상의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출하는 객체 검출부 및 상기 객체가 검출되면, 상기 객체가 검출된 프레임의 프레임 번호 및 상기 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성하는 인덱싱부를 포함할 수 있다.On the other hand, the apparatus for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application includes a scene dividing unit for dividing the surgical video into a plurality of scenes each including a predetermined frame, the divided plurality of A scene classification unit for classifying scenes of in-vitro and in-vitro shooting scenes, an object detection unit for detecting objects including text and people corresponding to personal identification information candidates that require de-identification for each frame of an input surgical video, and When the object is detected, an indexing unit that generates index information including a frame number of a frame in which the object is detected and a time code associated with the frame may be included.

또한, 상기 장면 분할부는, 기 설정된 복수의 특징 각각에 대응하는 프레임별 히스토그램에 기초하여 상기 수술 동영상의 인접 프레임 간의 거리 차이를 계산하고, 계산된 상기 거리 차이와 기 설정된 임계값을 비교하여 상기 수술 동영상에 포함된 프레임들 중 장면 경계 프레임을 결정할 수 있다.In addition, the scene division unit calculates a distance difference between adjacent frames of the surgery video based on a histogram for each frame corresponding to each of a plurality of preset features, and compares the calculated distance difference with a preset threshold to perform the surgery A scene boundary frame may be determined among frames included in the video.

또한, 상기 객체 검출부는, 상기 체내 촬영 장면 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출하는 텍스트 검출부 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출하는 인물 검출부를 포함할 수 있다.In addition, the object detection unit may include a text detection unit that detects text with respect to a frame included in the in-vitro photographing scene and the in-vitro photographing scene, and a person detection unit that detects a person with respect to a frame included in the in-vitro photographing scene. .

또한, 상기 텍스트 검출부는, 광학 문자 판독 장치(Optical Character Reader, OCR)와 연계된 플러그인 형태로 구비되고, 상기 인물 검출부는, 딥러닝 기반의 인공지능 모델과 연계된 플러그인 형태로 구비될 수 있다.In addition, the text detection unit may be provided in the form of a plug-in linked to an optical character reader (OCR), and the person detecting unit may be provided in the form of a plug-in linked to a deep learning-based artificial intelligence model.

또한, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치는, 상기 인덱스 정보를 상기 수술 동영상과 연계된 메타데이터로 매칭하여 상기 수술 동영상을 상기 인덱스 정보와 함께 저장하는 저장부 및 상기 인덱스 정보에 기초하여 상기 수술 동영상에 등장한 상기 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행하는 비식별화부를 포함할 수 있다.In addition, the apparatus for detecting personal identification information for de-identification of a surgery video according to an embodiment of the present application matches the index information with metadata associated with the surgery video to store the surgery video together with the index information It may include a storage unit and a de-identification unit for performing de-identification of at least some of the personal identification information candidates appearing in the operation video based on the index information.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 수술 동영상에 포함될 수 있는 개인식별정보를 자동적으로 검출하고, 검출된 개인식별정보에 대한 인덱싱을 제공함으로써 개인정보 비식별화 작업에 필요한 빠르고 유효한 의사결정을 보조할 수 있는 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it automatically detects personally identifiable information that can be included in a surgical video and provides indexing for the detected personally identifiable information, thereby assisting fast and effective decision-making required for de-identification of personal information. It is possible to provide an apparatus and method for detecting personal identification information for de-identification of a surgical video that can be performed.

전술한 본원의 과제 해결 수단에 의하면, 대용량 및 다량의 수술 동영상에 대한 효과적인 비식별화 요소의 검수 자동화 체계를 구축할 수 있다.According to the above-described problem solving means of the present application, it is possible to construct an effective automated inspection system for de-identification elements for large-capacity and large-scale surgical video.

전술한 본원의 과제 해결 수단에 의하면, 종래의 정지영상에 국한된 의료영상의 비식별화 체계를 개선하고 의료현장에서 필요로 하는 비디오를 활용한 데이터 연구를 지원할 수 있다.According to the above-described problem solving means of the present application, it is possible to improve the de-identification system of medical images limited to conventional still images and support data research using video required in the medical field.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 수술 동영상 비식별화 시스템의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 체내 촬영 장면 및 체외 촬영 장면을 설명하기 위한 도면이다.
도 3은 본원의 일 실시예에 따른 비식별화가 필요한 개인식별정보 후보에 해당하는 인물이 검출된 프레임을 예시적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 인덱스 정보를 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 표준 플러그인 API 기반의 수술 동영상 처리 방식을 설명하기 위한 개념도이다.
도 6은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치의 개략적인 구성도이다.
도 7은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 대한 동작 흐름도이다.
도 8은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법과 연계된 일 실험예로서 복수의 샘플 수술 동영상에 대한 인덱싱 처리 속도 측정 결과를 나타낸 도표이다.
1 is a schematic configuration diagram of a surgical video de-identification system according to an embodiment of the present application.
2 is a diagram for explaining an in-body photographing scene and an in-vitro photographing scene according to an embodiment of the present application.
3 is a diagram exemplarily illustrating a frame in which a person corresponding to a candidate for personal identification requiring de-identification according to an embodiment of the present application is detected.
4 is a diagram for explaining index information according to an embodiment of the present application.
5 is a conceptual diagram for explaining a surgical video processing method based on a standard plug-in API according to an embodiment of the present application.
6 is a schematic configuration diagram of an apparatus for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.
7 is an operation flowchart of a method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.
8 is a chart showing the indexing processing speed measurement results for a plurality of sample surgical videos as an experimental example linked to a method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본원은 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for detecting personal identification information for de-identification of a surgical video.

도 1은 본원의 일 실시예에 따른 수술 동영상 비식별화 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a surgical video de-identification system according to an embodiment of the present application.

도 1을 참조하면, 본원의 일 실시예에 따른 수술 동영상 비식별화 시스템(10)은, 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치(100)(이하, '개인식별정보 검출 장치(100)'라 한다.), 통합 관리 서버(200), 검수자 단말(300) 및 사용자 단말(400)을 포함할 수 있다.Referring to Figure 1, the surgical video de-identification system 10 according to an embodiment of the present application, the personal identification information detection device 100 for de-identification of the operation video (hereinafter, 'personal identification information detection device ( 100)'), the integrated management server 200 , the inspector terminal 300 and the user terminal 400 may be included.

개인식별정보 검출 장치(100), 통합 관리 서버(200), 검수자 단말(300) 및 사용자 단말(400) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The personal identification information detection device 100 , the integrated management server 200 , the inspector terminal 300 , and the user terminal 400 may communicate with each other through the network 20 . The network 20 refers to a connection structure in which information exchange is possible between each node, such as terminals and servers, and an example of such a network 20 includes a 3rd Generation Partnership Project (3GPP) network, a long-term LTE (LTE) network. Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), a wifi network, a Bluetooth network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but are not limited thereto.

검수자 단말(300) 및 사용자 단말(400)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.The inspector terminal 300 and the user terminal 400 are, for example, a smartphone (Smartphone), a smart pad (SmartPad), a tablet PC and the like and PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal) Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may be any kind of wireless communication device such as a terminal.

본원의 실시예에 관한 설명에서, 검수자 단말(300)은 개인식별정보 검출 장치(100)에 의해 추출된 개인식별정보 후보에 관한 인덱스 정보와 함께 저장된 수술 동영상을 확인하고, 개인식별정보 후보 각각에 대한 적절성을 검토하거나 인덱스 정보를 고려하여 수술 동영상 내 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행하는 주체가 보유한 단말일 수 있다.In the description of the embodiment of the present application, the inspector terminal 300 checks the stored surgical video together with index information about the personal identification information candidate extracted by the personal identification information detection device 100, and to each of the personal identification information candidates It may be a terminal possessed by a subject that de-identifies at least some of the personally identifiable information candidates in the surgery video by reviewing the appropriateness of the information or considering the index information.

본원의 실시예에 관한 설명에서, 사용자 단말(400)은 수술 동영상 내에 등장한 개인식별정보에 대한 비식별화 처리가 완료된 수술 동영상을 제공받아 비식별화 처리된 수술 동영상 내지 이러한 수술 동영상을 포함하는 컨텐츠을 시청(재생)하기 위한 단말일 수 있다.In the description of the embodiment of the present application, the user terminal 400 receives the de-identification process for the personal identification information that appears in the surgical video is provided, and the de-identified surgical video or content including the surgical video is provided. It may be a terminal for viewing (playback).

개인식별정보 검출 장치(100)는 수술 동영상(1)을 수신할 수 있다. 여기서, 개인식별정보 검출 장치(100)가 수신하는 수술 동영상(1)은 비식별화 처리가 수행되기 전의 원시(원본) 비디오를 의미하는 것일 수 있다. 예를 들어, 수술 동영상(1)은 내시경을 이용한 진단 또는 복강경 수술 등의 과정에서 생성된 원시 비디오일 수 있다.The apparatus 100 for detecting personal identification information may receive the operation video 1 . Here, the operation video 1 received by the apparatus 100 for detecting personal identification information may mean a raw (original) video before de-identification processing is performed. For example, the operation video 1 may be a raw video generated during a diagnosis using an endoscope or laparoscopic surgery.

개인식별정보 검출 장치(100)는 복수의 프레임을 포함하는 수술 동영상(1)을 복수의 장면으로 분할할 수 있다. 즉, 개인식별정보 검출 장치(100)는 각각이 소정의 프레임을 포함하는 복수의 장면으로 수신된 수술 동영상(1)을 분할할 수 있다.The apparatus 100 for detecting personal identification information may divide the surgical video 1 including a plurality of frames into a plurality of scenes. That is, the apparatus 100 for detecting personal identification information may divide the received surgical video 1 into a plurality of scenes each including a predetermined frame.

본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 수술 동영상(1)의 프레임 각각에 대하여 RGB 채널별로 기 설정된 가중치에 기초하여 결정되는 색상 정보 및 Kirsch 에지 검출기에 기초하여 결정되는 지역 방향 패턴 정보에 기초하여 수술 동영상(1)을 복수의 장면으로 분할할 수 있다.According to an embodiment of the present application, the apparatus 100 for detecting personal identification information includes color information determined based on a preset weight for each RGB channel for each frame of the surgical video 1 and an area determined based on a Kirsch edge detector. The operation video 1 may be divided into a plurality of scenes based on the direction pattern information.

구체적으로, 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 빠르고 안정적인 장면 분할을 위해 가중치에 따라 RGB 각 채널로부터 선택된 6비트의 색상 정보와 Kirsch 에지 반응에 따라 최대 값, 두 번째 반응 값 및 세 번째 반응 값의 인덱스로 구성된 6비트의 지역 방향 패턴 정보를 결합하는 CeLDP 기법을 적용하는 것일 수 있다. 이해를 돕기 위해 덧붙이면, CeLDP를 이용한 장면 분할 기법에 의할 때 개인식별정보 검출 장치(100)는 수술 동영상(1)의 매 프레임으로부터 소정의 수(예를 들어, 4096개)의 특징을 표현하는 히스토그램을 도출하여 도출된 히스토그램에 기초하여 인접 프레임간 거리 차이를 구하고, 설정된 임계값에 따라 장면 경계를 결정할 수 있다. 여기서, 개인식별정보 검출 장치(100)는 결정된 장면 경계 사이의 복수의 프레임을 하나의 장면으로 통합하도록 동작할 수 있다.Specifically, according to an embodiment of the present application, the apparatus 100 for detecting personal identification information 100 provides color information of 6 bits selected from each RGB channel according to weights for fast and stable scene segmentation, and the maximum value, the second value according to Kirsch edge response. It may be to apply the CeLDP technique for combining 6-bit local directional pattern information composed of the index of the response value and the third response value. To help understanding, the personal identification information detection apparatus 100 expresses a predetermined number (eg, 4096) of features from every frame of the surgical video 1 by the scene segmentation technique using CeLDP. A histogram may be derived, a distance difference between adjacent frames may be obtained based on the derived histogram, and a scene boundary may be determined according to a set threshold value. Here, the apparatus 100 for detecting personal identification information may operate to integrate a plurality of frames between the determined scene boundaries into one scene.

달리 말해, 개인식별정보 검출 장치(100)는 기 설정된 복수의 특징 각각에 대응하는 프레임별 히스토그램에 기초하여 수술 동영상(1)의 인접 프레임 간의 거리 차이를 계산하고, 계산된 거리 차이와 기 설정된 임계값을 비교하여 수술 동영상에 포함된 프레임들 중 장면 경계 프레임을 결정할 수 있다. 여기서, 기 설정된 복수의 특징은 상술한 색상 정보 및 지역 방향 패턴 정보를 포함할 수 있다.In other words, the apparatus 100 for detecting personal identification information calculates a distance difference between adjacent frames of the surgical video 1 based on a histogram for each frame corresponding to each of a plurality of preset features, and calculates the difference between the calculated distance and the preset threshold By comparing the values, it is possible to determine a scene boundary frame from among the frames included in the surgical video. Here, the plurality of preset features may include the above-described color information and regional direction pattern information.

이와 관련하여, 본원의 개인식별정보 검출 장치(100)는 개인식별정보 후보를 빠르게 검출하고, 검출된 개인식별정보 후보에 대한 인덱스 정보를 생성하기 위하여 수술 동영상(1)의 전체 프레임이 아닌 유의미한 최소 단위 검사(검출)를 수행할 수 있도록, 수술 동영상(1)의 각각의 프레임의 특징을 기초로 최소 검사 단위에 대응될 수 있는 각각의 장면으로 수술 동영상(1)을 분할하는 것일 수 있다. 예를 들어, 수술 동영상(1)을 '장면'으로 분할하는 것은 수술 동영상(1) 내 모든 프레임을 샷(Shot)과 씬(Scene)의 논리적 계층구조로 분할하는 것으로 이해될 수 있으며, 이를 통해 개인식별정보 검출 장치(100)는 수술 동영상의 구조 정보를 획득할 수 있다.In this regard, the personal identification information detection device 100 of the present application quickly detects a personal identification information candidate and generates index information for the detected personal identification information candidate, not the entire frame of the surgical video 1, but a significant minimum In order to perform unit examination (detection), the operation video 1 may be divided into respective scenes that can correspond to the minimum examination unit based on the characteristics of each frame of the operation video 1 . For example, dividing the surgery video 1 into 'scenes' can be understood as dividing all frames in the surgery video 1 into a logical hierarchy of shots and scenes, through which The apparatus 100 for detecting personal identification information may obtain structural information of a surgical video.

또한, 개인식별정보 검출 장치(100)는 분할된 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류할 수 있다.In addition, the apparatus 100 for detecting personal identification information may classify the divided plurality of scenes into an in-vitro shooting scene and an external shooting scene.

도 2는 본원의 일 실시예에 따른 체내 촬영 장면 및 체외 촬영 장면을 설명하기 위한 도면이다.2 is a diagram for explaining an in-body photographing scene and an in-vitro photographing scene according to an embodiment of the present application.

도 2를 참조하면, 도 2의 (a)는 채내 촬영 장면으로 분류된 장면 내 프레임을 예시적으로 나타낸 것이고, 도 2의 (b)는 체외 촬영 장면으로 분류된 장면 내 프레임을 예시적으로 나타낸 것이다. 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 분할된 복수의 장면 각각의 색상(Hue), 채도(Saturation) 및 밝기(Intensity)에 기초하여 각각의 장면을 체내 촬영 장면 및 체외 촬영 장면 중 어느 하나로 결정할 수 있다. 달리 말해, 개인식별정보 검출 장치(100)는 HSI 컬러 모델과 연계된 지식 기반 검출 기법을 적용하여 체내 촬영 장면과 체외 촬영 장면을 구분하도록 동작할 수 있다.Referring to FIG. 2, (a) of FIG. 2 exemplarily shows a frame within a scene classified as an in-vitro shooting scene, and FIG. 2 (b) exemplarily shows a frame within a scene classified as an in-vitro shooting scene will be. According to an embodiment of the present application, the apparatus 100 for detecting personal identification information detects each scene based on a color (Hue), saturation (Saturation), and brightness (Intensity) of each of a plurality of divided scenes in vivo and in vitro. It can be decided by any one of the shooting scenes. In other words, the apparatus 100 for detecting personal identification information may apply a knowledge-based detection technique associated with the HSI color model to distinguish between an in-body image and an in-vitro image.

또한, 개인식별정보 검출 장치(100)는 입력된 수술 동영상(1)의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출할 수 있다. 여기서, 개인식별정보 후보란 수술 동영상(1) 내에 그래픽 형태로(달리 말해, 시각을 통해 확인할 수 있는 형태로) 포함된 텍스트 형태의 환자 인적 사항 정보, 의료 정보를 비롯하여 환자 또는 의료진의 얼굴 및 신체 일부 등 시각적으로 환자 또는 의료진의 신원을 직, 간접적으로 파악할 수 있는 요소를 의미하는 것일 수 있다. 즉, 개인식별정보 검출 장치(100)는 수술 동영상(1)의 프레임 각각을 탐색하여 비식별화가 필요할 것으로 예상되는 시각 요소인 개인식별정보 후보를 검출하도록 동작할 수 있다.In addition, the personal identification information detecting apparatus 100 may detect an object including a text and a person corresponding to a personal identification information candidate requiring de-identification for each frame of the inputted surgical video 1 . Here, the personally identifiable information candidate means the patient's or medical staff's face and body, including the patient's personal information and medical information in text form included in graphic form (in other words, in a form that can be confirmed visually) within the surgical video 1 It may refer to an element that can directly or indirectly identify the identity of a patient or medical staff visually, such as a part. That is, the apparatus 100 for detecting personal identification information may operate to search for each frame of the operation video 1 to detect a candidate for personal identification information, which is a visual element that is expected to require de-identification.

또한, 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 선행된 장면 분할 결과 및 장면 분류 결과(체외 촬영 장면 또는 체외 촬영 장면)를 고려하여 프레임 각각에 대한 개인식별정보 후보 탐색 유형을 다르게 적용할 수 있다. 구체적으로, 개인식별정보 검출 장치(100)는 체내 촬영 장면 및 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출할 수 있다. 또한, 개인식별정보 검출 장치(100)는 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출할 수 있다.In addition, according to an embodiment of the present application, the personal identification information detecting apparatus 100 considers the preceding scene segmentation result and scene classification result (in vitro shooting scene or in vitro shooting scene), and the personal identification information candidate search type for each frame can be applied differently. Specifically, the apparatus 100 for detecting personal identification information may detect a text with respect to a frame included in an in-body photographing scene and an in-vitro photographing scene. Also, the apparatus 100 for detecting personal identification information may detect a person with respect to a frame included in an in vitro photographing scene.

이와 관련하여, 수술 과정을 기록한 수술 동영상(1) 내 프레임들은 수술 당시의 상황에 따라 수술 도구에 장착된 카메라가 체내와 체외를 오갈 수 있는데, 이때 의도하지 않게 환자 또는 의료진의 모습이 영상에 포함될 수 있다. 그러나, 일반적인 수술 동영상(1)의 경우 환자의 체내를 촬영한 프레임에서 인물의 신체 일부(예를 들면, 얼굴 등)이 등장할 가능성은 현저히 낮다고 할 수 있다. 즉 복강경 수술과 같이 비디오의 전체 프레임 중 대부분이 체내를 촬영한 경우 모든 프레임에서 인물을 검출하는 것은 비효율적일 수 있으므로, 본원의 개인식별정보 검출 장치(100)는 개인식별정보 후보 검출의 목적, 실시된 수술의 유형 등에 따라 객체 검출의 대상이 되는 현재 프레임이 체내 또는 체외인 경우에 한정적으로 동작하도록 하여 처리 효율성을 높일 수 있다. 다만, 이에만 한정되는 것은 아니며, 본원의 구현예에 따라 개인식별정보 후보 검출의 목적, 실시된 수술의 유형 등에 따라 체내 촬영 장면에 해당하는 장면 내 프레임에 대하여도 인물 검출 프로세스가 수행되도록 개인식별정보 검출 장치(100)가 동작할 수 있다.In this regard, in the frames in the surgical video (1) recording the surgical process, the camera mounted on the surgical tool may go back and forth between the body and the body depending on the situation at the time of surgery. can However, in the case of a general surgical video 1, it can be said that the possibility that a body part (eg, face, etc.) of a person appears in a frame in which the patient's body is photographed is remarkably low. That is, since it may be inefficient to detect a person in all frames when most of the entire frames of the video are taken inside the body, such as in laparoscopic surgery, the personal identification information detection device 100 of the present application is the purpose and implementation of the personal identification information candidate detection According to the type of surgery performed, processing efficiency can be increased by restricting operation when the current frame, which is the target of object detection, is inside or outside the body. However, the present disclosure is not limited thereto, and according to the embodiment of the present application, personal identification is performed so that the person detection process is performed even for a frame within a scene corresponding to a scene taken inside the body according to the purpose of detecting a candidate for personal identification information, the type of surgery performed, etc. The information detecting apparatus 100 may operate.

구체적으로, 프레임 내의 텍스트 검출 프로세스와 관련하여, 개인식별정보 검출 장치(100)는 광학 문자 판독 장치(Optical Character Reader, OCR)에 기초하여 기 설정된 소정 길이 이상의 문자열이 소정의 프레임 내에서 탐지되면 텍스트가 검출된 것으로 판단할 수 있다.Specifically, in relation to the text detection process in a frame, the personal identification information detecting apparatus 100 detects a text string longer than a predetermined length based on an optical character reader (OCR) within a predetermined frame. can be determined to be detected.

이와 관련하여, 수술 동영상(1) 내에 표시될 수 있는 환자 진료 정보 등의 텍스트 타입 객체는 해당 수술에 활용된 장비의 특성과 수술 운용 환경 등에 따라 다양하게 나타날 수 있다. 따라서, 본원의 일 실시예에 따른 개인식별정보 검출 장치(100)는 OCR 등의 방법으로 인식된 모든 텍스트에 대하여 정규 표현식을 적용하는 경우 효율성이 떨어지거나 연산 속도가 느려질 수 있으므로, 오픈 소스 OCR 프로젝트 중 하나인 Tesseract 엔진을 활용하여 프레임 내에서 텍스트를 검출하되, 소정의 길이 이상의 문자가 탐지된 경우에 한하여 유의미한 텍스트가 포함된 것으로 판단할 수 있다. 여기서, 전술한 Tesseract 엔진을 활용하는 경우, 디코딩된 프레임의 버퍼가 아닌 이미지 파일이 입력으로 인가될 것이 요구되므로, 개인식별정보 검출 장치(100)는 개인식별정보 검출 장치(100)로 전달된 프레임 버퍼에 대하여 이미지 파일(예를 들면, TIFF 형식)로 저장한 후 이를 Tesseract 엔진으로 전달하도록 동작할 수 있다.In this regard, text-type objects such as patient treatment information that may be displayed in the operation video 1 may appear in various ways according to the characteristics of equipment used for the operation, the operation environment, and the like. Therefore, in the case of applying the regular expression to all text recognized by the method such as OCR, the personal identification information detecting apparatus 100 according to an embodiment of the present application may decrease efficiency or slow down the operation speed, so the open source OCR project The text is detected within the frame by using the Tesseract engine, which is one of them, and it can be determined that meaningful text is included only when characters having a predetermined length or longer are detected. Here, when utilizing the Tesseract engine described above, since an image file, not a buffer of the decoded frame, is required to be applied as an input, the personal identification information detecting apparatus 100 is a frame transmitted to the personal identification information detecting apparatus 100 You can act to save an image file (eg TIFF format) to the buffer and then pass it to the Tesseract engine.

도 3은 본원의 일 실시예에 따른 비식별화가 필요한 개인식별정보 후보에 해당하는 인물이 검출된 프레임을 예시적으로 나타낸 도면이다.3 is a diagram exemplarily illustrating a frame in which a person corresponding to a candidate for personal identification requiring de-identification according to an embodiment of the present application is detected.

도 3을 참조하면, 프레임 내의 인물 검출 프로세스와 관련하여, 개인식별정보 검출 장치(100)는 딥러닝 기반의 인공지능 모델에 기초하여 환자 또는 의료진을 포함하는 인물의 신체 일부가 탐지되면 인물이 검출된 것으로 판단할 수 있다.Referring to FIG. 3 , in relation to the process of detecting a person within a frame, the personal identification information detecting apparatus 100 detects a person when a body part of a person including a patient or medical staff is detected based on a deep learning-based artificial intelligence model. can be judged to have been

본원의 일 실시예에 따르면, 수술 동영상(1) 내에서 인물(예를 들면, 환자 또는 의료진 등)을 검출하기 위하여 개인식별정보 검출 장치(100)는 소정의 인물의 얼굴을 검출하거나 얼굴을 제외한 신체 일부를 검출할 수 있다. 그런데 수술 동영상(1)이 촬영되는 특수한 환경을 고려하면 의료진의 경우 마스크 등을 착용하는 것이 대부분이며, 환자의 경우에도 호흡기 등을 장착하고 있는 경우가 대부분이어서 종래의 특징점(랜드마크)을 이용하는 얼굴 검출 알고리즘은 적용하기 어려울 수 있다. 이에 따라 본원의 개인식별정보 검출 장치(100)는 수술 동영상 내에 인물이 등장하는 경우, 해당 인물은 최소한 두부와 상반신의 일부가 나타남을 가정하고 딥러닝 기반의 YOLO(You Look Only Once) 모델을 활용하여 인물을 검출할 수 있다. 상술한 YOLO 모델의 경우 인물 검출 성능은 타 모델과 동등하면서도 높은 처리 속도를 가지므로 대량의 프레임을 포함하는 수술 동영상(1)을 처리하기에 적합한 이점이 있다. 다만, 개인식별정보 검출 장치(100)가 인물 검출을 위하여 활용하는 모델(알고리즘)은 상술한 YOLO 모델에 한정되는 것은 아니며, R-CNN(Recursive Convolutional Neural Netwwork), Fast R-CNN, SSD(Single Shot multibox Detector) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 인공 지능 기반 객체 인식 알고리즘 모델이 적용될 수 있다.According to an embodiment of the present application, in order to detect a person (eg, a patient or a medical staff, etc.) in the operation video 1 , the personal identification information detection apparatus 100 detects the face of a predetermined person or excludes the face. Body parts can be detected. However, considering the special environment in which the surgical video 1 is recorded, most of the medical staff wears a mask, and most of the patients are also equipped with a respirator. Detection algorithms can be difficult to apply. Accordingly, when a person appears in the operation video, the apparatus 100 for detecting personal identification information of the present office assumes that at least a part of the head and upper body appear, and utilizes a deep learning-based YOLO (You Look Only Once) model. Thus, the person can be detected. In the case of the aforementioned YOLO model, the person detection performance is equivalent to that of other models and has a high processing speed, so there is an advantage suitable for processing the surgical video 1 including a large number of frames. However, the model (algorithm) used by the personal identification information detection device 100 for person detection is not limited to the above-described YOLO model, and is not limited to R-CNN (Recursive Convolutional Neural Network), Fast R-CNN, SSD (Single). Various artificial intelligence-based object recognition algorithm models that have been previously known or developed in the future, such as Shot multibox Detector), may be applied.

도 4는 본원의 일 실시예에 따른 인덱스 정보를 설명하기 위한 도면이다.4 is a diagram for explaining index information according to an embodiment of the present application.

도 4를 참조하면, 개인식별정보 검출 장치(100)는 객체가 검출되면, 객체가 검출된 프레임의 프레임 번호 및 해당 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성할 수 있다. 여기서, 인덱스 정보는 개인식별정보 후보에 해당하는 텍스트 또는 인물이 검출되는 경우, 해당 개인식별정보 후보가 검출된 수술 동영상(1) 내의 시점 정보, 검출된 개인식별정보 후보의 유형 정보 등을 포괄하는 정보를 의미하는 것일 수 있다. 또한, 인덱스 정보는 검출된 개인식별정보 후보 각각의 고유 식별자 정보(예를 들면, ID, 고유 번호 등)를 포함할 수 있다.Referring to FIG. 4 , when an object is detected, the personal identification information detecting apparatus 100 may generate index information including a frame number of a frame in which the object is detected and a time code associated with the corresponding frame. Here, the index information includes, when text or a person corresponding to the personal identification information candidate is detected, the viewpoint information in the surgical video 1 in which the corresponding personal identification information candidate is detected, information on the type of the detected personal identification information candidate, etc. It may mean information. In addition, the index information may include unique identifier information (eg, ID, unique number, etc.) of each of the detected personal identification information candidates.

또한, 도 4는 생성된 인덱스 정보를 확인하기 위한 사용자 인터페이스를 나타낸 것일 수 있다. 본원의 일 실시예에 따르면, 인덱스 정보를 확인하기 위한 사용자 인터페이스는 개인식별정보 검출 장치(100)와 연계된 검수자 단말(300) 등에서 표시되는 것일 수 있다. 도 4를 참조하면, 인덱스 정보 표시 인터페이스는 검출된 개인식별정보 후보의 유형 정보 탭(A)을 포함할 수 있다. 또한, 인덱스 정보 표시 인터페이스는 검출된 개인식별정보 후보 각각에 대하여 구획된 인덱스 정보 탭(B)을 포함할 수 있다. 구체적으로, 인덱스 정보 탭(B)은 해당 개인식별정보 후보가 등장한 대표 프레임의 축소 화면, 프레임 번호(Frame), 타임 코드(Time), 유형 정보(Error Type) 등을 포함할 수 있다. 여기서, 개인식별정보 후보의 유형 정보는 인물 검출(Person Detection) 유형 및 텍스트 검출(Text Detection) 유형을 포함할 수 있다.Also, FIG. 4 may show a user interface for checking the generated index information. According to an embodiment of the present application, the user interface for checking the index information may be displayed on the inspector terminal 300 associated with the personal identification information detection device 100 . Referring to FIG. 4 , the index information display interface may include a type information tab (A) of the detected personal identification information candidate. In addition, the index information display interface may include a partitioned index information tab (B) for each of the detected personal identification information candidates. Specifically, the index information tab B may include a reduced screen of a representative frame in which the corresponding personal identification information candidate appears, a frame number (Frame), a time code (Time), type information (Error Type), and the like. Here, the type information of the personal identification information candidate may include a person detection type and a text detection type.

전술한 인덱스 정보 표시 인터페이스는 비식별화 처리 담당자 등의 검수자 단말(300)의 사용자로 하여금 개인식별정보 후보에 대한 재작업(재검출) 또는 추가 작업(검출) 등의 여부와 비식별화를 작업의 진행 등의 적절한 의사 결정을 보조하기 위한 시각화 도구로 기능할 수 있다.The above-described index information display interface allows the user of the inspector terminal 300 such as the person in charge of de-identification processing to re-work (re-detection) or additional work (detection) for the personal identification information candidate and de-identify the task. It can function as a visualization tool to assist in appropriate decision-making, such as the progress of

또한, 개인식별정보 검출 장치(100)는 생성된 인덱스 정보를 수술 동영상(1)과 연계된 메타데이터로 매칭하여 해당 수술 동영상(1)을 생성된 인덱스 정보와 함께 기 설정된 스토리지에 저장할 수 있다. 본원의 일 실시예에 따르면, 인덱스 정보가 메타데이터로 매칭(삽입)된 수술 동영상(1)은 통합 관리 서버(200)에 구비되는 기 설정된 스토리지에 저장되는 것일 수 있다. 달리 말해, 개인식별정보 검출 장치(100)는 생성된 인덱스 정보를 메타데이터로 하여 수술 동영상(1)과 함께 스토리지에 아카이빙(Archiving)할 수 있다.In addition, the apparatus 100 for detecting personal identification information may match the generated index information with metadata associated with the operation video 1 and store the operation video 1 together with the generated index information in a preset storage. According to an embodiment of the present application, the surgical video 1 in which index information is matched (inserted) as metadata may be stored in a preset storage provided in the integrated management server 200 . In other words, the apparatus 100 for detecting personal identification information may use the generated index information as metadata and archive it together with the operation video 1 in storage.

통합 관리 서버(200)는 인덱스 정보가 매칭(삽입)된 수술 동영상(1)을 개인식별정보 검출 장치(100)로부터 획득하여 검수자 단말(300)에 전송할 수 있다. 또한, 통합 관리 서버(200)는 검수자 단말(300)에 의해 비식별화 처리가 완료된 수술 동영상(1)을 검수자 단말(300) 또는 개인식별정보 검출 장치(100)로부터 획득하여 사용자 단말(400)로 제공할 수 있다. 또한, 본원의 일 실시예에 따르면, 통합 관리 서버(200)는 입력된 수술 동영상에 대한 트랜스코딩 및 웹 UI를 통한 미리보기 서비스를 제공하는 스트리밍 서버(미도시), 서비스 관리 및 컨텐츠 조회를 위한 웹 서비스를 제공하는 WAS(미도시) 등을 하위 요소로 포함할 수 있다.The integrated management server 200 may acquire the surgical video 1 in which index information is matched (inserted) from the personal identification information detection device 100 and transmit it to the inspector terminal 300 . In addition, the integrated management server 200 acquires the surgical video 1 for which de-identification processing is completed by the inspector terminal 300 from the inspector terminal 300 or the personal identification information detection device 100, and the user terminal 400 can be provided as In addition, according to an embodiment of the present application, the integrated management server 200 is a streaming server (not shown) that provides a preview service through transcoding and web UI for the input surgery video, service management and content inquiry WAS (not shown) that provides web services may be included as sub-elements.

또한, 개인식별정보 검출 장치(100)는 특정 수술 동영상(1)에 대하여 매칭(삽입)된 인덱스 정보에 기초하여 해당 수술 동영상(1)에 등장한 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행할 수 있다. 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 검수자 단말(300)에 인가되는 비식별화와 관련된 사용자 입력을 수신하여, 수신된 사용자 입력에 기초하여 비식별화를 수행하도록 동작할 수 있다. 여기서, 비식별화는 제3자에게 공개되지 않도록 비식별화 처리될 필요가 있는 환자 얼굴, 의료진 얼굴 등의 개인식별정보 후보에 대하여 스크램블링, 암호화, Defacing 등의 비식별 처리를 수행하거나 환자 진료 정보 등의 텍스트 타입의 개인식별정보 후보에 대하여 익명화, 마스킹 등의 비식별 처리를 수행하는 등 프라이버시 보호를 위한 소정의 조치를 통합적으로 지칭하는 것으로 이해될 수 있다.In addition, the personal identification information detection apparatus 100 de-identifies at least some of the personal identification information candidates that appeared in the operation video 1 based on the index information matched (inserted) with respect to the specific surgery video 1 can be done According to an embodiment of the present application, the apparatus 100 for detecting personal identification information receives a user input related to de-identification applied to the inspector terminal 300, and performs de-identification based on the received user input. can do. Here, de-identification is to perform de-identification processing such as scrambling, encryption, defacing, etc. for candidates of personal identification information such as patient faces and medical staff faces that need to be de-identified so that they are not disclosed to third parties, or patient treatment information It can be understood that it refers to predetermined measures for privacy protection, such as performing de-identification processing such as anonymization and masking, for text-type personally identifiable information candidates, such as.

또한, 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 수술 동영상(1)의 활용 목적과 접근 권한, 처리 기준에 따라 비식별화 유형을 필요에 따라 변경하여 적용하도록 동작할 수 있다.In addition, according to an embodiment of the present application, the apparatus 100 for detecting personal identification information may operate to change and apply the de-identification type as needed according to the purpose of use of the surgical video 1, access rights, and processing standards. there is.

도 5는 본원의 일 실시예에 따른 표준 플러그인 API 기반의 수술 동영상 처리 방식을 설명하기 위한 개념도이다.5 is a conceptual diagram for explaining a surgical video processing method based on a standard plug-in API according to an embodiment of the present application.

도 5를 참조하면, 개인식별정보 검출 장치(100)는 개인식별정보 후보를 검출할 수 있는 알고리즘의 외부 시스템과의 연동성 및 확장 용이성을 확보하기 위하여, 개인식별정보 후보를 검출 알고리즘 각각을 표준 플러그인 API 방식에 기반하여 탑재할 수 있다. 달리 말해, 본원의 개인식별정보 후보 검출을 통한 객체화를 수행하는 각각의 검출 알고리즘은 자체 정의된 표준 플러그인 API 규격에 따라 시스템에 대한 추가와 제거가 용이한 플러그인으로 구현될 수 있다.Referring to FIG. 5 , the apparatus 100 for detecting personal identification information is a standard plug-in for each of the detection algorithms for personal identification information candidates in order to secure interoperability with an external system and ease of extension of an algorithm capable of detecting a personal identification information candidate. It can be mounted based on the API method. In other words, each detection algorithm that performs objectification through detection of personal identification information candidates of the present application may be implemented as a plug-in that is easy to add and remove from the system according to a self-defined standard plug-in API specification.

구체적으로, 도 5를 참조하면, 개인식별정보 검출과 연계된 작업 정보가 생성되고 작업 스케줄러(Job Scheduler)에 의해 플러그인 실행 관리가 이루어질 수 있다. 여기서, 작업 스케줄러(Job Scheduler)는 소정의 수술 동영상(1)을 개인식별정보 검출 장치(100)에 할당하고 입력되는 수술 동영상(1)의 비트 스트림을 디코딩하여 프레임 단위로 개인식별정보 검출 장치(100) 내 각각의 플러그인에 표준 API를 통해 전달할 수 있다. 디코딩된 프레임을 수신한 각각의 플러그인은 표준 API로 정의된 콜백 함수(Result callback)를 이용하여 처리 결과를 반환하고, 모든 플러그인이 현재 프레임에 대한 처리를 완료한 경우 플러그인 실행 관리자(Plug-In Execution Manager)는 입력 스트림 처리기(Input Stream Handler)에 대하여 다음 프레임을 요청하는 과정을 반복하여 비디오의 마지막 프레임까지의 처리를 완료할 수 있다. 여기서, 표준 플러그인 API 방식에 기반하여 탑재되는 검출 알고리즘 각각은 검출 대상에 따라 텍스트 검출 알고리즘 및 인물 검출 알고리즘으로 구분될 수 있다. 달리 말해, 개인식별정보 검출 장치(100)는 텍스트 검출 플러그인 및 인물 검출 플러그인을 보유할 수 있다.Specifically, referring to FIG. 5 , job information related to detection of personal identification information may be generated, and plug-in execution management may be performed by a job scheduler. Here, the job scheduler allocates a predetermined surgical video (1) to the personal identification information detecting device 100, decodes the bit stream of the inputted surgical video (1), and the personal identification information detecting device ( 100) It can be delivered through standard API to each of my plugins. Each plug-in that receives the decoded frame returns the processing result using the callback function defined by the standard API, and when all plug-ins have completed processing the current frame, the plug-in execution manager (Plug-In Execution) Manager) may repeat the process of requesting the next frame from the input stream handler to complete processing up to the last frame of the video. Here, each of the detection algorithms mounted based on the standard plug-in API method may be divided into a text detection algorithm and a person detection algorithm according to a detection target. In other words, the apparatus 100 for detecting personal identification information may include a text detection plug-in and a person detection plug-in.

도 6은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치의 개략적인 구성도이다.6 is a schematic configuration diagram of an apparatus for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.

도 6을 참조하면, 개인식별정보 검출 장치(100)는, 장면 분할부(110), 장면 분류부(120), 객체 검출부(130), 인덱싱부(140), 저장부(150) 및 비식별화부(160)를 포함할 수 있다. 또한, 도 6을 참조하면, 객체 검출부(130)는 텍스트 검출부(131) 및 인물 검출부(132)를 포함할 수 있다.Referring to FIG. 6 , the apparatus 100 for detecting personal identification information includes a scene division unit 110 , a scene classification unit 120 , an object detection unit 130 , an indexing unit 140 , a storage unit 150 , and non-identification. A flower unit 160 may be included. Also, referring to FIG. 6 , the object detection unit 130 may include a text detection unit 131 and a person detection unit 132 .

장면 분할부(110)는, 각각이 소정의 프레임을 포함하는 복수의 장면으로 입력된 수술 동영상(1)을 분할할 수 있다.The scene dividing unit 110 may divide the input surgery video 1 into a plurality of scenes, each of which includes a predetermined frame.

장면 분류부(120)는, 분할된 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류할 수 있다.The scene classification unit 120 may classify the plurality of divided scenes into an in-vitro scene and an in-vitro shooting scene.

객체 검출부(130)는, 입력된 수술 동영상(1)의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출할 수 있다.The object detection unit 130 may detect an object including a text and a person corresponding to a personal identification information candidate requiring de-identification for each frame of the inputted surgical video 1 .

구체적으로, 텍스트 검출부(131)는, 체내 촬영 장면 및 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출할 수 있다. 또한, 본원의 일 실시예에 따르면, 텍스트 검출부(131)는, 광학 문자 판독 장치(Optical Character Reader, OCR)와 연계된 플러그인 형태로 구비될 수 있다. 또한, 텍스트 검출부(131)는 광학 문자 판독 장치(Optical Character Reader, OCR)에 기초하여 기 설정된 소정 길이 이상의 문자열이 탐지되면 텍스트가 검출된 것으로 판단할 수 있다.Specifically, the text detection unit 131 may detect a text with respect to a frame included in an in-body image capture scene and an in-vitro image capture scene. Also, according to an exemplary embodiment of the present disclosure, the text detection unit 131 may be provided in the form of a plug-in linked to an optical character reader (OCR). Also, the text detection unit 131 may determine that the text is detected when a character string having a predetermined length or longer is detected based on an optical character reader (OCR).

또한, 인물 검출부(132)는, 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출할 수 있다. 또한, 본원의 일 실시예에 따르면, 인물 검출부(132)는, 딥러닝 기반의 인공지능 모델과 연계된 플러그인 형태로 구비될 수 있다. 또한, 인물 검출부(132)는, 딥러닝 기반의 인공지능 모델에 기초하여 환자 또는 의료진을 포함하는 인물의 신체 일부가 탐지되면 인물이 검출된 것으로 판단할 수 있다.Also, the person detection unit 132 may detect a person with respect to a frame included in an in vitro photographing scene. In addition, according to an embodiment of the present application, the person detection unit 132 may be provided in the form of a plug-in linked to a deep learning-based artificial intelligence model. Also, the person detection unit 132 may determine that the person is detected when a body part of a person including a patient or medical staff is detected based on a deep learning-based artificial intelligence model.

인덱싱부(140)는, 객체 검출부(130)에 의해 개인식별정보 후보에 해당하는 객체가 검출되면, 해당 객체가 검출된 프레임의 프레임 번호 및 해당 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성할 수 있다.When an object corresponding to the personal identification information candidate is detected by the object detection unit 130, the indexing unit 140 generates index information including a frame number of a frame in which the corresponding object is detected and a time code associated with the corresponding frame. can do.

저장부(150)는, 인덱스 정보를 수술 동영상(1)과 연계된 메타데이터로 매칭하여 해당 수술 동영상(1)을 인덱스 정보와 함께 저장할 수 있다. 또한, 본원의 일 실시예에 따르면, 개인식별정보 검출 장치(100)는 저장부(150)와 연계하여 통합 관리 서버(200)로 저장된 수술 동영상(1) 및 해당 수술 동영상(1)에 대하여 매칭된 인덱스 정보를 전송하는 전송부(미도시)를 포함할 수 있다.The storage unit 150 may match the index information with metadata associated with the operation video 1 and store the operation video 1 together with the index information. In addition, according to an embodiment of the present application, the apparatus 100 for detecting personal identification information matches the operation video 1 and the operation video 1 stored in the integrated management server 200 in connection with the storage unit 150 . It may include a transmitter (not shown) for transmitting the index information.

비식별화부(160)는, 인덱스 정보에 기초하여 해당 인덱스 정보와 매칭된 수술 동영상(1)에 등장한 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행할 수 있다.The de-identification unit 160 may de-identify at least some of the personal identification information candidates appearing in the surgery video 1 matched with the index information based on the index information.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 7은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 대한 동작 흐름도이다.7 is an operation flowchart of a method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.

도 7에 도시된 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은 앞서 설명된 개인식별정보 검출 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 개인식별정보 검출 장치(100)에 대하여 설명된 내용은 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of detecting personal identification information for de-identification of the surgical video shown in FIG. 7 may be performed by the apparatus 100 for detecting personal identification information described above. Therefore, even if omitted below, the description of the personal identification information detecting apparatus 100 may be equally applied to the description of the personal identification information detecting method for de-identification of a surgical video.

도 7을 참조하면, 단계 S710에서 장면 분할부(110)는 각각이 소정의 프레임을 포함하는 복수의 장면으로 입력된 수술 동영상(1)을 분할할 수 있다.Referring to FIG. 7 , in step S710 , the scene dividing unit 110 may divide the input surgery video 1 into a plurality of scenes each including a predetermined frame.

다음으로, 단계 S720에서 장면 분류부(120)는 분할된 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류할 수 있다.Next, in step S720 , the scene classification unit 120 may classify the plurality of divided scenes into an in-vitro scene and an in-vitro shooting scene.

다음으로, 단계 S730에서 객체 검출부(130)는 입력된 수술 동영상(1)의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출할 수 있다.Next, in step S730, the object detection unit 130 may detect an object including a text and a person corresponding to a personal identification information candidate that needs to be de-identified for each frame of the input operation video 1 .

구체적으로, 단계 S730에서 텍스트 검출부(131)는, 체내 촬영 장면 및 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출할 수 있다. 또한, 단계 S730에서 인물 검출부(132)는, 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출할 수 있다.Specifically, in operation S730 , the text detection unit 131 may detect a text with respect to a frame included in an in-body photographing scene and an in-vitro photographing scene. Also, in step S730 , the person detection unit 132 may detect a person with respect to a frame included in the in vitro photographing scene.

다음으로, 단계 S740에서 인덱싱부(140)는 개인식별정보 후보에 해당하는 객체가 검출되면, 해당 객체가 검출된 프레임의 프레임 번호 및 해당 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성할 수 있다.Next, when an object corresponding to the personal identification information candidate is detected in step S740, the indexing unit 140 may generate index information including a frame number of a frame in which the corresponding object is detected and a time code associated with the corresponding frame. there is.

다음으로, 단계 S750에서 저장부(150)는 인덱스 정보를 수술 동영상(1)과 연계된 메타데이터로 매칭하여 해당 수술 동영상(1)을 인덱스 정보와 함께 저장할 수 있다.Next, in step S750, the storage unit 150 may match the index information with metadata associated with the operation video 1 and store the operation video 1 together with the index information.

다음으로, 단계 S760에서 비식별화부(160)는 인덱스 정보에 기초하여 해당 인덱스 정보와 매칭된 수술 동영상(1)에 등장한 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행할 수 있다.Next, in step S760, the de-identification unit 160 may perform de-identification of at least some of the personal identification information candidates appearing in the operation video 1 matched with the index information based on the index information.

상술한 설명에서, 단계 S710 내지 S760은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S710 to S760 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

도 8은 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법과 연계된 일 실험예로서 복수의 샘플 수술 동영상에 대한 인덱싱 처리 속도 측정 결과를 나타낸 도표이다.8 is a chart showing the indexing processing speed measurement results for a plurality of sample surgical videos as an experimental example linked to a method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application.

도 8을 참조하면, 작업 속도 측면을 고려하여 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 의하여 육안 검사에 의한 방법을 대체 가능한 수준인지를 판단할 수 있다. 특히, 정지 영상과 다르게 수술 동영상은 전술한 바와 같이 적게는 수십 분 분량, 많게는 수 시간 분량의 연속된 프레임으로 이루어지고, 이러한 원시 상태의 수술 동영상을 사용자 요구에 따라 적시에 비식별화하여 제공 가능해야 하는데, 이와 관련하여 본원의 발명자는 공개된 의료용 비디오 데이터셋인 m2cai16-tool 데이터 셋에 대하여 인물과 텍스트를 임의로 조합한 비디오 10건을 순차 입력하여 평균 소요시간을 산출하였다. 여기서, 소요 시간은 각 입력의 첫 프레임으로부터 마지막 프레임의 처리가 완료될 때까지의 소요된 시간을 초 단위로 측정하였으며, 처리 속도는 비디오 샘플의 길이(달리 말해, 재생 시간)을 소요 시간으로 나누어 처리 속도(배속)으로 산출된 것이다. 이렇게 산출된 처리 속도(배속)가 1보다 큰 값을 가질수록 비디오 샘플 각각의 재생 시간 대비 빠른 속도로 처리를 완료하였다고 판단할 수 있다.Referring to FIG. 8 , it can be determined whether the method by visual inspection can be replaced by the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application in consideration of the operation speed. In particular, unlike still images, a surgical video consists of continuous frames of at least several tens of minutes and at most several hours as described above, and it is possible to de-identify and provide such raw surgical video in a timely manner according to user needs. In this regard, the inventor of the present application sequentially input 10 videos in which characters and texts are arbitrarily combined with respect to the m2cai16-tool data set, which is an open medical video data set, and calculates the average required time. Here, the required time is measured in seconds from the first frame of each input until the processing of the last frame is completed, and the processing speed is obtained by dividing the length of the video sample (in other words, playback time) by the required time. It is calculated as the processing speed (double speed). As the calculated processing speed (double speed) has a value greater than 1, it may be determined that the processing is completed at a faster speed than the playback time of each video sample.

구체적으로, 도 8을 참조하면, 본원의 일 실시예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 의할 때 평균적으로 485.4초 분량의 입력 비디오에 대하여 평균 217.2초가 소요되어 평균 2.18배속으로 처리를 완료할 수 있음을 확인할 수 있다. 전술한 육안 검사의 경우 전체 프레임을 검수자가 직접 일일이 확인해야 하므로 비디오의 재생 시간 이상의 작업시간을 요함을 가정할 수 있으며, 이러한 육안 검사 방식의 경우 1배속 이하의 작업 속도를 보인다. 따라서 본원에 의할 때 수술 동영상에 포함된 비식별화의 대상이 될 수 있을 것으로 평가되는 개인식별정보 후보에 자동화된 검출 및 검출 결과에 대한 인덱싱을 매우 효과적으로 빠르게 수행할 수 있음을 확인할 수 있다.Specifically, referring to FIG. 8 , according to the method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application, it takes an average of 217.2 seconds for an input video of 485.4 seconds on average, so an average of 2.18 seconds It can be confirmed that processing can be completed at double speed. In the case of the above-mentioned visual inspection, since the inspector has to check the entire frame one by one, it can be assumed that more than the playback time of the video is required, and this visual inspection method shows a working speed of 1x or less. Therefore, it can be confirmed that, according to the present application, automated detection and indexing of the detection results can be performed very effectively and quickly on the personally identifiable information candidates that are evaluated to be targets of de-identification included in the surgical video.

본원의 일 실시 예에 따른 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for detecting personal identification information for de-identification of a surgical video according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the method for detecting personal identification information for de-identification of the above-described surgical video may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

10: 수술 동영상 비식별화 시스템
100: 수술 동영상의 비식별화를 위한 개인식별정보 검출 장치
110: 장면 분할부
120: 장면 분류부
130: 객체 검출부
131: 텍스트 검출부
132: 인물 검출부
140: 인덱싱부
150: 저장부
160: 비식별화부
20: 네트워크
200: 통합 관리 서버
300: 검수자 단말
400: 사용자 단말
10: Surgical video de-identification system
100: Personal identification information detection device for de-identification of surgical video
110: scene division
120: scene classification unit
130: object detection unit
131: text detection unit
132: person detection unit
140: indexing unit
150: storage
160: de-identification unit
20: network
200: integrated management server
300: inspector terminal
400: user terminal

Claims (15)

수술 동영상의 비식별화를 위한 개인식별정보 검출 장치에 의해 수행되는 수술 동영상의 비식별화를 위한 개인식별정보 검출 방법에 있어서,
입력된 수술 동영상의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출하는 단계; 및
상기 객체가 검출되면, 상기 객체가 검출된 프레임의 프레임 번호 및 상기 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성하는 단계,
를 포함하고,
상기 객체를 검출하는 단계 이전에,
각각이 소정의 프레임을 포함하는 복수의 장면으로 상기 수술 동영상을 분할하는 단계; 및
분할된 상기 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 단계,
를 더 포함하고,
상기 객체를 검출하는 단계는,
상기 장면의 분류 결과를 고려하여 상기 프레임 각각에 대한 개인식별정보 후보의 탐색 유형을 상이하게 적용하는 것이고,
상기 개인식별정보 후보는,
상기 체외 촬영 장면으로 분류된 프레임에 대하여 상기 인물을 포함하고, 상기 체내 촬영 장면으로 분류된 프레임에 대하여 상기 인물을 미포함하는 것을 특징으로 하는, 개인식별정보 검출 방법.
In the method for detecting personal identification information for de-identification of a surgical video performed by a personal identification information detection device for de-identification of a surgical video,
detecting an object including text and a person corresponding to a personal identification information candidate requiring de-identification for each frame of the inputted surgical video; and
generating index information including a frame number of a frame in which the object is detected and a time code associated with the frame when the object is detected;
including,
Prior to the step of detecting the object,
dividing the operation video into a plurality of scenes each including a predetermined frame; and
classifying the divided scenes into an in-vitro scene and an in-vitro scene;
further comprising,
Detecting the object comprises:
In consideration of the classification result of the scene, the search type of the personal identification information candidate for each of the frames is applied differently,
The personally identifiable information candidates are:
The method for detecting personal identification information, characterized in that the person is included in the frame classified as the in vitro shot scene, and the person is not included in the frame classified as the in vivo shot scene.
삭제delete 제1항에 있어서,
상기 분할하는 단계는,
상기 수술 동영상의 프레임 각각에 대하여 RGB 채널별로 기 설정된 가중치에 기초하여 결정되는 색상 정보 및 Kirsch 에지 검출기에 기초하여 결정되는 지역 방향 패턴 정보에 기초하여 상기 수술 동영상을 분할하는 것인, 개인식별정보 검출 방법.
According to claim 1,
The dividing step is
For each frame of the surgery video, the surgical video is divided based on color information determined based on a weight preset for each RGB channel and regional direction pattern information determined based on a Kirsch edge detector, personal identification information detection Way.
제3항에 있어서,
상기 분할하는 단계는,
기 설정된 복수의 특징 각각에 대응하는 프레임별 히스토그램에 기초하여 상기 수술 동영상의 인접 프레임 간의 거리 차이를 계산하는 단계; 및
계산된 상기 거리 차이와 기 설정된 임계값을 비교하여 상기 수술 동영상에 포함된 프레임들 중 장면 경계 프레임을 결정하는 단계,
를 포함하는 것인, 개인식별정보 검출 방법.
4. The method of claim 3,
The dividing step is
calculating a distance difference between adjacent frames of the surgical video based on a histogram for each frame corresponding to each of a plurality of preset features; and
determining a scene boundary frame among frames included in the surgical video by comparing the calculated distance difference with a preset threshold;
That comprising a, personally identifiable information detection method.
제1항에 있어서,
상기 객체를 검출하는 단계는,
상기 체내 촬영 장면 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출하는 단계; 및
상기 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출하는 단계,
를 포함하는 것인, 개인식별정보 검출 방법.
According to claim 1,
Detecting the object comprises:
detecting texts with respect to frames included in the in-body imaged scene and the in-vitro imaged scene; and
detecting a person with respect to a frame included in the in vitro photographing scene;
That comprising a, personally identifiable information detection method.
제5항에 있어서,
상기 텍스트를 검출하는 단계는,
광학 문자 판독 장치(Optical Character Reader, OCR)에 기초하여 기 설정된 소정 길이 이상의 문자열이 탐지되면 상기 텍스트가 검출된 것으로 판단하는 것인, 개인식별정보 검출 방법.
6. The method of claim 5,
Detecting the text includes:
When a character string of a predetermined length or longer is detected based on an optical character reader (OCR), it is determined that the text is detected.
제5항에 있어서,
상기 인물을 검출하는 단계는,
딥러닝 기반의 인공지능 모델에 기초하여 환자 또는 의료진을 포함하는 인물의 신체 일부가 탐지되면 상기 인물이 검출된 것으로 판단하는 것인, 개인식별정보 검출 방법.
6. The method of claim 5,
The step of detecting the person is
When a body part of a person, including a patient or medical staff, is detected based on a deep learning-based artificial intelligence model, it is determined that the person is detected.
제1항에 있어서,
상기 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 단계는,
분할된 상기 복수의 장면 각각의 색상(Hue), 채도(Saturation) 및 밝기(Intensity)에 기초하여 각각의 상기 장면을 상기 체내 촬영 장면 및 상기 체외 촬영 장면 중 어느 하나로 결정하는 단계를 포함하는 것인, 개인식별정보 검출 방법.
According to claim 1,
The step of classifying the scene taken inside the body and the scene taken outside the body,
Determining each of the scenes as one of the in-vitro scene and the in-vitro shooting scene based on the divided hue, saturation, and intensity of each of the plurality of scenes. , methods of detecting personally identifiable information.
제1항에 있어서,
상기 인덱스 정보를 상기 수술 동영상과 연계된 메타데이터로 매칭하여 상기 수술 동영상을 상기 인덱스 정보와 함께 기 설정된 스토리지에 저장하는 단계,
를 더 포함하는 것인, 개인식별정보 검출 방법.
According to claim 1,
Matching the index information with metadata associated with the surgery video and storing the surgery video together with the index information in a preset storage;
Which will further include, personally identifiable information detection method.
제9항에 있어서,
상기 인덱스 정보에 기초하여 상기 수술 동영상에 등장한 상기 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행하는 단계를 더 포함하는 것인, 개인식별정보 검출 방법.
10. The method of claim 9,
The method of detecting personal identification information further comprising the step of de-identifying at least some of the personal identification information candidates that appeared in the operation video based on the index information.
수술 동영상의 비식별화를 위한 개인식별정보 검출 장치에 있어서,
각각이 소정의 프레임을 포함하는 복수의 장면으로 상기 수술 동영상을 분할하는 장면 분할부;
분할된 상기 복수의 장면을 체내 촬영 장면 및 체외 촬영 장면으로 분류하는 장면 분류부;
입력된 수술 동영상의 프레임 각각에 대하여 비식별화가 필요한 개인식별정보 후보에 해당하는 텍스트 및 인물을 포함하는 객체를 검출하는 객체 검출부; 및
상기 객체가 검출되면, 상기 객체가 검출된 프레임의 프레임 번호 및 상기 프레임과 연계된 타임 코드를 포함하는 인덱스 정보를 생성하는 인덱싱부,
를 포함하고,
상기 객체 검출부는,
상기 장면의 분류 결과를 고려하여 상기 프레임 각각에 대한 개인식별정보 후보의 탐색 유형을 상이하게 적용하고,
상기 개인식별정보 후보는,
상기 체외 촬영 장면으로 분류된 프레임에 대하여 상기 인물을 포함하고, 상기 체내 촬영 장면으로 분류된 프레임에 대하여 상기 인물을 미포함하는 것을 특징으로 하는, 개인식별정보 검출 장치.
In the device for detecting personal identification information for de-identification of surgical video,
a scene division unit for dividing the surgical video into a plurality of scenes each including a predetermined frame;
a scene classification unit for classifying the divided scenes into an in-vitro scene and an in-vitro scene;
an object detection unit for detecting an object including text and a person corresponding to a personal identification information candidate requiring de-identification for each frame of the input surgery video; and
when the object is detected, an indexing unit generating index information including a frame number of a frame in which the object is detected and a time code associated with the frame;
including,
The object detection unit,
Differently apply the search type of the personal identification information candidate for each frame in consideration of the classification result of the scene,
The personally identifiable information candidates are:
The apparatus for detecting personal identification information, wherein the person is included in the frame classified as the in-vitro photographed scene, and the person is not included in the frame classified as the in-body photographed scene.
제11항에 있어서,
상기 장면 분할부는,
기 설정된 복수의 특징 각각에 대응하는 프레임별 히스토그램에 기초하여 상기 수술 동영상의 인접 프레임 간의 거리 차이를 계산하고, 계산된 상기 거리 차이와 기 설정된 임계값을 비교하여 상기 수술 동영상에 포함된 프레임들 중 장면 경계 프레임을 결정하는 것인, 개인식별정보 검출 장치.
12. The method of claim 11,
The scene division unit,
A distance difference between adjacent frames of the surgery video is calculated based on a histogram for each frame corresponding to each of a plurality of preset features, and the calculated distance difference is compared with a preset threshold value among the frames included in the surgery video. Determining a scene boundary frame, personally identifiable information detection device.
제11항에 있어서,
상기 객체 검출부는,
상기 체내 촬영 장면 및 상기 체외 촬영 장면에 포함되는 프레임에 대하여 텍스트를 검출하는 텍스트 검출부; 및
상기 체외 촬영 장면에 포함되는 프레임에 대하여 인물을 검출하는 인물 검출부,
를 포함하는 것인, 개인식별정보 검출 장치.
12. The method of claim 11,
The object detection unit,
a text detection unit configured to detect a text with respect to a frame included in the in-body photographing scene and the in vitro photographing scene; and
a person detection unit for detecting a person with respect to a frame included in the in vitro photographing scene;
That comprising a, personally identifiable information detection device.
제13항에 있어서,
상기 텍스트 검출부는, 광학 문자 판독 장치(Optical Character Reader, OCR)와 연계된 플러그인 형태로 구비되고,
상기 인물 검출부는, 딥러닝 기반의 인공지능 모델과 연계된 플러그인 형태로 구비되는 것을 특징으로 하는, 개인식별정보 검출 장치.
14. The method of claim 13,
The text detection unit is provided in the form of a plug-in linked to an optical character reader (OCR),
The person detection unit, the personal identification information detection device, characterized in that provided in the form of a plug-in linked to a deep learning-based artificial intelligence model.
제13항에 있어서,
상기 인덱스 정보를 상기 수술 동영상과 연계된 메타데이터로 매칭하여 상기 수술 동영상을 상기 인덱스 정보와 함께 저장하는 저장부; 및
상기 인덱스 정보에 기초하여 상기 수술 동영상에 등장한 상기 개인식별정보 후보 중 적어도 일부에 대한 비식별화를 수행하는 비식별화부,
를 더 포함하는 것인, 개인식별정보 검출 장치.
14. The method of claim 13,
a storage unit that matches the index information with metadata associated with the surgery video and stores the surgery video together with the index information; and
A de-identification unit that de-identifies at least some of the personal identification information candidates appearing in the operation video based on the index information;
Which will further include, personally identifiable information detection device.
KR1020190174761A 2019-12-26 2019-12-26 Apparatus and method for detecting personal identification information for surgical video de-identification KR102386497B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190174761A KR102386497B1 (en) 2019-12-26 2019-12-26 Apparatus and method for detecting personal identification information for surgical video de-identification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190174761A KR102386497B1 (en) 2019-12-26 2019-12-26 Apparatus and method for detecting personal identification information for surgical video de-identification

Publications (2)

Publication Number Publication Date
KR20210082630A KR20210082630A (en) 2021-07-06
KR102386497B1 true KR102386497B1 (en) 2022-04-14

Family

ID=76860761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190174761A KR102386497B1 (en) 2019-12-26 2019-12-26 Apparatus and method for detecting personal identification information for surgical video de-identification

Country Status (1)

Country Link
KR (1) KR102386497B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102569379B1 (en) * 2021-12-17 2023-08-23 (주)넷비젼텔레콤 De-identification processing system and method of data based on specific image search
KR102641628B1 (en) * 2022-08-05 2024-02-29 주식회사 노타 Method and system for providing service using segmented deep learning model
KR102533512B1 (en) * 2022-11-17 2023-05-18 (주)에이아이딥 Personal information object detection method and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981583B1 (en) * 2017-02-27 2019-05-23 재단법인 아산사회복지재단 method for Information processing in medical images
KR20190126587A (en) * 2018-05-02 2019-11-12 재단법인 아산사회복지재단 Medical Image De-Identification System, Method and Computer Readable Recording Medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
조영탁 외, 셋톱박스 품질검사를 위한 개선된 지역 방향 패턴(eLDP) 기반의 비디오 샷 경계 검출, 한국정보처리학회 2017년 추계학술발표대회 논문집, 2017.11.01., Vol.24, No.2, pp957-960.*

Also Published As

Publication number Publication date
KR20210082630A (en) 2021-07-06

Similar Documents

Publication Publication Date Title
KR102386497B1 (en) Apparatus and method for detecting personal identification information for surgical video de-identification
Hu et al. Brain MR to PET synthesis via bidirectional generative adversarial network
US20180279943A1 (en) System and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions
WO2018084071A1 (en) Diagnostic imaging assistance device and system, and diagnostic imaging assistance method
CN113168922A (en) System and method for tracking, accessing and consolidating protected health information
Nair et al. Multi-modal medical image fusion using lmf-gan-a maximum parameter infusion technique
CN112074841A (en) System and method for automatically detecting and segmenting vertebral bodies in 3D images
WO2019143228A1 (en) Method and device for predicting chronic lung disease by using fractal dimension value
Peter Soosai Anandaraj et al. Internet of medical things (iomt) enabled skin lesion detection and classification using optimal segmentation and restricted Boltzmann machines
Al-Turjman Towards smart ehealth in the ultra large-scale internet of things era
Lu et al. Lumbar spine segmentation method based on deep learning
Ahmed et al. DOLG-NeXt: Convolutional neural network with deep orthogonal fusion of local and global features for biomedical image segmentation
Fu et al. M3ResU-Net: a deep residual network for multi-center colorectal polyp segmentation based on multi-scale learning and attention mechanism
US11454631B2 (en) Cancer detection using biopsy digital images
KR102603177B1 (en) System for spatial normalization of image, quantification using spatial normalization and method thereof
KR102659323B1 (en) Masking method and system for building medical image data for artificial intelligence learning
Ramamurthy et al. A novel two‐staged network for skin disease detection using atrous residual convolutional networks
EP4364104A1 (en) Protection of personally identifiable content in a video stream generated by an imaging device during a medical procedure
Roopa et al. Segmentation of X-ray image using city block distance measure
KR101534272B1 (en) Method for managing medical image data
Popescu et al. Detection of small tumors of the brain using medical imaging
Fischer et al. Enhanced diagnostic fidelity in pathology whole slide image compression via deep learning
US11756207B2 (en) Apparatus and method for lesion analysis based on marginal feature
Abbas et al. Novel computer aided diagnostic system using synergic deep learning technique for early detection of pancreatic cancer
KR20180006120A (en) Optimized Image Segmentation Methods and System with DL and PDE

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant