KR20200088236A - Trackable de-identification method, apparatus and system - Google Patents
Trackable de-identification method, apparatus and system Download PDFInfo
- Publication number
- KR20200088236A KR20200088236A KR1020200004953A KR20200004953A KR20200088236A KR 20200088236 A KR20200088236 A KR 20200088236A KR 1020200004953 A KR1020200004953 A KR 1020200004953A KR 20200004953 A KR20200004953 A KR 20200004953A KR 20200088236 A KR20200088236 A KR 20200088236A
- Authority
- KR
- South Korea
- Prior art keywords
- identification
- data
- information
- database
- area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Abstract
Description
본 발명은 추적 가능한 비식별화 방법, 장치 및 시스템에 관한 것으로, 보다 구체적으로는 객체 식별 정보의 비식별화 및 객체 추적이 동시에 가능한 방법, 장치 및 시스템에 관한 것이다.The present invention relates to a trackable de-identification method, apparatus, and system, and more particularly, to a method, apparatus, and system capable of simultaneously de-identifying and tracking object identification information.
사물인터넷(Internet of Things; IoT) 기기를 통해 수집한 데이터의 비식별화 기술은 다수의 사물 센서를 통해 수집되고 공유되는 데이터의 개인정보 유출을 방지하기 위해 수집된 원본 데이터를 비식별화 처리하는 기술이다. 이러한 비식별화 기술은 영상, 음성 등의 원본 데이터로부터 개인을 식별할 수 있는 요소를 제거해 프라이버시 침해를 방지하고, 기밀성이 보장되는 이점이 있다.The de-identification technology of the data collected through the Internet of Things (IoT) device is to process the de-identification of the original data collected to prevent the leakage of personal information of data collected and shared through a number of things sensors. Technology. This de-identification technology has the advantage of preventing privacy infringement by removing elements that can identify individuals from original data such as video and audio, and ensuring confidentiality.
그러나, 기존의 비식별화 기술의 일부는 원본의 복원이 가능하기 때문에 보안성이 약하고, 원본의 복원이 원천적으로 불가능한 비식별화 기술은 객체와 관련된 모든 정보를 익명화함으로써 어떤 정보도 남지 않아 빅데이터로의 이용 가능성이 제한되는 한계가 있다.However, some of the existing de-identification technology has weak security because it is possible to restore the original, and the non-identification technology, which is not possible to restore the original, is anonymized all the information related to the object, so no information remains and big data is not left. There is a limit to the availability of furnaces.
본 발명은 위와 같은 문제점을 해결하기 위하여, 원본 데이터에 대하여 비식별화 기술 및 객체 추적 기술을 동시에 적용하여 보안성뿐만 아니라 데이터 활용 가능성을 향상시키는 추적 가능한 비식별화 방법, 장치 및 시스템을 제공하고자 한다.In order to solve the above problems, the present invention is to provide a traceable de-identification method, apparatus, and system that simultaneously improves security as well as data utilization by applying de-identification technology and object tracking technology to original data simultaneously. do.
일 실시예에 따른 추적 가능한 비식별화 방법은, 객체 식별 정보를 포함하는 원본 데이터를 수신하는 단계; 상기 원본 데이터로부터 상기 객체 식별 정보를 비식별화하여 비식별화 데이터를 생성하는 단계; 상기 원본 데이터 및 상기 비식별화 데이터를 데이터베이스에 저장하는 단계; 및 상기 비식별화 데이터를 기초로 상기 객체를 추적하는 단계;를 포함한다.A traceable de-identification method according to an embodiment includes receiving original data including object identification information; Generating non-identification data by de-identifying the object identification information from the original data; Storing the original data and the de-identification data in a database; And tracking the object based on the de-identification data.
상기 비식별화 데이터를 생성하는 단계는, 비식별화 하고자 하는 상기 객체를 인식하는 단계; 상기 객체 식별 정보로부터 객체의 특징 정보를 추출하는 단계; 및 상기 객체에 식별자(Identifier; ID)를 할당하여 상기 비식별화 데이터를 생성하는 단계;를 포함할 수 있다.The generating of the de-identification data may include: recognizing the object to be de-identified; Extracting feature information of an object from the object identification information; And generating the de-identification data by allocating an identifier (ID) to the object.
상기 데이터베이스는 제1 데이터베이스 및 제2 데이터베이스를 포함하고, 상기 원본 데이터 및 상기 비식별화 데이터를 데이터베이스에 저장하는 단계는, 상기 객체의 특징 정보 및 상기 식별자를 상기 제1 데이터베이스에 저장하는 단계; 및 상기 원본 데이터를 암호화 처리하여 상기 제2 데이터베이스에 저장하는 단계;를 포함할 수 있다.The database includes a first database and a second database, and storing the original data and the de-identification data in a database comprises: storing characteristic information of the object and the identifier in the first database; And encrypting and processing the original data in the second database.
상기 원본 데이터는 영상 데이터를 포함하고, 상기 비식별화 데이터를 생성하는 단계는, 상기 영상 데이터로부터 고정 영역, 및 상기 객체가 이동하는 영역을 포함하는 비식별화 영역을 구분하는 단계; 상기 비식별화 영역에 대하여 상기 이동하는 객체의 픽셀을 검출하는 단계; 및 상기 검출한 픽셀에 상기 식별자를 할당하여 상기 비식별화 데이터를 생성하는 단계;를 포함할 수 있다.The original data includes image data, and the step of generating the de-identification data includes: distinguishing a de-identification region including a fixed region from the image data and a region in which the object moves; Detecting pixels of the moving object with respect to the de-identification area; And generating the de-identification data by allocating the identifier to the detected pixel.
상기 원본 데이터는 음성 데이터를 포함하고, 상기 비식별화 데이터를 생성하는 단계는, 상기 음성 데이터의 문맥을 기초로 상기 객체 식별 정보를 포함하는 비식별화 영역을 선택하는 단계; 상기 음성 데이터로부터 상기 비식별화 영역을 제거하는 단계; 및 상기 비식별화 영역이 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하는 단계;를 포함할 수 있다.The original data includes voice data, and the generating of the de-identification data comprises: selecting a de-identification area including the object identification information based on the context of the voice data; Removing the de-identification area from the voice data; And inserting a sound different from the existing sound of the voice data into the area where the non-identification area is removed.
상기 객체를 추적하는 단계는, 상기 비식별화 데이터, 상기 특징 정보 및 상기 식별자를 이용하여 상기 객체의 이동 정보를 분석하는 단계를 포함할 수 있다.The tracking of the object may include analyzing movement information of the object using the de-identification data, the feature information, and the identifier.
상기 원본 데이터를 수신하는 단계에서, 상기 원본 데이터는 제1 사물인터넷 기기를 포함하는 복수의 사물인터넷 기기로부터 수신되고, 상기 추적 가능한 비식별화 방법은, 사용자가 사용자 장치를 이용하여 상기 제1 사물인터넷 기기에 필요한 정보를 요청하는 단계; 상기 사용자의 요청에 따라 상기 제1 사물인터넷 기기를 제외한 사물인터넷 기기를 포함하는 주변 기기를 탐색하는 단계; 상기 주변 기기로부터 상기 비식별화 데이터를 수신하는 단계; 및 상기 비식별화 데이터를 기초로 상기 사용자 장치에 응답하는 단계;를 더 포함할 수 있다.In the step of receiving the original data, the original data is received from a plurality of Internet of Things devices including a first Internet of Things device, and the trackable de-identification method comprises: a user using the user device as the first object Requesting information necessary for the Internet device; Searching for a peripheral device including an IoT device excluding the first IoT device according to the user's request; Receiving the de-identification data from the peripheral device; And responding to the user device based on the de-identification data.
일 실시예에 따른 추적 가능한 비식별화 장치는, 객체 식별 정보를 포함하는 원본 데이터를 수신하는 통신부; 상기 원본 데이터로부터 생성한 비식별화 데이터를 이용하여 객체를 추적하도록 동작하는 제어부; 및 상기 원본 데이터 및 상기 비식별화 데이터가 저장되는 데이터베이스를 포함하는 메모리;를 포함하고, 상기 제어부는, 상기 원본 데이터로부터 상기 객체 식별 정보를 비식별화하여 상기 비식별화 데이터를 생성하는 비식별화 엔진; 및 상기 비식별화 데이터를 기초로 상기 객체를 추적하는 추적 엔진;을 포함한다.A traceable de-identification apparatus according to an embodiment includes: a communication unit receiving original data including object identification information; A control unit operable to track an object using de-identification data generated from the original data; And a memory including a database in which the original data and the de-identification data are stored; and wherein the controller de-identifies the object identification information from the original data to generate the de-identification data. Angry engine; And a tracking engine that tracks the object based on the de-identification data.
상기 비식별화 엔진은, 비식별화 하고자 하는 상기 객체를 인식하는 객체 인식부; 상기 객체 식별 정보로부터 객체의 특징 정보를 추출하는 특징 검출부; 상기 객체에 식별자(Identifier; ID)를 할당하여 상기 비식별화 데이터를 생성하는 생성부; 및 상기 데이터베이스에 상기 원본 데이터 및 상기 비식별화 데이터를 저장하는 처리부;를 포함할 수 있다.The de-identification engine includes: an object recognition unit that recognizes the object to be de-identified; A feature detector for extracting feature information of the object from the object identification information; A generator configured to generate the de-identification data by allocating an identifier (ID) to the object; And a processing unit that stores the original data and the de-identification data in the database.
상기 데이터베이스는 제1 데이터베이스 및 제2 데이터베이스를 포함하고, 상기 처리부는, 상기 객체의 특징 정보 및 상기 식별자를 상기 제1 데이터베이스에 저장하고, 상기 원본 데이터를 암호화 처리하여 상기 제2 데이터베이스에 저장할 수 있다.The database includes a first database and a second database, and the processing unit may store characteristic information of the object and the identifier in the first database, and encrypt and store the original data in the second database. .
상기 원본 데이터는 영상 데이터를 포함하고, 상기 비식별화 엔진은 영상 데이터를 비식별화하여 제1 비식별화 데이터를 생성하는 제1 데이터부를 포함하고, 상기 제1 데이터부는, 상기 영상 데이터로부터 고정 영역, 및 상기 객체가 이동하는 영역을 포함하는 비식별화 영역을 구분하고, 상기 비식별화 영역에 대하여 상기 이동하는 객체의 픽셀을 검출하고, 상기 검출한 픽셀에 상기 식별자를 할당하여 상기 제1 비식별화 데이터를 생성할 수 있다.The original data includes image data, and the de-identification engine includes a first data portion that de-identifies the image data to generate first de-identification data, and the first data portion is fixed from the image data. The area and the de-identification area including the area in which the object is moved are distinguished, the pixel of the moving object is detected with respect to the de-identification area, and the identifier is assigned to the detected pixel, thereby generating the De-identification data can be generated.
상기 원본 데이터는 음성 데이터를 포함하고, 상기 비식별화 엔진은 상기 음성 데이터를 비식별화하여 제2 비식별화 데이터를 생성하는 제2 데이터부를 포함하고, 상기 제2 데이터부는, 상기 음성 데이터의 문맥을 기초로 상기 객체 식별 정보를 포함하는 비식별화 영역을 선택하고, 상기 음성 데이터로부터 상기 비식별화 영역을 제거하고, 상기 비식별화 영역이 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하여 상기 제2 비식별화 데이터를 생성할 수 있다.The original data includes voice data, and the de-identification engine includes a second data unit that de-identifies the voice data to generate second de-identification data, and the second data unit includes the voice data. A de-identification area including the object identification information is selected based on context, the de-identification area is removed from the speech data, and an area different from the existing sound of the speech data is removed from the de-identification area. The second de-identification data may be generated by inserting a sound.
상기 추적 엔진은, 상기 비식별화 데이터, 상기 특징 정보 및 상기 식별자를 이용하여 상기 객체의 이동 정보를 분석할 수 있다.The tracking engine may analyze movement information of the object using the de-identification data, the feature information, and the identifier.
일 실시예에 따른 추적 가능한 비식별화 시스템은, 전술한 내용에 따른 추적 가능한 비식별화 장치; 상기 비식별화 장치에 객체 식별 정보를 포함하는 원본 데이터를 전송하는 사물인터넷 기기; 및 상기 사물인터넷 기기에 필요한 정보를 요청하고, 상기 비식별화 장치로부터 상기 객체의 이동 정보를 포함하는 추적 데이터를 수신하는 사용자 장치;를 포함한다.A traceable de-identification system according to an embodiment includes a traceable de-identification device according to the above-described contents; An IoT device transmitting original data including object identification information to the de-identification device; And a user device requesting information required for the IoT device and receiving tracking data including movement information of the object from the de-identification device.
본 발명의 실시예들에 따르면, 원본 데이터에 대하여 비식별화 기술 및 객체 추적 기술을 동시에 적용하여 보안성뿐만 아니라 데이터 활용 가능성이 향상된, 추적 가능한 비식별화 방법, 장치 및 시스템이 제공될 수 있다. According to embodiments of the present invention, a traceable de-identification method, apparatus, and system that improves not only security but also data utilization possibility by simultaneously applying de-identification technology and object tracking technology to original data may be provided. .
도 1은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 비식별화 엔진을 더 구체적으로 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 제1 데이터베이스를 더 구체적으로 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템의 내부망 통신 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템의 외부망 통신 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법을 설명하기 위한 흐름도이다.
도 7은 도 6에 따른 추적 가능한 비식별화 방법 중 일부 단계를 더 구체적으로 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법을 시스템의 관점에서 설명하기 위한 흐름도이다.1 is a diagram schematically showing a traceable de-identification system according to an embodiment of the present invention.
2 is a view more specifically showing a de-identification engine according to an embodiment of the present invention.
3 is a diagram more specifically showing a first database according to an embodiment of the present invention.
4 is a view for explaining an internal network communication method of a traceable de-identification system according to an embodiment of the present invention.
5 is a view for explaining an external network communication method of a traceable de-identification system according to an embodiment of the present invention.
6 is a flowchart illustrating a traceable de-identification method according to an embodiment of the present invention.
7 is a flow chart for explaining in more detail some steps of the traceable de-identification method according to FIG. 6.
8 is a flowchart for explaining a traceable de-identification method according to an embodiment of the present invention from a system perspective.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. The present invention can be applied to various transformations and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention and methods for achieving them will be clarified with reference to embodiments described below in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be given the same reference numerals when describing with reference to the drawings, and redundant description thereof will be omitted. .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following examples, terms such as first and second are not used in a limiting sense, but for the purpose of distinguishing one component from other components. In the following embodiments, the singular expression includes a plural expression unless the context clearly indicates otherwise. In the examples below, terms such as include or have are meant to mean that features or components described in the specification exist, and do not preclude the possibility of adding one or more other features or components. In the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and shape of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to what is illustrated.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be partially or totally combined or combined with each other, and technically various interlocking and driving may be possible as those skilled in the art can fully understand, and each embodiment may be independently implemented with respect to each other. It can also be implemented together as an association.
도 1은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically showing a traceable de-identification system according to an embodiment of the present invention.
도 1을 참조하면, 일 실시예에 따른 추적 가능한 비식별화 시스템은 사물인터넷(Internet of Things; IoT) 기기(100), 통신망(20), 추적 가능한 비식별화 장치(10)(이하, 비식별화 장치(10)로 설명할 수 있다.) 및 사용자 장치(600)를 포함할 수 있다. Referring to FIG. 1, a trackable de-identification system according to an embodiment includes an Internet of Things (IoT)
일 실시예에 따른 추적 가능한 비식별화 시스템은 영상 데이터, 음성 데이터 등을 포함하는 원본 데이터를 대상으로 한 객체 비식별화 및 추적 솔루션일 수 있다. 이러한 도 1은 발명의 설명을 위한 일례로 사물인터넷 기기(100), 비식별화 장치(10) 또는 사용자 장치(600)의 수가 도 1과 같이 한정되는 것은 아니다.The trackable de-identification system according to an embodiment may be an object de-identification and tracking solution targeting original data including video data, audio data, and the like. 1 is not limited to the number of the
사물인터넷 기기(100)는 외부 환경에 대한 원본 데이터를 수집하는 기기로서, 카메라와 마이크를 사용하는 기기를 포함할 수 있다. 사물인터넷 기기(100)는 비식별화 장치(10)와 연결될 수 있다. The IoT
원본 데이터는 비식별화 및 추적의 대상이 되는 객체를 식별할 수 있는 객체 식별 정보를 포함할 수 있다. 객체 식별 정보는 개인을 식별할 수 있는 개인정보 및 민감정보 등을 포함할 수 있으며, 이 외에도 개인을 식별할 수 있는 요소가 포함되는 다양한 정보를 포함할 수 있다.The original data may include object identification information capable of identifying objects to be de-identified and tracked. The object identification information may include personal information and sensitive information capable of identifying an individual, and may include various information including elements for identifying an individual.
일 예로, 영상 데이터를 수집하는 사물인터넷 기기(100)는 CCTV, 블랙박스 등을 포함할 수 있고, 음성 데이터를 수집하는 사물인터넷 기기(100)는 AI 스피커, 녹음기 등을 포함할 수 있다. 사물인터넷 기기(100)는 전술한 바에 한정되지 않으며, 영상 혹은 음성 데이터 둘 중 하나 이상의 데이터를 수집, 저장, 가공, 송수신하는 카메라 또는 마이크가 부착된 기기를 포함할 수 있다.For example, the
사물인터넷 기기(100)는 단일 기기일 뿐만 아니라 다수의 기기를 연결하여 통신하도록 설계될 수 있다. The IoT
사물인터넷 기기(100)는 센서(102)를 포함할 수 있다. 센서(102)는 카메라나 마이크에 한정되지 않으며, 적외선 센서, 온/습도 센서, 소리 감지 센서 중 적어도 하나를 더 포함하여 수집되는 데이터의 품질을 향상시킬 수 있다. 센서(102)는 사물인터넷 기기(100)에 내장되거나 부착되는 등의 형태로 구비될 수 있으며, 센서(102)의 구비 형태는 본 발명을 한정하지 않는다. The IoT
수집되는 원본 데이터는 사물인터넷 기기(100)를 통하지 않고 별도의 데이터베이스에 저장된 데이터나 사용자가 지정한 데이터를 직접 사용할 수 있다. The collected original data may directly use data stored in a separate database or user-specified data without going through the
원본 데이터는 센서(102) 기반의 카메라 및/또는 마이크가 부착된 기기로부터 수집한 영상 및/또는 음성 데이터를 포함하지만, 이에 한정되지 않으며, 사물인터넷(IoT) 데이터, 다양한 주변 센서로부터 수집한 데이터 등 객체의 비식별화 이후 객체 추적 서비스와 연계하는 서비스에 사용될 때 필요한 다양한 데이터가 포함될 수 있다. 또한, 원본 데이터는 문자 등의 시청각적으로 인식 가능한 다양한 형태의 데이터 등을 포함할 수 있다.The original data includes, but is not limited to, image and/or audio data collected from a sensor 102-based camera and/or a device with a microphone attached thereto, Internet of Things (IoT) data, data collected from various peripheral sensors After de-identification of an object, various data necessary when used in a service linked with an object tracking service may be included. In addition, the original data may include various types of data, such as text and audio-visual recognition.
일 실시예에 따른 추적 가능한 비식별화 장치(10)는 통신부(11), 제어부(12) 및 메모리(13)를 포함할 수 있다.The
통신부(11)는 객체 식별 정보를 포함하는 원본 데이터를 수신할 수 있다.The
통신부(11)는 통신망(20)을 통해 사물인터넷 기기(100), 비식별화 장치(10) 및 사용자 장치(600)가 서로 통신하기 위한 기능을 제공하거나, 다른 추적 가능한 비식별화 시스템(미도시)와 통신하기 위한 기능을 제공할 수도 있다. The
단일 또는 복수의 사물인터넷 기기(100)는 무선 또는 유선 통신 방식을 이용하여 통신망(20)을 통해 복수의 사물인터넷 기기(100) 상호 간 및/또는 비식별화 장치(100)나 사용자 장치(600)와 통신할 수 있다.The single or multiple
예를 들어, 통신망(20)은 PAN(Personal Area Network), LAN(Local Area Network), CAN(Campus Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network), BBN(Broad Band Network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있으나, 이에 제한되지 않는다.For example, the
제어부(12)는 원본 데이터로부터 생성한 비식별화 데이터를 이용하여 객체를 추적하도록 동작할 수 있다. 제어부(12)는 객체를 비식별화하는 비식별화 엔진(200) 및 객체를 추적하는 추적 엔진(300)을 포함한다. The
제어부(12)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
일 실시예에 따른 비식별화 엔진(200)은 원본 데이터로부터 객체 식별 정보를 비식별화하여 비식별화된 데이터(이하, 비식별화 데이터로 설명한다.)를 생성할 수 있다. The
비식별화 엔진(200)은 원본 데이터로부터 객체 식별 정보를 원천적으로 삭제하여 복원 불가능하도록 할 수 있다. 비식별화 엔진(200)은 비식별화 데이터에 객체의 특징을 기초로 디지털 식별자(Identifier; ID)를 할당할 수 있다.The
일 예로, 영상 데이터를 비식별화할 때는 배경이 되는 고정 데이터와 대비하여 변화가 있는 이동하는 객체의 픽셀을 검출해 비식별화 심볼로 대체할 수 있다. 음성 데이터를 비식별화할 때는 음성의 문맥을 기반으로 객체 식별 정보를 판별한 후, 해당하는 부분을 원천적으로 삭제하고 비식별화 음으로 대체할 수 있다.For example, when de-identifying image data, pixels of a moving object having a change in contrast to fixed data as a background may be detected and replaced with a non-identification symbol. When the voice data is de-identified, object identification information is determined based on the context of the voice, and then the corresponding portion can be basically deleted and replaced with a de-identified sound.
비식별화 엔진(200)의 자세한 동작에 관하여는 후술하는 도 2에서 더 상세히 설명하기로 한다. The detailed operation of the
일 실시예에 따른 추적 엔진(300)은 비식별화 데이터, 식별자 등을 기초로 객체의 이동 정보를 분석하여 객체를 추적할 수 있다. The
추적 엔진(300)은 영상 내 다중 이동 객체를 인지하고 판별하여 각 객체에 부여된 디지털 식별자를 기반으로, 객체의 이동 정보와 행위를 지속적으로 추적하고 분석할 수 있다. 객체의 이동 패턴 정보를 수집하기 위해 줌 인, 줌 아웃, 화면 전환 및 방향 변경 등을 이용할 수 있다. 추적 엔진(300)은 다수의 사물인터넷 기기(100)로부터 수집된 영상과 음성을 함께 활용하여 동일한 이동 객체로 판단되는 대상을 지속적으로 추적할 수 있다.The
추적 엔진(300)을 이용하여 객체를 추적할 때, 센서(102)는 단일 센서일 수도 있고, 다중 센서로서 복수의 센서들이 협력하여 동작할 수도 있다.When tracking an object using the
메모리(13)는 비식별화 장치(10)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. The
메모리(13)는 원본 데이터, 비식별화 데이터 및/또는 이들 데이터가 가공된 형태의 데이터가 저장되는 데이터베이스(database; 이하, DB로 설명할 수 있다.)를 포함할 수 있다. 메모리(13)는 비식별화 데이터를 저장하는 제1 데이터베이스(400) 및 원본 데이터를 저장하는 제2 데이터베이스(500)를 포함할 수 있다. 제1 데이터베이스(400)는 '개방형 데이터베이스'로, 제2 데이터베이스(500)는 '암호화 데이터베이스'로 명명될 수 있다.The
개방형 데이터베이스(400)에는 비식별화 데이터가 저장되어 외부로 공개될 수 있다. 개방형 데이터베이스(400)에는 비식별화된 객체의 디지털 식별자(ID)와 해당 객체가 갖는 특징 정보가 저장될 수 있다. 상기 특징 정보의 개수는 한정되지 않으며, 필요에 따라 무한히 늘어날 수 있다. 그리고, 개방형 데이터베이스(400)에는 유사한 특징끼리 묶이는 객체의 그룹화 정보가 저장될 수 있다. 개방형 데이터베이스(400)에 저장되는 데이터는 비식별화 엔진(200)과 추적 엔진(300)에 의해 지속적으로 갱신될 수 있다.The de-identification data may be stored in the
개방형 데이터베이스(400)에 관하여는 후술하는 도 3에서 더 상세히 설명하기로 한다.The
암호화 데이터베이스(500)에는 외부(가령, 사물인터넷 기기(100))에서 수집된 원본 데이터가 저장될 수 있다. 원본 데이터가 암호화 처리를 거쳐 암호화되어 안전하게 저장될 수 있으며, 수동으로 추가한 데이터 등이 더 포함될 수 있다. 암호화 처리 방식은 데이터의 종류와 민감도에 따라 양방향 암호화 또는 단방향 암호화되어 저장될 수 있다.The
실시예에 따라서, 객체에 부여된 디지털 식별자와 특징 정보는 상기 제1 및 제2 DB(400, 500)와 별도의 데이터베이스에 분리되어 저장될 수도 있다. 또한 일 실시예에 따른 메모리(13)는 개방형 데이터베이스(400) 및 암호화 데이터베이스(500)를 모두 포함할 수도 있고, 둘 중 어느 하나만 포함할 수도 있다.Depending on the embodiment, the digital identifier and feature information assigned to the object may be stored separately in separate databases from the first and
메모리(13)는 자기 저장 매체(Magnetic Storage Media) 또는 플래시 저장 매체(Flash Storage Media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
비식별화 장치(10)는 사용자 장치(600)의 요청에 따라 사물인터넷 기기(100)에 의해 수집된 데이터를 비식별화 엔진(200)을 이용하여 비식별화하고, 비식별화된 데이터를 활용하여 추적 엔진(300)을 이용하여 객체를 추적할 수 있다. 여기서, 활용 데이터는 개방형 데이터베이스(400)에 저장된 비식별화 영상 데이터, 음성 데이터, 특징 정보, 그룹화 정보 등 중 적어도 일부를 포함할 수 있으나, 이에 한정되지 않으며, 암호화 데이터베이스(500)에 저장된 원본 데이터가 포함될 수도 있다.The
이와 같이, 본 발명의 일 실시예에 따르면, 원본 데이터에 대하여 비식별화 기술 및 객체 추적 기술을 동시에 적용하여 보안성뿐만 아니라 데이터 활용 가능성을 향상시킬 수 있다.As described above, according to an embodiment of the present invention, it is possible to improve not only security but also data utilization possibility by simultaneously applying de-identification technology and object tracking technology to the original data.
도 2는 본 발명의 일 실시예에 따른 비식별화 엔진을 더 구체적으로 도시한 도면이다. 2 is a view more specifically showing a de-identification engine according to an embodiment of the present invention.
일 실시예에 따른 비식별화 엔진(200)은 제1 데이터부(210) 및 제2 데이터부(220)를 포함할 수 있다. 데이터부들(210, 220)은 각각 객체 인식부(212, 222), 특징 검출부(214, 224), 생성부(216, 226) 및 처리부(218, 228)를 포함할 수 있다.The
객체 인식부(212, 222)는 비식별화 하고자 하는 객체를 인식할 수 있다. 특징 검출부(214, 224)는 객체 식별 정보로부터 객체의 특징 정보를 추출할 수 있다. 생성부(216, 226)는 해당 객체에 식별자(Identifier; ID)를 할당하여 상기 비식별화 데이터를 생성할 수 있다. 처리부(218, 228)는 데이터베이스에 원본 데이터, 비식별화 데이터, 검출한 객체별 특징 정보 등을 저장 및 관리할 수 있다.The
이하, 제1 데이터부(210)는 영상 데이터를 담당하는 영상 데이터부, 제2 데이터부(220)는 음성 데이터를 담당하는 음성 데이터부인 것을 예로 들어 설명한다.Hereinafter, it will be described as an example that the
제1 데이터부(210)는 특징 기반으로 객체를 인식하고, 객체의 특징을 추출하고, 제1 비식별화 데이터를 생성하여 제1 데이터베이스(400)에 저장할 수 있다.The
구체적으로, 제1 객체 인식부(212)는 수집된 영상 데이터를 수신하여 영상 내 비식별화 대상이 되는 객체를 인식할 수 있다. 객체는 사람에 한정되지 않으며, 개인정보 침해의 소지가 있는 대상도 포함될 수 있다. 개인정보 침해의 소지가 있는 대상에는 차량 번호, 개인 핸드폰 번호, 민감 정보 등이 포함될 수 있다.Specifically, the first
제1 특징 검출부(214)에서는 인식된 객체의 특징 정보를 검출하여 비식별화 대상으로 선정할 수 있다. 상기 특징 정보의 개수는 한정되지 않으며, 이후 객체 식별에 필요한 만큼 검출할 수 있다. 특징 정보는 비식별화 엔진(200)에 탑재된 메모리(미도시)에 임시적으로 저장될 수 있다.The first
제1 비식별화부(216)는 영상 내 비식별화 대상이 되는 움직이는 객체, 개인을 식별하는데 이용될 수 있는 각종 정보를 비식별화 대상으로 지정할 수 있다. 객체(개인) 식별 정보에는 객체의 신체 정보, 개인 정보, 민감 정보 등이 포함될 수 있다.The
제1 비식별화부(216)는 영상 데이터로부터 고정 영역 및 비식별화 영역을 구분할 수 있다. 상기 비식별화 영역은 비식별화 대상이 되는 객체가 이동하는 영역을 포함할 수 있다. 이후, 제1 비식별화부(216)는 비식별화 영역에 대하여 이동하는 객체에 해당하는 픽셀을 검출할 수 있다. 상기 검출한 픽셀에 디지털 식별자를 할당하여 제1 비식별화 데이터를 생성할 수 있다. 상기 검출된 픽셀을 제거하고 제거된 픽셀을 대체하여 비식별화 심볼을 삽입하여 대체할 수 있다. The
비식별화된 객체에는 디지털 식별자가 부여되어 추후 객체 추적에 활용될 수 있다. The de-identified object is assigned a digital identifier so that it can be used to track the object later.
제1 처리부(218)는 제1 비식별화 데이터, 제1 특징 검출부(214)에서 검출한 특징 정보와 디지털 식별자를 개방형 데이터베이스(400)에 저장할 수 있으며, 가공하여 저장할 수도 있다. 이때, 원본 데이터는 암호화 처리하여 암호화 데이터베이스(500)에 저장할 수 있다. 정보를 저장할 때, 객체를 효율적으로 추적하기 위해 그룹화 정보를 이용하여 동일한 특성을 갖고 있는 객체끼리 그룹화하여 저장할 수 있으나, 이 외에도 특정 산출식을 통해 구해진 수치 등이 추가로 저장될 수 있다.The
제2 데이터부(220)는 문맥 기반으로 객체를 인식하고, 특징을 추출하고, 제2 비식별화 데이터를 생성하여 제1 데이터베이스(400)에 저장할 수 있다.The
구체적으로, 제2 객체 인식부(222)는 수집된 음성 데이터를 수신하여 음성 내 비식별화 대상이 되는 객체를 인식할 수 있다.Specifically, the second
제2 특징 검출부(224)에서는 음성 내 개인정보에 해당하는 부분의 특징을 검출하여 비식별화 대상으로 선정할 수 있다. 제2 특징 검출부(224)에서 검출한 특징 정보의 개수는 한정되지 않으며 이후 객체 식별에 필요한 만큼 검출할 수 있다. 식별된 특징은 비식별화 엔진(200)에 탑재된 메모리(미도시)에 임시적으로 저장될 수 있다.The second
수집된 음성은 제2 비식별화부(226)에서 음성 내 개인을 식별하는데 이용될 수 있는 각종 정보를 비식별화 대상으로 지정할 수 있다. 객체 식별 정보에는 객체의 전화번호, 주소, 민감 정보 등이 포함될 수 있다.The collected voice may designate various information that can be used to identify an individual in the voice in the
제2 비식별화부(226)는 음성 데이터의 문맥을 기초로 객체 식별 정보를 포함하는 비식별화 영역을 선택하고, 음성 데이터로부터 상기 비활성화 영역을 제거할 수 있다. 제2 비식별화부(226)는 상기 비활성화 영역을 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하여 제2 비식별화 데이터를 생성할 수 있다.The
제2 처리부(228)는 각 특징을 개방형 데이터베이스(400)에 저장할 수 있다. 제2 처리부(228)는 제2 비식별화 데이터, 제2 특징 검출부(224)에서 검출한 특징 정보 등을 개방형 데이터베이스(400)에 가공하여 저장할 수 있다. 이때, 원본 데이터는 암호화 처리하여 암호화 데이터베이스(500)에 저장할 수 있다. 또한, 제2 처리부(228)는 그룹화 정보를 이용하여 동일한 특성을 갖고 있는 객체끼리 그룹화하여 저장할 수 있다.The
데이터부들(210, 220)의 구체적인 비식별화 방법은 전술한 바에 한정되지 않으며, 수집한 데이터의 종류에 따라 다양할 수 있다.The specific de-identification method of the
도 3은 본 발명의 일 실시예에 따른 제1 데이터베이스(400)를 더 구체적으로 도시한 도면이다.3 is a diagram more specifically showing the
개방형 데이터베이스(400)에는 비식별화 데이터(410), 특징 테이블(420) 및 그룹화 정보(430)가 저장될 수 있다.In the
비식별화 데이터(410)는 원본 데이터로부터 객체 식별 정보가 비식별화된 데이터를 포함할 수 있다. The
특징 테이블(420)에는 디지털 식별자(ID)(422) 및 비식별화 엔진(200)에서 검출한 각 객체의 특징 정보(424)가 저장될 수 있으며, 이에 한정되지 않고, 데이터 분석을 위한 객체 출현 빈도, 장소 등에 관한 정보도 함께 저장될 수 있다. 특징 테이블(420)에 저장되는 데이터(422, 424)는 추후 추적 엔진(300)에서 객체를 효과적으로 추적하는데 사용될 수 있다.In the feature table 420, the digital identifier (ID) 422 and the
특징 테이블(420)은 최신 상태를 유지하도록 비식별화 엔진(200)과 추적 엔진(300)에 의해 지속적으로 업데이트될 수 있다. 특징 테이블(420) 내에서 오랜 기간 동안 사용되지 않은 데이터는 정기적으로 삭제하여 영상 속 출현 객체에 대한 정확성과 가용성을 높일 수 있다.The feature table 420 may be continuously updated by the
특징 테이블(420)에 저장된 특징 정보(424)는 추적 가능한 비식별화 장치(10)가 이용되는 환경을 고려하여 객체를 식별하는데 필요한 특징을 단기, 중기, 장기 데이터로 구분하고 차등적으로 반영할 수 있다. 단기 특징에는 객체가 착용한 옷, 신발, 장신구, 소품 등이 포함될 수 있다. 중기 특징에는 객체 이동 패턴, 출현 시각, 출현 빈도 등이 포함될 수 있다. 장기 특징에는 객체의 얼굴 등 신체적 특징, 연령 등이 포함될 수 있다.The
특징 정보(424) 중 중기 특징에 해당하는 객체 이동 패턴, 출현 시각, 출현 빈도를 분석하였을 때 영상에 고정적으로 출현하는 객체가 있다면 개방형 데이터베이스(400) 외부에 위치한 캐시 메모리(미도시)를 사용하여 빠르게 객체를 식별하고 객체 오탐율을 감소시킬 수 있다.If there is an object that appears fixedly in the image when analyzing the object movement pattern, appearance time, and frequency of occurrence of the medium information among the
그룹화 정보(430)는 추적 엔진(300)에서 효율적으로 객체 추적을 할 수 있도록 참조되는 정보이다. 추적 엔진(300)에서 지정된 객체를 추적할 때 객체 수가 많아 디지털 식별자(ID)만으로 추적하는데 어려움이 있는 경우, 그룹화 정보(430)를 활용한 그룹핑과 컬러링 기능을 활용할 수 있다. 그룹핑은 추적하고자 하는 대상 혹은 대상들을 그룹으로 묶어 관리할 수 있는 기능이고, 컬러링은 추적 대상을 원하는 색으로 지정하여 객체 추적에 있어서 가시성을 높이는 기능이 될 수 있다.The grouping
예를 들어, 교도소, 통제 구역 등에서 통제하고자 하는 대상 그룹을 감시하고 추적해야 하는 경우나, 어린이집 혹은 유치원 등에서 대상 그룹을 안전하게 보호해야 하는 경우, 다중 객체 중 추적하는 표본 대상을 그룹핑하고 특수색으로 지정하여 표시할 수 있다. 이러한 경우, 통제 대상에게서 이상 행동이 감지되면 눈에 띄는 다른 색으로 표시하거나 경고음을 울려 알릴 수 있다.For example, if you need to monitor and track target groups that you want to control in prisons, control zones, etc., or if you need to safely protect target groups in daycare centers or kindergartens, sample targets to be tracked among multiple objects and group them in special colors. Can be displayed. In this case, when an abnormal behavior is detected from a control target, it may be displayed in a different color or sounded by a warning sound.
다른 예시로, 상업 지역, 오프라인 매장, 전시회 등에서 대상 그룹의 소비 패턴, 이동 경로를 추적하는 경우, 객체의 성별, 나이 등 원하는 기준에 따라 각각 다른 색으로 표시하고 각 관심 그룹 구분을 위해 필터 옵션 기능을 추가할 수 있다.As another example, when tracking consumption patterns and travel routes of a target group in a commercial area, an offline store, an exhibition, etc., each color is displayed according to a desired criterion such as an object's gender and age, and a filter option function is provided to classify each interest group. You can add
도 4는 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템의 내부망 통신 방법을 설명하기 위한 도면이다.4 is a view for explaining an internal network communication method of a traceable de-identification system according to an embodiment of the present invention.
하나의 네트워크로 연결된 추적 가능한 비식별화 장치(10)는 같은 통신망(20)에 다수의 사물인터넷 기기(100)를 연결하여 구성할 수 있다. 다시 말해, 다수의 사물인터넷 기기(100)와 비식별화 장치(10)는 동일한 통신망(20)에 의해 연결되고, 상기 통신망(20)을 통해 서로 정보를 주고 받을 수 있다.The
각 사물인터넷 기기(100)는 센서(102)를 통해 각 기기가 담당하는 공간에서 발생하는 원본 데이터를 서로 주고 받으며 협력하여 통신할 수 있다. 다수의 기기(100)로부터 원본 데이터를 수집하여 사용하면 영상과 음성 내 출현하는 객체가 동일 객체인지 여부를 정확히 판단할 수 있다. Each
또한, 복수의 사물인터넷 기기들(100)이 협력하여 데이터 수집, 가공, 저장함으로써 기기들(100)의 성능, 시간, 배터리를 효율적으로 사용하여 데이터를 처리할 수 있다. 복수의 사물인터넷 기기들(100)을 배치함으로서 원본 데이터의 오차 범위를 줄이고, 이동 객체의 동선을 정확히 파악할 수 있다.In addition, a plurality of
실시예에 따라서, 사용자는 추적 가능한 비식별화 장치(10)에서 비식별화 엔진(200)과 추적 엔진(300)을 선택적으로 사용할 수 있다. 일 예로, 추적 엔진(300)만 사용하고자 하는 경우, 동일 통신망(20) 내에 설치된 지문 인식 센서(102)가 객체의 입실과 퇴실을 확인하고 사물인터넷 기기(100)를 통해 비식별화 장치(10)에 신호를 보낼 수 있다. 이 경우, 입실 시에만 부분적으로 비식별화 엔진(200)을 사용하고, 퇴실 시에는 비식별화 엔진(200)을 사용하지 않도록 설정할 수 있다. 또는, 적외선 센서(102)를 이용해 객체의 유무를 판단하고, 추적 대상이 되는 객체가 부재할 경우, 기기들(100)의 작동을 중단함으로써 다수의 사물인터넷 기기들(100)이 설치된 환경에서 불필요한 영상을 수집하지 않고, 에너지 효율을 높일 수 있다.According to an embodiment, the user may selectively use the
다른 예시로, 카메라를 포함하는 사물인터넷 기기(100)가 동작 인식 센서(102)를 포함하는 경우, 데이터베이스(400, 500)에 객체를 식별할 만한 충분한 데이터가 쌓이지 않아도 동일 통신망(20)에 있는 기기들(100)이 협력하여 사용자의 동작을 감지하고 객체의 이동 패턴과 동작 패턴을 예측할 수 있다.As another example, when the
도 5는 본 발명의 일 실시예에 따른 추적 가능한 비식별화 시스템의 외부망 통신 방법을 설명하기 위한 도면이다.5 is a view for explaining an external network communication method of a traceable de-identification system according to an embodiment of the present invention.
추적 가능한 비식별화 장치(10)는 통신망(20) 외부에 위치한 외부 사물인터넷 기기(110)와 연계되어 동작할 수 있다. 사용자가 사용자 장치(600)를 통해 사물인터넷 기기(100)에 외부와 통신을 통해서 얻을 수 있는 특정 데이터를 요청하면, 기기(100)의 센서(102)는 외부 사물인터넷 기기(110)의 외부 센서(112)에 신호를 보내 사용자 요청에 필요한 데이터를 수신할 수 있다.The
사용자가 제어하는 사물인터넷 기기(100)는 추적 가능한 비식별화 장치(10)와 동일 통신망(20) 상에 구축될 수 있고, 기기(100)에 부착된 센서(102)가 외부 센서(112)와 통신하는 구조로 설계될 수 있다.The
실시예에 따라서, 추적 가능한 비식별화 장치(10)가 직접 외부 사물인터넷 기기(110)의 센서(112)에 요청하여 통신할 수도 있다.Depending on the embodiment, the
도 6은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법을 설명하기 위한 흐름도이다. 이하에서 설명하는 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법은 전술한 비식별화 장치(10)에서 수행될 수 있다. 이하, 도 1 내지 도 5에서 전술한 내용과 중복되는 내용은 설명을 간략히 하거나 생략하되, 도 1 내지 도 5를 함께 참고하여 설명한다.6 is a flowchart illustrating a traceable de-identification method according to an embodiment of the present invention. The traceable de-identification method according to an embodiment of the present invention described below may be performed in the
도 6을 참조하면, 객체 식별 정보를 포함하는 원본 데이터를 수신할 수 있다(S100). 센서(102)가 장착된 사물인터넷 기기(100)는 음성 및 영상 등 다양한 데이터를 포함하는 원본 데이터를 수집할 수 있다.Referring to FIG. 6, original data including object identification information may be received (S100 ). The
이후, 상기 원본 데이터로부터 객체 식별 정보를 비식별화하여 비식별화 데이터를 생성할 수 있다(S200). 비식별화 엔진(200)은 원본 데이터에서 객체 식별 정보를 각기 데이터 종류에 적합한 방식으로 비식별화할 수 있다.Thereafter, de-identification data may be generated by de-identifying object identification information from the original data (S200 ). The
원본 데이터가 영상 데이터일 경우, S200 단계는 아래의 단계들을 포함할 수 있다.When the original data is image data, step S200 may include the following steps.
영상 데이터로부터 고정 영역, 및 상기 객체가 이동하는 영역을 포함하는 비식별화 영역을 구분할 수 있다. 이후, 상기 비식별화 영역에 대하여 이동하는 객체의 픽셀을 검출할 수 있고, 상기 검출한 픽셀에 식별자(422)를 할당하여 비식별화 데이터(410)를 생성할 수 있다. 이때, 상기 검출한 픽셀에 식별자(422)를 할당할 뿐만 아니라 비식별화 심볼로 대체할 수도 있다. A non-identification area including a fixed area and an area in which the object moves may be distinguished from the image data. Subsequently, a pixel of an object moving with respect to the de-identification area may be detected, and an
한편, 원본 데이터가 음성 데이터일 경우, S200 단계는 아래의 단계들을 포함할 수 있다.Meanwhile, when the original data is voice data, step S200 may include the following steps.
음성 데이터의 문맥을 기초로 상기 객체 식별 정보를 포함하는 비식별화 영역을 선택하고, 상기 음성 데이터로부터 비식별화 영역을 제거할 수 있다. 이후, 상기 비식별화 영역이 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하여 대체할 수 있다.Based on the context of the speech data, a de-identification region including the object identification information may be selected, and the de-identification region may be removed from the speech data. Thereafter, a sound different from the existing sound of the voice data may be inserted into the area where the non-identification area is removed to replace it.
이후, 원본 데이터 및 비식별화 데이터를 데이터베이스(400, 500)에 저장할 수 있다(S300). 원본 데이터 및 비식별화 데이터는 데이터베이스(400, 500)에 저장될 수 있다. 이때, 원본 데이터는 암호화 처리를 거쳐 암호화 데이터베이스(500)에 저장될 수 있다.Thereafter, the original data and the non-identifying data may be stored in the
이후, 비식별화 데이터를 기초로 객체를 추적할 수 있다(S400). 추적 엔진(300)은 S200 단계에서 추출된 객체의 특징 정보(424)를 기초로 객체를 추적할 수 있다. 객체의 추적은 단일 사물인터넷 기기(100)만으로 수행될 수도 있고, 복수의 사물인터넷 기기(100)를 이용하여 수행될 수도 있다.Thereafter, an object may be tracked based on the de-identification data (S400). The
다시 도 4를 함께 참조하여 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법에 대하여 설명한다. 원본 데이터를 수신하는 단계(S100)에서, 상기 원본 데이터는 제1 사물인터넷 기기(100a)를 포함하는 복수의 사물인터넷 기기(100)로부터 수신될 수 있다. 이때, 비식별화 데이터를 생성하는 단계(S200)는 다음의 단계들을 포함할 수 있다.Referring to FIG. 4 again, a traceable de-identification method according to an embodiment of the present invention will be described. In step S100 of receiving original data, the original data may be received from a plurality of
사용자가 사용자 장치(600)를 이용하여 제1 사물인터넷 기기(100a)에 필요한 정보를 요청할 수 있다. 상기 사용자의 요청에 따라 상기 제1 사물인터넷 기기(100a)를 제외한 사물인터넷 기기(100)를 포함하는 주변 기기를 탐색할 수 있다. 주변 기기는 제1 사물인터넷 기기(100a)를 제외한 사물인터넷 기기(100), 외부 사물인터넷 기기(110)(도 5 참고)를 포함하는 것일 수 있다. 이후, 상기 주변 기기로부터 비식별화 데이터를 수신하고, 상기 비식별화 데이터를 기초로 사용자 장치에 응답할 수 있다. 상기 응답은 비식별화 데이터를 기초로 생성한 객체 추적 정보를 수신하는 것일 수 있다.The user may request information required for the
도 7은 도 6에 따른 추적 가능한 비식별화 방법 중 일부 단계인 S200 단계를 더 구체적으로 설명하기 위한 흐름도이다. 비식별화 데이터를 생성하는 단계(S200)는 후술하는 단계들을 포함할 수 있다. 도 1 내지 도 3을 함께 참고하여 설명할 수 있다.7 is a flowchart for explaining in more detail the step S200, which is a part of the traceable de-identification method according to FIG. 6. The step of generating de-identification data (S200) may include steps described below. It may be described with reference to FIGS. 1 to 3 together.
비식별화 하고자 하는 상기 객체를 인식할 수 있고(S210), 객체 식별 정보로부터 객체의 특징 정보(424)를 추출할 수 있다(S220). 그리고, 해당 객체에 식별자(ID)를 할당하여 비식별화 데이터(410)를 생성할 수 있다(S230).The object to be de-identified may be recognized (S210), and feature
비식별화 데이터(410)와 원본 데이터에서 추출한 객체의 특징 정보(424)는 제1 데이터베이스(400)의 특징 테이블(420)에 저장될 수 있다. 이때, 특징 테이블(420)에는 객체의 특징 정보(424)를 기반으로 객체 별로 부여된 디지털 식별자(ID) 및 그룹화 정보(430)도 저장되어 객체를 통합적으로 관리할 수 있다. The
객체를 추적하는 단계(S400)(도 6 참고)는, 비식별화 데이터(410), 특징 정보(424) 및 식별자를 이용하여 객체의 이동 정보를 분석하는 단계를 포함할 수 있다.The step of tracking the object (S400) (see FIG. 6) may include analyzing movement information of the object using the
도 8은 본 발명의 일 실시예에 따른 추적 가능한 비식별화 방법을 시스템의 관점에서 설명하기 위한 흐름도이다. 이하, 도 4 및 도 5를 함께 참고하여, 사용자의 요청에 따라 추적 가능한 비식별화 장치(10)를 활용해 원하는 데이터를 획득할 수 있는 방법에 대하여 설명한다.8 is a flowchart for explaining a traceable de-identification method according to an embodiment of the present invention from a system perspective. Hereinafter, with reference to FIGS. 4 and 5 together, a method of obtaining desired data using a
도 8을 참조하면, 사용자가 사용자 장치(600)를 이용하여 제1 사물인터넷 기기(100a)(도 4 참고)를 통해 필요한 정보를 요청할 수 있다(S600). 여기서, 사용자의 요청을 인식하는 사물인터넷 기기(100)는 음성 인식, 영상 인식, 터치 인식 등 요청을 인지하는 센서(102)를 구비할 수 있다. 예를 들어 가전 제품, 모바일 장비, 웨어러블 디바이스 등 다양한 사물인터넷 기기(100)가 인터넷으로 연결되어 사용자의 요청을 인식할 수 있다. Referring to FIG. 8, a user may request required information through the
사물인터넷 기기(100)는 사용자의 요청에 따라 적절한 주변 기기를 탐색할 수 있다(S700). 상기 주변 기기는 추적 가능한 비식별화 장치(10)가 연동되어 있는 기기일 수도 있고, 비식별화 장치(10)와 연동되지 않은 일반 사물인터넷 기기일 수도 있다. The
사물인터넷 기기(100)는 사용자가 요청한 데이터를 보유한 주변 기기로부터 비식별화 데이터를 수신할 수 있다(S800). The
사용자가 요청한 데이터를 수신한 사물인터넷 기기(100)는 해당 비식별화 데이터를 기초로 사용자 장치(600)에 응답할 수 있다(S900). 이때, 추적 가능한 비식별화 장치(10)는 사용자의 요청과 기기(100)의 응답이 반복되며 축적된 데이터를 기반으로 명령어 및 응답 히스토리를 분석해 학습할 수 있고, 보다 개선된 사용자 맞춤형 서비스를 제공할 수 있다.The
실시예Example
이하, 추적 가능한 비식별화 장치(10)를 안전, 통신, 교통, 보건, 의료, 상업, 보험 등 다양한 분야에서 활용할 수 있는 실시예에 대해 설명한다.Hereinafter, exemplary embodiments that can be used in various fields such as safety, communication, transportation, health, medical, commercial, and insurance will be described.
본 발명은 반려동물을 키우는 가구, 맞벌이 가구, 1인 가구 등 실내 모니터링을 필요로 하는 사용자가 집 내부의 상황을 안전하게 관리할 수 있는 시스템을 제공할 수 있다. 도 4를 참조하면, 센서(102)를 구비한 사물인터넷 기기(100)는 가정 내 홈 CCTV일 수 있다. 가정에 카메라가 장착된 홈캠, IP카메라 등 홈 CCTV와 같은 사물인터넷 기기(100)를 설치하여 카메라 방향을 조절하여 집 내부의 상황을 실시간으로 전달받고, 통신망(20)을 통해 클라우드 저장소에 보관하는 방식으로 사용할 수 있다. The present invention can provide a system for a user who needs indoor monitoring, such as furniture for raising companion animals, double-edged furniture, single-person furniture, and the like to safely manage the situation inside the house. Referring to FIG. 4, the
이때, 개인의 사생활이 가장 많이 노출되는 집 안에서 수집한 데이터로 인해 발생할 수 있는 개인정보와 민감정보의 유출 가능성은 본 발명의 비식별화 장치(10)의 비식별화 엔진(200)을 통해 해결할 수 있다. 비식별화 엔진(200)의 영상 비식별화부(216)에서는 수집한 영상 데이터 중 프라이버시로 간주되는 픽셀을 비식별화 심볼로 대체해 원본 데이터 복원을 불가능하게 하므로 가정 내에 설치되는 홈 CCTV(홈캠, IP카메라) 데이터가 외부로 데이터가 유출되어도 보안상 안전할 수 있다. 또한 마이크를 통해 수집된 민감정보나 계좌 정보와 같이 유출되면 개인에게 큰 타격을 입힐 수 있는 음성정보에 대해서는 음성 비식별화부(226)에서 해당 부분을 제거한 후 다른 음으로 대체하는 음성 비식별화도 진행할 수 있다. At this time, the possibility of leakage of personal information and sensitive information that may occur due to data collected in a house where the personal privacy is most exposed is solved through the
사물인터넷 기기(100)의 센서(102)가 될 수 있는 카메라와 마이크를 통해 수집한 객체의 특징을 기반으로 가족 구성원을 식별해 고유 디지털 ID를 부여한 후, 원본 데이터 내 이동 객체 자체는 비식별화할 수 있다. 여기서, 구성원 간 세부적인 특징을 파악하여 서로 다른 사람으로 인식될 경우, 다른 심볼로 처리할 수 있다. 개인정보 및 민감정보를 구분하는 기술은 훈련 데이터를 통해 더욱 효과적으로 학습될 것이며, 테스트 데이터를 통해 비식별화 엔진(200)과 추적 엔진(300)의 성능을 지속적으로 향상시킬 수 있다.After identifying a family member based on the characteristics of an object collected through a camera and a microphone, which can be the
도 4와 같이 집 안에 복수의 카메라(100)를 설치할 경우, 추적 엔진(300)은 각 카메라(100)끼리 네트워킹을 통해 이동 객체를 정확하게 추적할 수 있다. 단일 카메라(100)가 있는 환경에서는 줌인, 줌아웃 기능을 활용해 객체를 추적할 수 있다. 객체의 데이터가 축적될수록 정확한 분석과 학습이 가능하며, 사용자에 최적화된 맞춤형 서비스를 제공할 수 있다.When a plurality of
또한, 본 발명은 스마트홈에 장착된 센서들을 통해 가전기기의 사용 현황을 파악하고 불필요하게 낭비되고 있는 전기나 가스에 대해 사용자에게 적절한 조언을 제공해 줄 수 있다. 각종 스마트 가전기기(100)에 부착된 센서(102)는 영상 센서, 음성 센서, 적외선 센서, 온/습도 센서, 소리 감지 센서 등이 될 수 있다. 상기 센서(102)를 통해 가정 내의 전기 및 가스 사용현황을 파악하고, 낭비되고 있는 부분을 방지할 수 있는 서비스를 제공할 수 있다.In addition, the present invention can provide an appropriate advice to the user about the electricity or gas that is wasted unnecessarily, by grasping the usage status of the home appliance through sensors mounted in the smart home. The
또한, 본 발명은 차량 내 음성처리기기와 도로변, 길가, 및 주차장에 설치된 CCTV에 적용되어 사용자에게 기존 위성 정보로는 파악하기 어려운 실내 주차장과 같은 실내 교통정보 등을 제공할 수 있다. 도 5를 참조하면, 사용자가 자동차 안에서 차량에 탑재된 음성비서(102)를 통해 '현재 교통상황 알려줘', '주차장 내 여유 공간 알려줘' 등의 질의를 음성으로 요청하면, 상기 음성비서는 즉시 사용자가 요청한 지역의 주차장을 검색하여 상황을 알려줄 수 있다. 이때, 차량 내 사물인터넷 기기(100)는 해당 음성을 인지한 후, 정보를 얻기 위해 주변에 위치한 외부 사물인터넷 기기인 CCTV(110)와 통신할 수 있다. 외부 사물인터넷 기기(110)는 도로 및 길가에 설치된 CCTV 외에도 실내에 설치된 CCTV 등 교통 정보 획득 또는 기타 정보를 갖고 있는 기기가 될 수 있다. 주변 기기(110)와의 네트워킹을 통해 상기 차량 내 사물인터넷 기기(100)는 기존 위성 정보로는 파악하기 어려운 실내 상황과 보다 정확한 교통 정보를 전달받을 수 있다. 사용자가 선호하는 주차장이 있는 경우, 해당 주차장 내 CCTV(110)나 외부 센서(112)와 통신하여 주차 상황을 전달받을 수 있다. 이때, 차량 인메모리에 저장된 음성 명령은 비식별화 장치(10)의 비식별화 엔진(200)을 통해 안전하게 비식별화될 수 있다. 이후 품질 향상을 위해 음성 비식별화부(226)는 사용자 질의에서 개인을 식별할 수 있는 정보를 제거한 후, 비식별화 처리하여 개방형 데이터베이스(400)에 저장할 수 있다. 이후, 사용자로부터 새로운 요청이 들어왔을 때 개방형 데이터베이스(400)에 저장된 기존 정보를 같이 활용하여 맞춤형 서비스를 제공할 수 있다.In addition, the present invention can be applied to an in-vehicle audio processing device, a roadside, a roadside, and a CCTV installed on a parking lot to provide users with indoor traffic information such as an indoor parking lot that is difficult to grasp with existing satellite information. Referring to FIG. 5, when a user requests a query such as'tell me about the current traffic condition' or'tell me about the free space in the parking lot' through the
이 외에도 차량 내에 설치된 블랙박스(100)가 수집한 영상 및 음성 데이터 중 객체 식별 정보에 대해 비식별화를 진행할 수 있다. 이러한 기술은 추후 자율주행차나 기타 산업 기관에서 사용되는 영상, 음성 처리장치에도 활용할 수 있다.In addition, object identification information among video and audio data collected by the
또한, 본 발명은 노인이 홀로 사는 집 혹은 요양원의 사물인터넷 기기(100)를 통해 노인의 움직임을 추적하고, 이동 경로와 패턴을 분석해 응급 상황 및 돌발 상황에 대비할 수 있다. 도 4를 참조하면, 노인이 자주 머무는 위치마다 카메라와 같은 다수의 사물인터넷 기기(100)를 장착하면, 노인이 집에서 움직이는 경로를 파악할 수 있다. 설치된 다수의 카메라(100)에 적용된 비식별화 장치(10)의 추적 엔진(300)은 기기 간 네트워킹을 통해 노인의 이동 경로에 따른 데이터를 수집할 수 있다. 이때, 노인의 정확한 움직임 형태와 패턴을 분석할 수 있으므로 적절한 케어 및 맞춤형 서비스 제공이 가능할 수 있다. 노인의 움직임을 관찰하고 싶은 보호자는 사용자 장치(600)을 통해 노인의 안부를 확인할 수 있다. 만약 노인의 거동 혹은 이동 패턴이 기록된 개방형 데이터베이스(400)에 저장된 특징과 다른 이상한 점이 포착된다면, 예를 들어, 부엌에 있던 기기와 거실에 있는 기기 간 네트워킹을 통해 사용자 및 보호자에게 해당 특이 사항을 제공할 수 있다. 또한, 사물인터넷 기기(100)는 영상 데이터뿐만 아니라, 음성데이터도 함께 수집 및 공유함으로써 보다 더 정확한 서비스의 제공이 가능할 수 있다. 노인의 행동을 파악하는 사물인터넷 기기(100)가 수집한 영상 데이터는 영상 비식별화부(216)를 통해, 음성 데이터는 음성 비식별화부(226)을 통해 원천적으로 비식별되기에 서비스의 안전성이 확보될 수 있다.In addition, the present invention can track the movement of the elderly through the
또한, 본 발명은 의료업계의 수술실 CCTV 영상 데이터 속 의사, 간호사, 환자 등의 이동 객체를 비식별화함으로써 외부 시스템과 차단시켜 수술실 촬영의 프라이버시 문제를 기술적으로 해결할 수 있다. 비식별화 엔진(200)을 통해 영상 속 객체를 비식별화하고 추적 엔진(300)으로 객체를 추적함으로써, 수술실에 설치된 카메라가 부착된 사물인터넷 기기(100)를 통해 내부 상황을 확인하여 원본 데이터를 적극적으로 활용할 수 있다.In addition, the present invention can technically solve the privacy problem of operating room imaging by blocking it with an external system by de-identifying moving objects such as doctors, nurses, patients, etc. in CCTV image data in the operating room of the medical industry. By de-identifying the object in the image through the
개방형 데이터베이스(400)에 저장된 의료 데이터는 비식별화되고 심볼로 대체되어 외부로 공개할 수 있기 때문에 의료 사고시 분쟁을 줄이고, 사고 발생시 정확한 사고 원인에 대해 조사할 수 있다. 또한, 기존에는 불가능했던 민감한 의료 데이터를 수집할 수 있어 추후 보호자, 의료진, 간병인에게 맞춤형 의료 서비스를 제공하고 난치병 치료법 개발 등 향상된 서비스 제공이 가능하다.Since medical data stored in the
도 4와 같이 병실, 진료실, 수술실 등에 CCTV와 같은 다수의 사물인터넷 기기(100)를 연결하여 서로 통신하면 환자와 의료진의 행적 분석에 정확성을 높일 수 있다. 본 실시예에 그룹핑과 컬러링을 적용하면, 관심 집단을 설정하여 효율적으로 객체를 추적할 수 있다. 예를 들어, 그룹화 정보(430)(도 3 참고)를 이용하여 의료진 및 병원 관리인과 환자로 구분하여 그룹으로 지정하고 각각 다른 색으로 지정하여 관리할 수 있다.As shown in FIG. 4, when a plurality of
또한, 본 발명은 쇼핑몰, 스트릿 상가, 번화가, 광장 등 유동 인구가 많은 상업지역에 적용되어 사람들의 이동 패턴을 분석해 상업적 데이터를 구축할 수 있다.In addition, the present invention can be applied to commercial areas with a large population of liquidity, such as shopping malls, street shopping districts, shopping districts, and plazas, and analyze commercial movement patterns to build commercial data.
상업 지역에 CCTV와 같은 사물인터넷 기기(100)을 설치하고, 기기가 수집한 데이터에서 연령, 성별에 따른 이동 패턴, 머무르는 시간 등을 분석해 소비패턴과 대상 그룹별 특징을 잡아내 마케팅이나 홍보에 활용할 수 있고, 시장 규모를 효율적으로 파악할 수 있다. 특히, 길거리에 설치되어 있는 다수의 CCTV가 설치되어 있는 경우처럼 모든 사람에게 영상과 음성 데이터 활용 동의를 받을 수 없는 경우, 본 발명의 비식별화 장치(10)를 이용하여 원본 데이터의 객체 식별 정보를 비식별화함으로써 보안성도 확보함과 동시에 빅데이터로도 이용할 수 있다. 사물인터넷 기기(100)로부터 오랜 기간 동안 데이터가 수집되고 데이터가 축적될수록 해당 데이터에 대한 정확도가 향상되고, 정보의 신뢰성을 제공할 수 있다.Install
상업 지역에 설치된 CCTV(100)를 통해 영상 데이터를 수집하면 영상 속 객체에서 확인할 수 있는 얼굴, 성별, 신장 등 신체적 특징을 기반으로 각 객체를 식별하여 디지털 ID를 부여하고, 심볼로 대체하여 비식별화할 수 있다. 비식별화된 영상 데이터에서 대상이 되는 객체를 지정하면 활성화되며, 객체의 디지털 ID를 출력하고, 해당 객체의 데이터와 본 시스템의 개방형 데이터베이스(400)에 저장되어 있는 데이터를 비교하여 얼마나 일치하는지 산출한 후, 함께 출력할 수 있다. 객체에 대한 새로운 데이터는 다시 데이터베이스(400)에 기록되고, 차후 추적 엔진(300)에서 기존 데이터베이스에 있는 데이터와 비교할 때 반영된다.When image data is collected through the CCTV (100) installed in a commercial area, each object is identified based on physical characteristics such as face, gender, and height that can be identified in the object in the image, and a digital ID is given, and replaced with a symbol to identify it. Can be angry. When the target object is designated from the de-identified image data, it is activated, outputs the digital ID of the object, and compares the data of the object with data stored in the
또한, 본 발명은 적절한 증거자료나 객관적인 사실 입증을 위한 데이터를 요구하는 보험분야에서 프라이버시 침해 없이 비식별화된 영상 및 음성 데이터를 통해 사고 원인과 과실 여부를 명확히 판단할 수 있다.In addition, the present invention can clearly determine the cause of the accident and the negligence through de-identified video and audio data without privacy infringement in the insurance field, which requires appropriate evidence or data to prove objective facts.
또한, 본 발명은 적절한 증거자료나 객관적인 사실 입증을 위한 데이터를 요구하는 보험분야에도 활용될 수 있다. 피보험자가 보험사에 보험금을 청구하게 되면 사고를 입증할 수 있는 증거 자료를 제출해야 하는데, 이때 각종 사물인터넷 기기(100)에서 수집한 영상과 음성 데이터에 일 실시예에 따른 비식별화 장치(10)를 적용하여 사고 입증 증거 자료로 제출할 수 있다.In addition, the present invention can also be used in the insurance field that requires appropriate evidence or objective evidence. When an insured person claims an insurance claim to an insurance company, it is necessary to submit evidence to prove the accident. At this time, the
사고가 자주 발생하는 장소, 사고가 예상되는 지역에 비식별화 장치(10)를 설치하면, 프라이버시 침해 없이 사고 원인과 과실 여부를 명확히 판단할 수 있고, 보험사 측에서도는 입증 수단을 갖출 수 있으므로 리스크를 감소시킬 수 있다.If the
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program can be recorded on a computer-readable medium. At this time, the medium may be a computer executable program. Examples of the medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks, And program instructions including ROM, RAM, flash memory, and the like.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention or may be known and available to those skilled in the computer software field. Examples of computer programs may include not only machine language codes produced by a compiler, but also high-level language codes executable by a computer using an interpreter or the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.
따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, but not only the claims to be described later, but all ranges that are equivalent to or equivalently changed from the claims of the present invention. It would be said to fall into the category.
10: 비식별화 장치
100: 사물인터넷 기기
102: 센서
110: 외부 사물인터넷 기기
112: 외부 센서
11: 통신부
12: 제어부
13: 메모리
20: 통신망
200: 비식별화 엔진
212, 222: 객체 인식부
214, 224: 특징 검출부
216, 226: 생성부
218, 228: 처리부
300: 추적 엔진
400: 제1 데이터베이스
410: 비식별화 데이터
420: 특징 테이블
422: 디지털 식별자
424: 특징 정보
430: 그룹화 정보
500: 제2 데이터베이스
600: 사용자 장치10: de-identification device 100: IoT device
102: sensor 110: external IoT device
112: external sensor 11: communication unit
12: control unit 13: memory
20: network 200: de-identification engine
212, 222: object
216, 226: generating
300: tracking engine 400: first database
410: de-identification data 420: feature table
422: digital identifier 424: feature information
430: grouping information 500: second database
600: user device
Claims (14)
상기 원본 데이터로부터 상기 객체 식별 정보를 비식별화하여 비식별화 데이터를 생성하는 단계;
상기 원본 데이터 및 상기 비식별화 데이터를 데이터베이스에 저장하는 단계; 및
상기 비식별화 데이터를 기초로 상기 객체를 추적하는 단계;를 포함하는, 추적 가능한 비식별화 방법.Receiving original data including object identification information;
Generating non-identification data by de-identifying the object identification information from the original data;
Storing the original data and the de-identification data in a database; And
And tracking the object based on the de-identification data.
상기 비식별화 데이터를 생성하는 단계는,
비식별화 하고자 하는 상기 객체를 인식하는 단계;
상기 객체 식별 정보로부터 객체의 특징 정보를 추출하는 단계; 및
상기 객체에 식별자(Identifier; ID)를 할당하여 상기 비식별화 데이터를 생성하는 단계;를 포함하는, 추적 가능한 비식별화 방법.According to claim 1,
The step of generating the de-identification data,
Recognizing the object to be de-identified;
Extracting feature information of an object from the object identification information; And
And allocating an identifier (ID) to the object to generate the de-identification data.
상기 데이터베이스는 제1 데이터베이스 및 제2 데이터베이스를 포함하고,
상기 원본 데이터 및 상기 비식별화 데이터를 데이터베이스에 저장하는 단계는,
상기 객체의 특징 정보 및 상기 식별자를 상기 제1 데이터베이스에 저장하는 단계; 및
상기 원본 데이터를 암호화 처리하여 상기 제2 데이터베이스에 저장하는 단계;를 포함하는, 추적 가능한 비식별화 방법.According to claim 2,
The database includes a first database and a second database,
The step of storing the original data and the de-identification data in a database,
Storing characteristic information of the object and the identifier in the first database; And
And encrypting the original data and storing the encrypted data in the second database.
상기 원본 데이터는 영상 데이터를 포함하고,
상기 비식별화 데이터를 생성하는 단계는,
상기 영상 데이터로부터 고정 영역, 및 상기 객체가 이동하는 영역을 포함하는 비식별화 영역을 구분하는 단계;
상기 비식별화 영역에 대하여 상기 이동하는 객체의 픽셀을 검출하는 단계; 및
상기 검출한 픽셀에 상기 식별자를 할당하여 상기 비식별화 데이터를 생성하는 단계;를 포함하는, 추적 가능한 비식별화 방법.According to claim 2,
The original data includes image data,
The step of generating the de-identification data,
Distinguishing a de-identification area including a fixed area and an area in which the object moves from the image data;
Detecting pixels of the moving object with respect to the de-identification area; And
And generating the de-identification data by allocating the identifier to the detected pixel.
상기 원본 데이터는 음성 데이터를 포함하고,
상기 비식별화 데이터를 생성하는 단계는,
상기 음성 데이터의 문맥을 기초로 상기 객체 식별 정보를 포함하는 비식별화 영역을 선택하는 단계;
상기 음성 데이터로부터 상기 비식별화 영역을 제거하는 단계; 및
상기 비식별화 영역이 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하는 단계;를 포함하는, 추적 가능한 비식별화 방법.The method of claim 2 or 4,
The original data includes voice data,
The step of generating the de-identification data,
Selecting a de-identification area including the object identification information based on the context of the voice data;
Removing the de-identification area from the voice data; And
And inserting a sound different from the existing sound of the speech data into the area where the de-identification area is removed.
상기 객체를 추적하는 단계는,
상기 비식별화 데이터, 상기 특징 정보 및 상기 식별자를 이용하여 상기 객체의 이동 정보를 분석하는 단계를 포함하는, 추적 가능한 비식별화 방법.According to claim 2,
Tracking the object,
And analyzing movement information of the object using the de-identification data, the feature information, and the identifier.
상기 원본 데이터를 수신하는 단계에서, 상기 원본 데이터는 제1 사물인터넷 기기를 포함하는 복수의 사물인터넷 기기로부터 수신되고,
상기 추적 가능한 비식별화 방법은,
사용자가 사용자 장치를 이용하여 상기 제1 사물인터넷 기기에 필요한 정보를 요청하는 단계;
상기 사용자의 요청에 따라 상기 제1 사물인터넷 기기를 제외한 사물인터넷 기기를 포함하는 주변 기기를 탐색하는 단계;
상기 주변 기기로부터 상기 비식별화 데이터를 수신하는 단계; 및
상기 비식별화 데이터를 기초로 상기 사용자 장치에 응답하는 단계;를 더 포함하는, 추적 가능한 비식별화 방법.According to claim 2,
In the step of receiving the original data, the original data is received from a plurality of IoT devices including a first IoT device,
The traceable de-identification method,
A user requesting information necessary for the first IoT device using a user device;
Searching for a peripheral device including an IoT device excluding the first IoT device according to the user's request;
Receiving the de-identification data from the peripheral device; And
And responding to the user device based on the de-identification data.
상기 원본 데이터로부터 생성한 비식별화 데이터를 이용하여 객체를 추적하도록 동작하는 제어부; 및
상기 원본 데이터 및 상기 비식별화 데이터가 저장되는 데이터베이스를 포함하는 메모리;를 포함하고,
상기 제어부는,
상기 원본 데이터로부터 상기 객체 식별 정보를 비식별화하여 상기 비식별화 데이터를 생성하는 비식별화 엔진; 및
상기 비식별화 데이터를 기초로 상기 객체를 추적하는 추적 엔진;을 포함하는, 추적 가능한 비식별화 장치.A communication unit receiving original data including object identification information;
A control unit operable to track an object using de-identification data generated from the original data; And
Includes a memory including a database in which the original data and the de-identification data are stored.
The control unit,
A de-identification engine that de-identifies the object identification information from the original data to generate the de-identification data; And
And a tracking engine that tracks the object based on the de-identification data.
상기 비식별화 엔진은,
비식별화 하고자 하는 상기 객체를 인식하는 객체 인식부;
상기 객체 식별 정보로부터 객체의 특징 정보를 추출하는 특징 검출부;
상기 객체에 식별자(Identifier; ID)를 할당하여 상기 비식별화 데이터를 생성하는 생성부; 및
상기 데이터베이스에 상기 원본 데이터 및 상기 비식별화 데이터를 저장하는 처리부;를 포함하는, 추적 가능한 비식별화 장치.The method of claim 8,
The de-identification engine,
An object recognition unit recognizing the object to be de-identified;
A feature detector for extracting feature information of the object from the object identification information;
A generator configured to generate the de-identification data by allocating an identifier (ID) to the object; And
And a processing unit configured to store the original data and the de-identification data in the database.
상기 데이터베이스는 제1 데이터베이스 및 제2 데이터베이스를 포함하고,
상기 처리부는,
상기 객체의 특징 정보 및 상기 식별자를 상기 제1 데이터베이스에 저장하고,
상기 원본 데이터를 암호화 처리하여 상기 제2 데이터베이스에 저장하는, 추적 가능한 비식별화 장치.The method of claim 9,
The database includes a first database and a second database,
The processing unit,
The characteristic information of the object and the identifier are stored in the first database,
A traceable de-identification device that encrypts the original data and stores it in the second database.
상기 원본 데이터는 영상 데이터를 포함하고,
상기 비식별화 엔진은 영상 데이터를 비식별화하여 제1 비식별화 데이터를 생성하는 제1 데이터부를 포함하고,
상기 제1 데이터부는,
상기 영상 데이터로부터 고정 영역, 및 상기 객체가 이동하는 영역을 포함하는 비식별화 영역을 구분하고,
상기 비식별화 영역에 대하여 상기 이동하는 객체의 픽셀을 검출하고,
상기 검출한 픽셀에 상기 식별자를 할당하여 상기 제1 비식별화 데이터를 생성하는, 추적 가능한 비식별화 장치.The method of claim 9,
The original data includes image data,
The de-identification engine includes a first data unit that de-identifies the image data to generate first de-identification data,
The first data portion,
A non-identifying area including a fixed area and an area in which the object moves is distinguished from the image data,
Detecting pixels of the moving object with respect to the de-identification area,
A traceable de-identification device that generates the first de-identification data by allocating the identifier to the detected pixel.
상기 원본 데이터는 음성 데이터를 포함하고,
상기 비식별화 엔진은 상기 음성 데이터를 비식별화하여 제2 비식별화 데이터를 생성하는 제2 데이터부를 포함하고,
상기 제2 데이터부는,
상기 음성 데이터의 문맥을 기초로 상기 객체 식별 정보를 포함하는 비식별화 영역을 선택하고,
상기 음성 데이터로부터 상기 비식별화 영역을 제거하고,
상기 비식별화 영역이 제거된 영역에 상기 음성 데이터의 기존 음과 다른 음을 삽입하여 상기 제2 비식별화 데이터를 생성하는, 추적 가능한 비식별화 장치.The method of claim 9 or 11,
The original data includes voice data,
The de-identification engine includes a second data unit that de-identifies the voice data to generate second de-identification data,
The second data portion,
A non-identification area including the object identification information is selected based on the context of the voice data,
Remove the de-identification area from the voice data,
A traceable de-identification device that generates the second de-identification data by inserting a sound different from the existing sound of the speech data in the area where the de-identification area is removed.
상기 추적 엔진은,
상기 비식별화 데이터, 상기 특징 정보 및 상기 식별자를 이용하여 상기 객체의 이동 정보를 분석하는, 추적 가능한 비식별화 장치.The method of claim 9,
The tracking engine,
A traceable de-identification device that analyzes the movement information of the object using the de-identification data, the feature information, and the identifier.
상기 비식별화 장치에 객체 식별 정보를 포함하는 원본 데이터를 전송하는 사물인터넷 기기; 및
상기 사물인터넷 기기에 필요한 정보를 요청하고, 상기 비식별화 장치로부터 상기 객체의 이동 정보를 포함하는 추적 데이터를 수신하는 사용자 장치;를 포함하는, 추적 가능한 비식별화 시스템.A traceable de-identification device according to any one of claims 8 to 13;
An IoT device transmitting original data including object identification information to the de-identification device; And
And a user device that requests information necessary for the IoT device and receives tracking data including movement information of the object from the non-identifying device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190004816 | 2019-01-14 | ||
KR1020190004816 | 2019-01-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200088236A true KR20200088236A (en) | 2020-07-22 |
KR102328199B1 KR102328199B1 (en) | 2021-11-18 |
Family
ID=71893017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200004953A KR102328199B1 (en) | 2019-01-14 | 2020-01-14 | Trackable de-identification method, apparatus and system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102328199B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023022429A1 (en) * | 2021-08-19 | 2023-02-23 | 주식회사 유니유니 | Deep learning-based abnormal behavior detection system through de-identification data analysis |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140139087A (en) * | 2012-03-27 | 2014-12-04 | 시크파 홀딩 에스에이 | Managing objects in a supply chain using a secure identifier |
KR101626546B1 (en) * | 2015-12-09 | 2016-06-01 | 주식회사 베스트디지탈 | Apparatus and method for processing image information to support protection of personal information |
KR101696801B1 (en) * | 2016-10-21 | 2017-01-16 | 이형각 | integrated image monitoring system based on IoT camera |
KR20180083560A (en) * | 2017-01-13 | 2018-07-23 | 아이알링크 주식회사 | System of de-identification of personal data of call center |
KR101894399B1 (en) * | 2017-08-22 | 2018-09-04 | 첵트 엘엘씨 | Monitoring system having personal information protection function and method thereof |
-
2020
- 2020-01-14 KR KR1020200004953A patent/KR102328199B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140139087A (en) * | 2012-03-27 | 2014-12-04 | 시크파 홀딩 에스에이 | Managing objects in a supply chain using a secure identifier |
KR101626546B1 (en) * | 2015-12-09 | 2016-06-01 | 주식회사 베스트디지탈 | Apparatus and method for processing image information to support protection of personal information |
KR101696801B1 (en) * | 2016-10-21 | 2017-01-16 | 이형각 | integrated image monitoring system based on IoT camera |
KR20180083560A (en) * | 2017-01-13 | 2018-07-23 | 아이알링크 주식회사 | System of de-identification of personal data of call center |
KR101894399B1 (en) * | 2017-08-22 | 2018-09-04 | 첵트 엘엘씨 | Monitoring system having personal information protection function and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023022429A1 (en) * | 2021-08-19 | 2023-02-23 | 주식회사 유니유니 | Deep learning-based abnormal behavior detection system through de-identification data analysis |
Also Published As
Publication number | Publication date |
---|---|
KR102328199B1 (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Saini et al. | W 3-privacy: understanding what, when, and where inference channels in multi-camera surveillance video | |
US8218871B2 (en) | Detecting behavioral deviations by measuring respiratory patterns in cohort groups | |
CN101221621B (en) | Method and system for warning a monitored user about adverse behaviors | |
JP5560397B2 (en) | Autonomous crime prevention alert system and autonomous crime prevention alert method | |
US8130774B2 (en) | Object tracking method and system | |
JP2018093283A (en) | Monitoring information gathering system | |
JP6689566B2 (en) | Security system and security method | |
CN106463006A (en) | Personnel authentication and tracking system | |
KR102356666B1 (en) | Method and apparatus for risk detection, prediction, and its correspondence for public safety based on multiple complex information | |
JP2010055594A (en) | Traffic line management system and program | |
JP2022526382A (en) | Behavioral analytics methods, devices, electronic devices, storage media and computer programs | |
WO2015040058A2 (en) | Sensor and data fusion | |
US20150242980A1 (en) | Processes to Enable Individuals to Opt Out (or be Opted Out) of Various Facial Recognition and other Schemes and Enable Businesses and other Entities to Comply with Such Decisions | |
KR20210117697A (en) | AI-based risk notification system for infectious disease | |
Bernasco et al. | Promise into practice: Application of computer vision in empirical research on social distancing | |
JP2014067383A (en) | Behavior monitoring notification system | |
KR102328199B1 (en) | Trackable de-identification method, apparatus and system | |
KR102282352B1 (en) | Ai movement-tracing apparatus of infected asymptomatic people and method using the same | |
JP2015153054A (en) | Security area management system and security area management method | |
KR20200067654A (en) | Missing accident first response system and method for operating thereof | |
US20170316259A1 (en) | Augmenting gesture based security technology for improved classification and learning | |
US20170316260A1 (en) | Augmenting gesture based security technology using mobile devices | |
WO2021252880A1 (en) | Method and system for contact tracing using a software development kit (sdk) integrated into client devices | |
US20200294377A1 (en) | Systems and methods of combining rfid and vms for people tracking and intrusion detection | |
KR20220064213A (en) | Program for operation of security monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |