KR102641532B1 - 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법 - Google Patents

사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법 Download PDF

Info

Publication number
KR102641532B1
KR102641532B1 KR1020220135417A KR20220135417A KR102641532B1 KR 102641532 B1 KR102641532 B1 KR 102641532B1 KR 1020220135417 A KR1020220135417 A KR 1020220135417A KR 20220135417 A KR20220135417 A KR 20220135417A KR 102641532 B1 KR102641532 B1 KR 102641532B1
Authority
KR
South Korea
Prior art keywords
learning
image
unit
image box
deep learning
Prior art date
Application number
KR1020220135417A
Other languages
English (en)
Inventor
이준혁
Original Assignee
(주)한국플랫폼서비스기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)한국플랫폼서비스기술 filed Critical (주)한국플랫폼서비스기술
Priority to KR1020220135417A priority Critical patent/KR102641532B1/ko
Application granted granted Critical
Publication of KR102641532B1 publication Critical patent/KR102641532B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44521Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
    • G06F9/44526Plug-ins; Add-ons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23109Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion by placing content in organized collections, e.g. EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26291Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for providing content or additional data updates, e.g. updating software modules, stored at the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4332Content storage operation, e.g. storage operation in response to a pause request, caching operations by placing content in organized collections, e.g. local EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 딥러닝에 관한 전문적 지식이 없는 사용자라도 어려움 없이 사용자에게 필요한 정보를 제공할 수 있도록 딥러닝 프레임워크가 정보 데이터베이스에 플러그인 형태로 연결되어, 사용자의 요청 쿼리에 의해 정보 데이터베이스에 저장된 데이터를 딥러닝 방식으로 학습하여 쿼리에 대응하는 데이터를 추론할 수 있도록 하는 쿼리 기반 딥러닝 추론 시스템을 이용하여, 이미지나 동영상의 사람의 안면이나 자동차 번호판 등의 보호 대상을 검출하거나 마스킹 처리하여 사생활을 보호하고, 마스킹된 이미지에서 특정 식별 대상을 복원하며, 마스킹된 이미지에서 식별 대상을 어느 정도로 잘 감지하는지 평가할 수 있으며, 딥러닝 추론을 그래픽 장치로 분산 실행하여 추론 속도 및 자원을 효율적으로 사용할 수 있다.

Description

사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법{COMPUTING APPARATUS USING DEEP LEARNING FRAMEWORK PRIVACY PROTECTION AND METHOD THEREOF}
본 발명은 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 방법으로, 쿼리 기반 딥러닝 추론 시스템을 이용한 사생활 보호 및 재검출 평가할 수 있는 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법에 관한 것이다.
블랙 박스, CCTV, 네트워크 카메라 등은 무작위로 대상을 촬영한다. 촬영된 산출물은 법원이나 보도 등 다양하게 사용될 수 있는데, 일반 공중에 공개하기 전에 사람의 얼굴이나 자동차 번호판 등 사생활 보호 대상이 알려져서는 안된다.
사생활을 보호하기 위한 보호 대상 검출은 기계 학습이나 딥러닝 기술이 이용될 수 있다. 딥러닝을 이용한 학습엔진은 기존의 다른 AI 기술에 기반을 둔 학습엔진보다 월등히 뛰어난 지능 성능을 보이고 있다.
그러나, 딥러닝 기술 기반의 지능을 제공하는 학습엔진을 생성하기 위해서는 딥 네트워크 설계, 학습 함수 설정, 파라미터 튜닝 등 여러 가지 어려운 난관이 있다. 이러한 문제들은 딥러닝 전문가가 아니면 쉽게 할 수 없어, 누구나 쉽게 딥러닝 기반 학습엔진을 갖기 어렵다.
또한 학습엔진을 생성할 때마다, 딥러닝의 공통적인 요소를 중복 사용하게 되어, 동일한 과정을 반복 수행해야 하는 문제가 있다.
또한, 사생활 보호를 위해 마스킹된 이미지에서 식별 대상을 다시 검출하거나, 특정 식별 대상을 신속하게 복원할 필요가 있다.
또한, 다수의 스트리밍과 같이 대용량의 입력 데이터에 대해 빠른 속도로 딥러닝 추론할 필요가 있다.
KR 10-2058124 B1
전술한 문제점을 해결하기 위한 본 발명의 목적은, 딥러닝에 관한 전문적 지식이 없는 사용자라도 어려움 없이 사용자에게 필요한 정보를 제공할 수 있도록 딥러닝 프레임워크가 정보 데이터베이스에 플러그인 형태로 연결되어, 사용자의 요청 쿼리에 의해 정보 데이터베이스에 저장된 데이터를 딥러닝 방식으로 학습하여 쿼리에 대응하는 데이터를 추론할 수 있도록 하는 쿼리 기반 딥러닝 추론 시스템을 이용하여, 이미지나 동영상으로부터 사생활 보호 대상을 검출하고, 이를 마스킹 처리를 하여 사생활을 보호하고, 마스킹된 이미지에서 특정 식별 대상을 복원하며, 마스킹 처리에 얼마나 식별 대상을 잘 감지하게 하는지의 평가 척도를 정의할 수 있으며, 빠른 속도의 딥러닝 추론이 가능한 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법을 제공하는 데 있다.
본 발명의 일 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 CPU부(170) 및 버퍼 메모리부(270)를 구비하는 호스트부(70); GPU와 GPU 메모리를 구비하는GPU 모듈을 복수 개 구비하는 타겟부(80); 복수의 채널로부터 수신한 복수의 동영상 패킷을 디코딩하여, 복수의 프레임을 생성하는 프레임 관리 모듈(140); 상기 복수의 프레임 각각에 이미지 정보 ID를 부여하는 매핑 모듈(150); 입력되는 원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능의 딥러닝 프로세스를 생성하는 메인 프레임워크부(310); 상기 복수의 GPU 모듈 중 타겟 설정 정책에 따라 서브 연산할 제1 GPU 모듈(191)을 선정하고, 상기 복수의 프레임 중 적어도 일부의 프레임 세트가 버퍼 로딩 정책에 따라 상기 버퍼 메모리부(270)의 제1 워크 아이템에 로딩되도록 하는 스케쥴러 모듈(145); 및 상기 제1 워크 아이템의 용량이 기설정된 제1 배치 볼륨이 되면, 상기 제1 워크 아이템이 상기 제1 GPU 모듈(191)의 제1 GPU 메모리(281)로 전송되도록 하는 메모리 관리 모듈(155);을 포함할 수 있다.
또한, 상기 제1 워크 아이템은 상기 제1 GPU 모듈(191)에서 수행되는 아이템이고, 명령어 세트, 프레임 데이터, 및 출력 데이터로 할당된 영역을 구비할 수 있다. 상기 명령어 세트는 상기 딥러닝 프로세스에서 실행되는 프로그램 코드 중 적어도 일부인 매트릭스 연산이 수행되도록 하는 코드들의 집합을 구비할 수 있다. 상기 제1 배치 볼륨은 상기 제1 GPU 모듈(191)의 GPU 메모리 사이즈 이하이고, 로딩되는 복수의 프레임의 최대 개수에 따른 용량일 수 있다.
또한, 상기 스케쥴러 모듈(145)은 상기 제1 워크 아이템에 로딩되는 복수의 프레임 중 이전 프레임과 동일한 프레임을 누락시키고, 상기 버퍼 로딩 정책은 상기 스케쥴러 모듈(145)에 의해 비누락된 프레임들 중 기설정된 버퍼링 시간 내에 도착한 프레임들을 순차적으로 로딩할 수 있다.
또한, 상기 메모리 관리 모듈(155)은 상기 제1 GPU 모듈(191)에 의해 상기 워크 아이템의 작업이 완료되면, 완료된 워크드 아이템을 상기 프레임 관리 모듈(140)로 전송되도록 할 수 있다. 상기 워크드 아이템은 상기 프레임 중 식별 이미지 박스를 마스킹한 마스킹 이미지 박스로 구성된 마스킹 이미지 박스 세트(955)일 수 있다. 상기 마스킹 이미지 박스는 대응되는 식별 이미지 박스의 이미지에서의 위치 정보를 구비하는 매핑 정보를 구비할 수 있다.
또한, 상기 프레임 관리 모듈(140)은 상기 복수의 프레임을 상기 마스킹 이미지 박스 세트(955)를 이용하여 복수의 비식별화 프레임으로 변환하고, 상기 복수의 비식별화 프레임을 상기 매핑된 이미지 정보 ID을 기초로 채널별 비식별화 동영상 패킷으로 인코딩하여, 상기 이미지 정보 ID의 채널 식별자에 대응되는 각각의 채널로 상기 비식별화 동영상 패킷이 전송되도록 할 수 있다.
또한, 기학습된 사생활 보호 기능의 학습 모델의 아키텍처 및 학습 파라미터를 관계형 데이터 구조인 네트워크 테이블 및 학습 파라미터 테이블를 구비한 사생활 보호 기능의 학습 모델 테이블로 관리하는 제어부(100);를 더 포함할 수 있다.
또한, 상기 제어부(100)는 상기 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 상기 메인 프레임워크부(310)에 적합한 사생활 보호용 모델 아키텍처로 구성하고, 상기 학습 파라미터 테이블의 학습 파라미터를 상기 사생활 보호용 모델 아키텍처에 할당하여, 상기 사생활 보호 추론 기능의 딥러닝 프로세스가 생성되도록 할 수 있다.
본 발명의 다른 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 복수의 채널로부터 복수의 동영상 패킷을 수신하는 네트워크 통신부(380); 기설정된 GPU 메모리 사이즈의 워크 아이템이 로딩될 수 있는 아이템 영역이 복수 개 할당된 버퍼 메모리부(270); 상기 동영상 패킷을 디코딩하여, 각각 채널 식별자 및 타임 코드를 구비하는 복수의 프레임을 생성하고, 상기 복수의 프레임을 버퍼 로딩 정책에 따라 기설정된 배치 사이즈 별로 순차적으로 상기 버퍼 메모리부(270)에 로딩하는 프레임 관리 모듈(140); 복수의 GPU 메모리를 구비하는 GPU 메모리부(280); 상기 복수의 GPU 메모리에 각각 연관된 복수의 GPU를 구비하는 GPU부(180); 상기 복수의 프레임이 상기 복수의 아이템 영역 중 어느 하나에 모두 로딩되면, 상기 로딩된 워크 아이템이 상기 GPU 메모리부(280) 중 제1 GPU 메모리(281)로 전송되도록 하는 메모리 관리 모듈(155); 기학습된 사생활 보호 기능의 학습 모델의 아키텍처 및 학습 파라미터를 관계형 데이터 구조인 네트워크 테이블 및 학습 파라미터 테이블를 구비한 사생활 보호 기능의 학습 모델 테이블로 관리하는 제어부(100); 및 CPU부(170)에 연관된 메인 프레임워크부(310) 및 상기 복수의 GPU에 각각 연관된 복수의 서브 프레임워크 모듈을 구비하는 서브 프레임워크부(320);를 포함할 수 있다.
또한, 상기 제어부(100)는 상기 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 상기 메인 프레임워크부(310)에 적합한 사생활 보호용 모델 아키텍처로 구성하고, 상기 학습 파라미터 테이블의 학습 파라미터를 상기 사생활 보호용 모델 아키텍처에 할당하여, 입력되는원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능이 실행되도록 하고, 상기 복수의 서브 프레임워크 모듈이 상기 사생활 보호 추론 기능 중 적어도 매트릭스 연산이 수행되도록 어레인지할 수 있다.
또한, 상기 버퍼 로딩 정책은 상기 복수의 프레임이 도착한 순서대로 순차적으로 로딩하는 제1 로딩 정책; 상기 버퍼 메모리부(270)의 상기 배치 사이즈 영역에 로딩되는 프레임은 최초 할당된 제1 채널의 제1 프레임과 일정 시간 또는 일정 순서 내의 상기 제1 채널의 다른 프레임인 상기 제1 로딩 정책 보다 우선 순위가 높은 제2 로딩 정책; 및 상기 배치 사이즈 영역에 빈 영역이 있는 경우, 할당되지 않은 최신 프레임이 로딩되는 상기 제1 로딩 정책 보다 우선 순위가 낮은 제3 로딩 정책; 중 적어도 상기 제1 로딩 정책을 구비할 수 있다.
상기 프레임 관리 모듈(140)은 상기 복수의 채널 중 패킷량이 적은 채널에 전송 속도를 높이도록 하는 메시지가 전송되도록 할 수 있다.
상기 제어부(100)는 상기 복수의 프레임을 관계형 데이터 구조인 식별 이미지 데이터 셋 테이블(520)으로 데이터베이스화하는 데이터셋 관리 모듈(110); 상기 식별 이미지 데이터 셋 테이블(520) 중 딥러닝 훈련 가능한 훈련용 데이터셋 테이블과 기저장된 복수의 학습 모델의 각각의 네트워크 테이블의 관계형 데이터 구조에 기초하여, 상기 훈련용 데이터셋 테이블에 적합한 학습 모델을 결정하는 학습 모델 관리 모듈(120); 및 상기 네트워크 테이블의 관계형 데이터 구조에 기초하여, 상기 유사도를 판단하는 학습 모델 관리 모듈(120)를 구비하고, 상기 제어부(100)는 상기 복수의 프레임 중 어느 하나인 원본 이미지(910)의 식별 대상인 제1 식별 이미지 박스(911)를 제1 마스킹 이미지 박스(921)로 마스킹하여 비식별 이미지(920)로 변환하는 이미지 박스 관리 모듈(130)을 더 구비할 수 있다.
상기 이미지 박스 관리 모듈(130)은 사용자로부터 상기 비식별 이미지(920)에서 마스킹된 제2 마스킹 이미지 박스(922)를 언마스킹할 대상으로 요청 받은 경우, 상기 제2 마스킹 이미지 박스(922)와 매칭되는 제2 식별 이미지 박스(912)를 이미지 박스들을 저장하는 이미지 박스 저장 모듈(230)에서 추출한 후, 상기 제2 마스킹 이미지 박스(922)를 상기 제2 식별 이미지 박스(912)로 언마스킹할 수 있다.
상기 제어부(100)는 사생활 보호 솔루션(901)의 마스킹된 식별 대상을 영상 분석 솔루션(902)을 통해 얼마나 감지하는 평가하는 평가 모듈(135)을 더 구비할 수 있다. 상기 평가 모듈(135)은 상기 비식별 이미지(920)에 상기 영상 분석 솔루션(902)을 적용하여, 상기 비식별 이미지(920)로부터 식별 대상 세트를 감지하여 분석 이미지 박스 세트를 도출하고, 상기 분석 이미지 박스 세트와 상기 비식별 이미지의 마스킹 이미지 박스 세트를 비교하여, 대상 감지율 및 감지 에러율 중 적어도 하나를 측정할 수 있다. 상기 대상 감지율은 상기 식별 대상 세트의 존재 여부에 대한 정확도이고, 상기 감지 에러율은 상기 분석 이미지 박스 세트와 상기 마스킹 이미지 박스 세트의 위치와 크기의 일치율일 수 있다.
특정 형식의 학습 모델을 다른 형식의 학습 모델로 변환하는 변환부(360)를 더 포함하고, 저장부(200)에 저장된 학습 모델 테이블은 외부 딥러닝 프레임워크에서 생성된 학습 모델이 상기 변환부(360)에 의해 임포트된 것일 수 있다.
상기 제어부(100)는 사생활 보호 기능(딥러닝 기능)의 훈련을 하는 경우, 상기 저장부(200)에 저장된 복수의 학습 모델 테이블 중 상기 사생할 보호 기능에 적합한 학습 모델 테이블을 선택하고, 상기 변환부(360)는 상기 학습 모델 테이블에 속한 네트워크 테이블을 상기 메인 프레임워크부(310)에 적합한 포맷으로 변환하고, 상기 메인 프레임워크부(310)는 상기 변환부(360)에서 변환된 적합한 포맷을 이용하여 모델 아키텍처를 구성하고, 상기 모델 아키텍처에 학습 파라미터를 임의로 할당하여 상기 훈련용 데이터셋 테이블에 저장된 학습용 이미지 데이터와 상기 모델 아키텍처를 이용하여 훈련하고, 상기 저장부(200)는 상기 훈련된 모델 아키텍처 및 훈련된 학습 파라미터를 네트워크 테이블 및 학습 파라미터 테이블로 변환하여 사생활 보호 기능의 학습 모델 테이블로 저장할 수 있다.
상기 제1 식별 이미지 박스를 마스킹한 제1 마스킹 이미지 박스는 사생활 보호 대상으로 검출 시 검출 대상으로 감지되고, 검출 대상을 특정할 수 있는 특정 특성은 존재하지 않고, 상기 마스킹 처리는 상기 제1 식별 이미지 박스 자체를 조작하는 모자이크 처리 및 상기 식별 이미지 박스와 무관한 이미지로 대체하는 대체 처리 중 적어도 어느 하나일 수 있다.
상기 제1 마스킹 이미지 박스가 상기 대체 처리된 경우, 상기 제1 마스킹 이미지 박스는 상기 식별 대상으로 감지되도록 하는 이미지, 문자, 및 QR 코드 중 적어도 하나를 구비하고, 상기 제1 마스킹 이미지 박스는 상기 식별 대상과 동일한 대상 범주 및 상기 대상 범주 보다 하위 범주의 하위 범주 특성을 구비할 수 있다.
본 발명의 일 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 방법은 복수의 GPU 모듈 중 타겟 설정 정책에 따라 서브 연산할 제1 GPU 모듈(191)을 선정하는 단계; 복수의 채널로부터 수신한 복수의 동영상 패킷을 디코딩하여, 복수의 프레임을 생성하는 단계; 상기 복수의 프레임 각각에 채널 식별자 및 타임 코드를 구비하는 이미지 정보 ID를 부여하는 매핑 단계; 입력되는 원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능의 딥러닝 프로세스를 생성하는 단계; 상기 복수의 프레임 중 적어도 일부의 프레임 세트가 버퍼 로딩 정책에 따라 버퍼 메모리부(270)의 제1 워크 아이템에 로딩되도록 하는 버퍼링 단계; 및 상기 제1 워크 아이템의 용량이 기설정된 제1 배치 볼륨이 되면, 상기 제1 워크 아이템이 상기 제1 GPU 모듈(191)의 제1 GPU 메모리(281)로 전송되도록 하는 단계;를 포함하고, 상기 제1 워크 아이템은 상기 제1 GPU 모듈(191)에서 수행되는 아이템이고, 명령어 세트, 프레임 데이터, 및 출력 데이터로 할당된 영역을 구비하고, 상기 명령어 세트는 상기 딥러닝 프로세스에서 실행되는 프로그램 코드 중 적어도 일부인 매트릭스 연산이 수행되도록 하는 코드들의 집합을 구비하고, 상기 제1 배치 볼륨은 상기 제1 GPU 모듈(191)의 GPU 메모리 사이즈 이하이고, 로딩되는 복수의 프레임의 최대 개수에 따른 용량일 수 있다.
또한, 상기 제1 워크 아이템에 로딩되는 복수의 프레임 중 이전 프레임과 동일한 프레임을 누락시키는 필터링 단계;를 더 포함하고, 상기 버퍼 로딩 정책은 상기 스케쥴러 모듈(145)에 의해 비누락된 프레임들 중 기설정된 버퍼링 시간 내에 도착한 프레임들을 순차적으로 로딩하는 것일 수 있다.
또한, 상기 제1 GPU 모듈(191)에 의해 상기 워크 아이템의 작업이 완료되면, 완료된 워크드 아이템을 상기 버퍼 메모리부(270)로 전송되도록 하는 단계;를 더 포함하고, 상기 워크드 아이템은 상기 프레임 중 식별 이미지 박스를 마스킹한 마스킹 이미지 박스로 구성된 마스킹 이미지 박스 세트(955)이이고, 상기 마스킹 이미지 박스는 대응되는 식별 이미지 박스의 이미지에서의 위치 정보를 구비하는 매핑 정보를 구비할 수 있다.
또한, 상기 복수의 프레임을 상기 마스킹 이미지 박스 세트(955)를 이용하여 복수의 비식별화 프레임으로 변환하는 단계; 및 상기 복수의 비식별화 프레임을 상기 매핑된 이미지 정보 ID을 기초로 채널별 비식별화 동영상 패킷으로 인코딩하는 단계; 및 상기 이미지 정보 ID의 채널 식별자에 대응되는 각각의 채널로 상기 비식별화 동영상 패킷이 전송되도록 하는 단계;를 더 포함할 수 있다.
본 발명에 의하면, 쿼리 기반의 기계학습 기술을 이용함으로써 딥러닝 프레임워크가 데이터베이스에 플러그인 형태로 연결되어 사용자의 요청쿼리에 의해서 데이터베이스에 저장된 데이터를 사용하여 기계학습, 추론 등을 수행하여, 안면이나 자동차 번호판 등의 사생활 보호 대상을 검출할 수 있다. 따라서, 딥러닝에 관한 전문적 지식이 없는 사용자라도 어려움 없이 필요한 정보를 용이하게 제공할 수 있다.
또한, 마스킹된 이미지 박스와 대응되는 식별 이미지 박스를 맵핑 정보를 통해 신속히 검색할 수 있어, 이미지의 복원을 신속하며 적은 컴퓨팅 자원으로 가능할 수 있다.
또한, 사생활 보호 솔루션의 식별 대상이 인식되지 않되 감지되도록 하는 마스킹 처리의 평가 척도를 제시할 수 있다.
또한, 다수의 GPU 사용으로, 대용량의 입력 데이터에 대해 빠른 시간 내에 딥러닝 추론을 수행할 수 있다.
도 1은 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다.
도 2는 본 발명의 일 실시예에 따른 데이터베이스 서버의 제어 구성도이다.
도 3은 본 발명의 일 실시예에 따른 데이터 관리 구성도이다.
도 4는 본 발명의 일 실시예에 따른 데이터베이스 구조도이다.
도 5는 본 발명의 일 실시예에 따른 변환부의 제어 구성도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 변환부의 변환 동작도이다.
도 8은 본 발명의 실시 예에 따른 쿼리 기반의 기계학습 기술의 수행 흐름을 나타낸 흐름도이다.
도 9는 본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 방법을 설명하기 위한 동작 흐름도이다.
도 10은 스트리밍 시스템 및 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다.
도 11은 본 시스템의 일부 구성의 세부 블럭도이다.
도 12는 데이터의 변환을 도시하는 변환도이다.
도 13 및 도 14는 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 방법의 학습 및 추론에 대한 순서도이다.
도 15는 도 14의 추론 과정을 도시한다.
도 16은 도 14의 평가 과정을 도시한다.
도 17은 추론 및 평가의 전후 이미지를 도시한다.
도 18은 본 발명의 일 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 블록 구성도(block diagram)이다.
도 19는 도 18에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 시스템 환경을 도시한다.
도 20은 도 18에 네트워크 통신부에 수신되는 패킷을 도시한다.
도 21은 도 20에 따른 프레임의 시스템 메모리에 로딩되는 것을 도시한다.
도 22는 본 발명의 다른 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 주요 하드웨어적 환경을 도시한다.
도 23은 도 22에 따른 장치의 블록 구성도이다.
도 24는 도 23에 따른 일부 구성인 제어부 및 저장부의 세부 블록 구성도이다.
도 25은 데이터에 관련된 도 22에 따른 일부 구성의 세부 블록 구성도이다.
도 26은 도 25에 따른 일부 구성의 세부 블록 구성도이다.
도 27은 도 26에 따른 메모리 관리를 도시한다.
도 28은 도 22의 장치를 이용한 딥러닝 프레임워크 응용 컴퓨팅 방법의 순서도이다.
도 29는 도 22의 신호 흐름도이다.
도 30은 도 22의 입출력 및 중간 데이터를 도시한다.
이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 또한 네트워크 상의 제1 구성요소와 제2 구성요소가 연결되어 있거나 접속되어 있다는 것은, 유선 또는 무선으로 제1 구성요소와 제2 구성요소 사이에 데이터를 주고 받을 수 있음을 의미한다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 도면 전체를 통하여 동일하거나 유사한 구성요소에 대해서는 동일한 도면 부호를 부여하였고, 동일한 도면 부호를 가지는 구성요소에 대한 자세한 설명은 전술한 구성요소에 대한 설명으로 대체되어 생략될 수 있다.
또한, 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적이지 않다. 본 명세서에 기술된 특정 형상, 구조, 기능, 및 특성의 일 실시예는 다른 실시예로 구현될 수 있다. 예를 들어, 제1 및 제2 실시예에서 언급되는 구성요소는 제1 및 제2 실시예의 모든 기능을 수행할 수 있다.
도 1은 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다. 도 2는 본 발명의 일 실시예에 따른 데이터베이스 서버의 제어 구성도이다. 도 3은 본 발명의 일 실시예에 따른 데이터 관리 구성도이다. 도 4는 본 발명의 일 실시예에 따른 데이터베이스 구조도이다. 도 5는 본 발명의 일 실시예에 따른 변환부의 제어 구성도이다. 도 6 및 도 7은 본 발명의 일 실시예에 따른 변환부의 변환 동작도이다. 도 8은 본 발명의 실시 예에 따른 쿼리 기반의 기계학습 기술의 수행 흐름을 나타낸 흐름도이다. 도 9는 본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 방법을 설명하기 위한 동작 흐름도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 쿼리 기반 딥러닝 추론 시스템(1)은 쿼리 기반의 기계학습 기술을 적용할 수 있다. 이를 위해, 쿼리 기반 딥러닝 추론 시스템(1)은 데이터베이스 서버(10) 및 단말기(20)를 포함할 수 있다.
여기서, 쿼리 기반의 기계학습 기술은 사용자가 단말기(20)를 통해 데이터베이스 서버(10)로 딥러닝 등의 요청을 쿼리로 전송하면, 데이터베이스 서버(10)가 데이터베이스 서버(10)에 저장된 데이터를 이용하여 데이터베이스 서버(10)에 연결된 딥러닝 프레임워크가 기계학습, 딥러닝, 추론 등이 수행되는 기술을 의미한다.
단말기(20)는 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 및 플렉시블 단말기(Flexible Terminal) 중 어느 하나이거나 조합된 것일 수 있다.
단말기(20)는 데이터베이스 서버(10)(이하, DB 서버)에 접속할 수 있다. 사용자나 관리자는 단말기(20)를 통해 DB 서버(10)에 쿼리를 보내거나 쿼리에 따른 결과를 받아볼 수 있다.
DB 서버(10)는 데이터베이스를 운용하거나 데이터베이스와 연결되어 제어하는 서버일 수 있다. DB 서버(10)는 통합 관리되는 데이터의 집합(데이터베이스) 및, 이를 관리하는 미들웨어가 포함된 개념을 의미할 수 있다. 데이터베이스 서버(10)는 데이터베이스 관리 시스템(DBMS)를 의미할 수 있다. 데이터베이스를 DB 서버(10) 또는 데이터베이스 관리 시스템(DBMS)의 의미로 사용될 수도 있다.
DB 서버(10)는 쿼리에 따라 작업하거나 쿼리에 따른 결과를 생성하는 모든 장치를 의미할 수 있다. 쿼리는 SQL(Structured Query Language) 문법을 따를 수 있다. DB 서버(10)의 데이터베이스는 관계형 데이터베이스인 것이 바람직하다.
단말기(20)는 딥러닝 추론 쿼리를 입력하고, DB 서버(10)로부터 쿼리에 대응된 추론 결과를 수신할 수 있다.
단말기(20)는 쿼리를 통해서 DB 서버(10)에 여러 기능들을 요청하고, DB 서버(10)로부터 결과를 응답 받을 수 있다. 단말기(20)는 쿼리를 통해서 DB 서버(10)에 저장된 데이터를 확인, 또는 수정하거나, 새로운 데이터를 추가할 수 있다. 단말기(20)는 쿼리를 통해서 DB 서버(10)에 저장된 학습 모델을 확인, 또는 수정하고 새로운 학습을 위한 학습 모델을 생성할 수 있다. 단말기(20)는 쿼리를 통해서 데이터와 학습 모델을 선택하고 파라미터를 설정하여 기계학습을 요청하고, 학습 중간 결과 및 최종 결과를 확인할 수 있다. 단말기(20)는 쿼리를 통해서 데이터와 기학습된 학습 모델을 선택하여 기계추론을 요청하고, 추론 결과를 확인할 수 있다.
도 2를 참조하면, DB 서버(10)는 제어부(100), 저장부(200), 프레임워크부(300), 변환부(360), 및 입출력부(370)를 포함할 수 있다.
입출력부(370)은 자체적인 인터페이스 장치일 수 있다. 입출력부(370)은 입력 장치와 출력 장치를 각각 별개로 구비할 수 있다.
출력 장치는 비디오 신호 및/또는 오디오 신호를 출력할 수 있다. 출력 장치는 모니터 등의 디스플레이 장치, 및/또는 스피커 등일 수 있다.
입력 장치는 유저가 DB 서버(10)의 동작 제어를 위해 입력하는 입력 데이터를 발생시킬 수 있다. 입력 장치는 키보드, 키 패드, 터치 패드, 마우스 등의 사용자 조작 장치를 구비할 수 있다.
입력 및 출력 장치는 터치 스크린과 같이 하나로 구현될 수 있다.
입력 장치는 오디오 신호 및/또는 비디오 신호를 DB 서버(10)에 입력할 수 있다. 입력 장치는 카메라와 마이크 등을 구비할 수 있다.
입력 장치는 센서 장치를 포함할 수 있다. 센서 장치는 온도 센서, 습도 센서, 밝기 센서, 먼지 센서, 압력 센서, 진동 센서, 전압 센서, 전류 센서, 평행 센서, 자기 센서, 조도 센서, 근접 센서, 거리 센서, 기울기 센서, 가스 센서, 열감지 센서, 불꽃 감지 센서, 금속 감지 센서, 홀 센서 등을 구비할 수 있다. 센서 장치는 온도, 습도, 밝기, 먼지(탄소), 압력, 진동, 전압, 전류, 평행, 자기, 조도, 근접, 거리, 기울기, 가스, 열감지, 불꽃 감지, 금속 감지, 회전량 데이터를 생성할 수 있다.
입출력부(370)는 DB 서버(10)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행할 수 있다. 외부기기의 예로는, 유/무선 데이터 포트, 메모리 카드(Memory card) 등과 같은 카드의 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자 등이 있을 수 있다. 입출력부(370)는 이러한 외부 기기로부터 데이터를 전송받거나 DB 서버(10) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.
입출력부(370)는 통신 기능을 수행할 수 있다. 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), UWB(Ultra Wideband), 지그비(ZigBee) 등 중 적어도 하나의 근거리 통신 프로토콜이 이용될 수 있다. 통신은 인터넷 접속을 포함할 수 있다. 입출력부(370)는 통신을 통해 외부 장치 예를 들어, 단말기(20)와 데이터를 주고 받을 수 있다.
본 명세서에서 단말기(20)를 별도의 장치로 도시하였지만, 입출력부(370)는 단말기(20)의 기능을 수행할 수 있다. 즉, 단말기(20)는 입출력부(370)로 대체(생략)되어, 본 발명이 실시될 수 있다.
입출력부(370)은 사용자의 통신수단(단말기(2))와의 통신을 담당하며, 사용자의 다양한 형태의 접속수단인 통신장비 및 전산장비와의 통신프로토콜 및 네트워크 상의 데이터 포멧을 제어할 수 있다.
데이터 포멧의 예로 ONNX(Open Neural Network exchange format), NNEF(Neural Network Exchange Format) 또는 CSV(Comma-separated values) 등이 있을 수 있다.
입출력부(370)는 사용자로부터 제어 명령이나 쿼리를 입력 받고, 사용자에게 결과를 제공하는 채널일 수 있다.
저장부(200)는 DB 서버(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다. 저장부(200)는 제어부(100)의 처리 및 제어를 위한 프로그램이 저장될 수 있고, 입력되거나 출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수 있다.
저장부(200)는 데이터를 데이터베이스로 저장하거나, 데이터베이스를 의미할 수 있다.
저장부(200)는 작업수행 및 기 작업이 수행되었던 내역 및 사용자 등에 대한 정보를 저장할 수 있다. 저장부(200)는 외부에 별도로 구비되는 저장 장치 또는 외부 전산망에 구비되는 저장장치 등과의 접속을 통하여 정보 및/또는 데이터를 저장할 수 있다. 빅데이터의 특징을 갖는 딥러닝 결과를 분산저장하거나, 외부에 별도로 저장하여, 요청시 호출하여 적용할 수 있다.
제어부(100)는 DB 서버(10)의 각 부의 동작을 제어하여 DB 서버(10)의 전반적인 제어 기능을 실행할 수 있다.
제어부(100)는 데이터베이스 내의 데이터를 접근하거나, 데이터를 관리하거나, 데이터를 테이블로 생성할 수 있다. 데이터 관리는 데이터를 조회, 수정, 및/또는 업로드 등을 의미할 수 있다.
제어부(100)는 사용자의 쿼리를 해석하고 실행하거나, 쿼리에 따른 작업이 수행되거나 결과를 제공하기 위한 모든 기능을 제어할 수 있다.
도 3 및 도 4를 참조하면, 제어부(100)는 데이터셋 관리 모듈(110), 결과 관리 모듈(115), 및 학습 모델 관리 모듈(120)을 구비할 수 있으며, 저장부(200)는 데이터셋(210), 학습 결과(215), 및 학습 모델(220)를 저장할 수 있다.
데이터셋 관리 모듈(110)에서 관리되는 데이터셋(210)은 학습 및 추론에 사용될 동일한 형식을 가진 정보 또는 데이터의 집합을 의미한다. 정보 또는 데이터는 숫자, 문자, 이미지, 영상, 및 음성 등을 포함하며, 기계학습에 사용되는 모든 종류의 정보 또는 데이터일 수 있다.
데이터셋(210)으로 군집시킬 수 있는 데이터의 동일한 형식이라 함은 확장자를 기준으로 정의할 수 있다. 예로, 이미지 정보의 경우, 그 확장자가 이미지를 나타내는 확장자일 경우 모두 동일한 카테고리의 데이터셋으로 군집하게 되는 것이다.
여기서, 예를 위해 이미지 정보를 예를 들어 설명하고 있으나, 사용되는 데이터는 이미지 뿐만 아니라 앞서 서술한 숫자, 문자, 이미지, 영상, 음성 등 기계 학습에 사용될 수 있는 모든 종류의 데이터가 될 수 있다.
데이터셋 관리 모듈(110)은 외부로부터 입력 받은 정보 또는 데이터(이하, '데이터')를 그 형식(예를 들어, 확장자)으로 동일한 데이터셋으로 군집시키거나, 데이터의 내용으로 분류할 수 있다. 데이터의 내용으로 분류되는 경우, 데이터셋 관리 모듈(110)은 동일한 데이터 형식으로 구분하는 데이터 분류 학습 모델을 이용할 수 있다. 데이터 분류 학습 모델은 DB 서버(10)에 저장되어 필요시 호출되어 이용될 수 있다.
데이터셋 관리 모듈(110)은 데이터셋(210)이 학습 모델(220)에 잘 적용되도록 데이터를 전처리할 수 있다. 데이터 전처리는 데이터를 학습 모델의 텐서(벡터)에 맞도록 변환할 수 있다. 데이터 전처리의 예로 단어를 딥러닝에 이용되는 사전의 인덱스 숫자로 변환하는 예가 있을 수 있다.
데이터셋 관리 모듈(110)은 제1 형식의 데이터로부터 제2 형식의 데이터로 변환할 수 있다. 데이터셋 관리 모듈(110)은 제2 형식의 데이터를 1 군의 데이터셋으로 관리할 수 있다. 예를 들어, 데이터셋 관리 모듈(110)은 영상 데이터를 프레임 별로 이미지를 추출하여 일군의 데이터셋으로 변환(decoding)할 수 있다. 데이터셋 관리 모듈(110)은 일련의 이미지를 영상으로 변환(encoding)할 수 있다. 일련의 이미지는 작업된 이미지일 수 있다. 즉, 데이터셋 관리 모듈(110)은 동영상 데이터를 일군의 이미지 데이터셋으로 변환하고, 작업 처리(모자이크)된 일군의 이미지 데이터셋을 영상으로 변환할 수 있다. 데이터셋 관리 모듈(110)은 동영상 스트리밍 서비스를 할 수 있다. -데이터셋 관리 모듈(110)은 일련의 이미지로부터 인코딩하여 동영상 스트리밍 서비스하거나, 저장된 동영상 파일로부터 스트리밍 서비스할 수 있다.
데이터셋 관리 모듈(110)은 새로운 데이터셋을 생성할 때 새로운 테이블(데이터셋 테이블)을 생성하고, 데이터셋 테이블에서 데이터를 조회 또는 수정하거나 새로운 데이터를 추가할 수 있다.
데이터셋 관리 모듈(110)은 데이터베이스의 테이블에 접근하여 데이터를 조회하거나 사용자가 작성한 쿼리를 통해서 데이터베이스의 데이터를 조회한 결과를 보여주며, 사용자에게 부여된 권한에 따라 데이터를 수정할 수 있는 수준을 제한할 수 있다. 데이터셋 관리 모듈(110)은 사용자로부터 수치데이터를 입력받거나, 하나 이상의 파일을 읽어서 데이터 업로드를 진행할 수 있다. 데이터셋 관리 모듈(110)은 학습 데이터의 레이블을 작성할 수 있는 태깅기능을 제공할 수 있다.
본 명세서에서 데이터셋 테이블과 데이터셋은 서로 동일한 의미로 사용될 수 있다. 특히 관계형 데이터베이스에서 데이터셋은 데이터셋 테이블로 저장된 관계형 데이터 형식의 데이터 집합을 의미한다. 관계형 데이터 형식은 테이블 형식을 이용하여 데이터를 정의하고 설명하는 모델을 의미한다. 이는 후술하는 학습 모델과 학습 모델 테이블, 학습 결과와 학습 결과 테이블 등에서도 동일하게 적용될 수 있다.
학습 모델(Learning Model; LM) 관리 모듈(120)은 기계학습(딥러닝 등)에 사용되는 학습 모델(220)을 관리할 수 있다.
일반적으로 학습 모델(220)(학습 네트워크 모델)은 아키텍처(architecture) 및 파라미터를 포함할 수 있다.
아키텍처(모델 아키텍처)는 기계학습 모델의 구조를 의미한다. 아키텍처는 학습 모델의 구조에 해당하는 층(layer)의 수, 유닛의 수, 레이어의 종류, 유닛이 연결되는 방법 등을 포함할 수 있다.
아키텍처는 네트워크 모델 또는 네트워크로 지칭될 수 있다.
파라미터는 하이퍼 파라미터와 학습 파라미터를 구비할 수 있다.
하이퍼 파라미터는 입출력과 모델 내부를 정의하고, 학습률, 최적화 방법(학습 방법; 옵티마이저(optimzer)), 레이어의 종류, 입출력 크기, 계산에 필요한 파라미터 등을 구비할 수 있다. 하이퍼 파라미터는 아키텍처가 구현되도록 할 수 있다. 하이퍼 파라미터는 아키텍처의 일 구성요소로 작동될 수 있다. 최적화 방법은 별도의 옵티마이저 모듈로 구현될 수도 있다.
학습 파라미터는 웨이트(weight) 및/또는 바이어스(bias)를 구비할 수 있다. 웨이트는 입력된 데이터와 상호 작용에 사용되는 값으로, 모델 아키텍처에 상응하는 모델 웨이트가 존재할 수 있다. 학습 파라미터는 옵티마이저에 의해 값이 변화될 수 있다.
옵티마이저는 학습 모델이 원하는 기능을 가지도록 학습 파라미터를 변화시킬 수 있다. 학습(딥러닝) 또는 훈련은 이러한 학습 파라미터의 변화를 의미할 수 있다.
학습 모델의 기능의 예로, 사용자에 의해 입력된 텍스트를 인식하거나, 이미지/오디오/동영상 등에 포함된 음성이나 텍스트를 인식하거나, 인식된 음성이나 텍스트로붙 사용자의 의향을 분석하는 기능 등이 있을 수 있다.
학습 모델 관리 모듈(120)은 지원되는 레이어를 추가하고 레이어 파라미터(레이어의 종류, 입출력 크기, 계산에 필요한 파라미터)를 조정하여 새로운 네트워크 모델을 생성할 수 있다. 학습 모델 관리 모듈(120)은 기존에 작성된 네트워크 모델 리스트를 조회할 수 있으며, 기존에 작성된 네트워크 모델에 새로운 레이어를 추가하여 새로운 네트워크 모델을 생성할 수 있다. 이는 하이퍼 파라미터의 조정을 통해 구현될 수 있다. 이러한 일련이 작업들은 사용자의 쿼리에 의해 착수될 수 있다.
학습 모델 관리 모듈(120)은 네트워크 모델을 시각화하여 보여주는 기능을 제공할 수 있다. 이를 통해, 사용자가 히든 레이어의 구조를 쉽게 살펴볼 수 있다.
학습 모델(220)은 이외에 학습에 사용할 피드백 신호를 정의하는 손실 함수 및 학습 진행 방식을 결정하는 별도의 옵티마이저 모듈을 더 구비할 수 있다. 손실 함수 및 옵티마이저는 프레임워크부(300)에 구비될 수도 있다.
학습 모델(220)은 데이터베이스에서 관계형 데이터 형식인 학습 모델 테이블 포맷으로 저장될 수 있다.
도 4를 참조하면, 학습 모델 테이블은 네트워크 테이블(qml_network_t)을 구비할 수 있다. 아키텍처는 데이터베이스에서 관계형 데이터 형식인 네트워크 테이블(qml_network_t) 포맷으로 변환되어 저장될 수 있다. 네트워크 테이블(qml_network_t)은 학습 모델(220)의 아키텍처로 변환될 수 있다. 이는 후술하는 변환부(360)에 의해 변환될 수 있다.
네트워크 테이블은 복수의 서브-네트워크 테이블(qml_s_network_t)을 구비할 수 있다. 예를 들어, Multi GPU(N 개)로 네트워크 모델을 학습하는 경우에 N 개의 서브-네트워크 테이블이 구비될 수 있다. 네트워크 모델을 추론하는 경우에 1개의 서브-네트워크 테이블이 구비될 수 있다.
네트워크 테이블 또는 서브-네트워크 테이블은 네트워크를 구성하는 레이어에 관한 복수의 레이어 테이블(qml_layer_t)을 구비할 수 있다. 학습 모델(220)의 아키텍처를 구성하는 레이어는 레이어 테이블(qml_layer_t)로 변환되어 저장될 수 있다. 레이어 테이블(qml_layer_t)은 학습 모델(220)의 레이어로 변환될 수 있다. 이는 후술하는 변환부(360)에 의해 변환될 수 있다.
레이어 테이블(qml_layer_t)은 복수의 텐서(tensor) 테이블(qml_tensor_t)을 구비할 수 있다. 텐서 테이블은 NCHW 포맷으로 구성된 4차원 텐서일 수 있다. 텐서 테이블은 dtype, qml_shape_t, data, name 등이 구비될 수 있다. 텐서 테이블 및 학습 모델(220)의 텐서는 서로 변환될 수 있다. 이는 후술하는 변환부(360)에 의해 변환될 수 있다.
학습 모델(220)의 파라미터는 파라미터 테이블로 저장될 수 있다. 학습 모델(220)의 파라미터와 파라미터 테이블은 서로 변환될 수 있다. 이는 후술하는 변환부(360)에 의해 변환될 수 있다.
본 발명에서 미리 설계된 DB 스키마에 따라 모델 아키텍처와 모델 웨이트 등이 DB 테이블에 저장될 수 있다. 기설계된 DB 스키마는 서로 유사한 데이터셋 테이블과 학습 모델 테이블을 쉽게 분류할 수 있다. 이는 DB 서버(10)가 새로운 데이터셋을 입력 받으면, 저장되어 있는 관계형 데이터 형식의 학습 모델 중 유사한 학습 모델을 호출하여 새로운 데이터셋에 적용하게 할 수 있다.
예를 들어, '속성(attribute), 도메인(domain), 차수(degree), 튜플(tuple), 카리널리티(cardinality), 릴레이션(realtion), 키(key), 후보키(candidate key), 기본키(primary)' 등의 테이블의 구성요소의 외형인 차수, 내용인 속성 및 도메인 등의 유사도에 따라 입력된 데이터셋과 기저장된 학습 모델의 유사도를 정할 수 있다. 이러한 유사도 판단은 학습 모델 관리 모듈(120)이 할 수 있다.
이는 최초의 관계형 데이터 형식의 학습 모델이 생성되고 사용되어 데이터베이스에 저장된 후, 유사한 형식의 데이터셋이 입력되어 관계형 데이터 형식의 학습 모델을 생성해야 할 경우, 데이터베이스에 저장되어 있는 기존의 관계형 데이터 형식의 모델 중 유사도가 높은 모델을 검색하여 이를 호출한 후 적용할 수 있다. 이로 인해, 적합한 학습 모델의 생성 시간을 단축하고, 컴퓨팅 자원을 효율적으로 사용할 수 있다.
학습 모델 테이블은 구성요소가 관계형 데이터 형식으로 연결되어, 학습 모델 테이블은 사용자 또는 관리자가 작업 수행시 구성요소가 누락되지 않도록 가이드 역할을 할 수 있다.
결과 관리 모듈(115)은 기계학습이 진행되는 동안 발생되는 각 레이어의 아웃풋, 중간 출력값, 파라미터 값, 계산이 진행되는 모델의 평가지표 값(딥러닝 함수의 학습 손실값), 및 기계추론 결과값 등의 학습 결과(215)를 데이터베이스에 저장하거나 호출하여 사용자가 확인할 수 있도록 관리할 수 있다.
저장부(200)는 데이터셋(210) 테이블, 학습 모델(220) 테이블, 및 학습 결과(215) 테이블 이외에 프로젝트 테이블(Project Table), 작업 테이블(Job Table), 및 공통 테이블(Common Table)을 더 구비할 수 있다.
작업 테이블은 사용자 정보, 프로젝트의 상태, 로그 등을 포함하고, 공통 테이블은 레이어 타입, 오류 코드 등 룩업 테이블을 포함할 수 있다.
프로젝트 테이블은 학습 모델 테이블로부터 복사된 실제 학습 모델이나 추론을 진행할 프로젝트 정보가 저장될 수 있다. 프로젝트가 생성된 후 학습 모델 테이블과 별개의 구성을 가지게 되므로, 프로젝트에 사용된 기반 네트워크가 수정되더라도 기구축된 학습 모델에 영향이 없다.
저장부(200)는 개수가 많고 가변적인 데이터(입출력 데이터 및 가중치 정보)는 BLOB(Binary Large Object) 또는 text 타입으로, 개수가 적고 가변적인 데이터(각 레이어 파라미터 등)는 레코드를 분할하여 저장할 수 있다.
제어부(100)는 기계학습, 기계추론에 사용된 모든 입출력 데이터가 저장되도록 하고, 기계학습, 기계추론에 사용된 모델이 저장되도록 하며, 사용자의 쿼리 요청에 대응하는 프로시저(procedure)를 제공하여, 사용자 요청에 의한 기계학습을 수행할 수 있다.
프로시저는 인서트 네트워크(Insert Network), 인서트 레이어(Insert Layer), 메이크 프로젝트(Make Project), 입력 데이터 로더(Input Data Loader), 네트워크 초기화(Init Network), 트레인(Train), 모델 저장(Save Model) 및 테스트(Test)를 포함할 수 있다.
인서트 네트워크는 네트워크(아키텍처) 이름, 네트워크 타입, 데이터셋 이름, 옵티마이저 타입, 옵티마이저 파라미터, 학습률, 배치 크기, 학습 횟수, 출력 레이어 인덱스를 포함하는 네트워크 테이블을 생성할 수 있다.
인서트 레이어는 네트워크 아이디, 레이어 이름, 레이어 타입, 레이어 인덱스, 레이어 파라미터, 입력 레이어 인덱스를 포함하는 레이어 테이블을 등록할 수 있다.
메이크 프로젝트는 프로젝트 이름, 데이터셋 이름, 네트워크 이름, 학습 또는 추론 플래그, GPU 개수를 포함하는 프로젝트를 생성할 수 있다.
입력 데이터 로더는 사용자 입력의 선택(레이어 인덱스, 쿼리 타입(학습 테이블, 학습 데이터, 검증 테이블, 검증 데이터)에 따라 데이터를 입력할 수 있다.
네트워크 초기화는 네트워크 모델을 구성할 수 있다.
트레인은 프로젝트 아이디, 학습 세대 수, 배치 사이즈, 이어서 학습 여부, 저장 간격, 검증 간격, GPU 동기화 간격을 포함하는 학습을 시작할 수 있다.
모델 저장은 프로젝트 테이블의 네트워크 정보를 네트워크 테이블로 복사(프로젝트 이름, 네트워크 이름)할 수 있다.
테스트는 프로젝트 아이디, 모든 레이어의 결과 저장 여부 플래그를 포함하는 추론을 시작할 수 있다.
프레임워크부(300)는 다양한 기계학습 프레임워크 또는 딥러닝 프레임워크을 이용하여 기계학습을 수행할 수 있다.
프레임워크는 응용 프로그램을 개발하기 위한 여러 라이브러리나 모듈 등을 효율적으로 사용할 수 있도록 하나로 묶어 놓은 일종의 패키지일 수 있다. 개발자 또는 관리자는 이미 검증된 수많은 라이브러리와 사전 학습이 완료된 다양한 딥러닝 알고리즘을 프레임워크를 통해 빠르고 손쉽게 사용할 수 있다.
딥러닝 프레임워크는 TensoFlow, Torch/PyTorch, Deeplearing4j, CNTK(MICROSOFT COGNITIVE TOOLKIT), Keras, ONNX(Open Neural Network Exchange), MXNet, Caffe, QML(Quantum Machine Learning) 등이 있을 수 있다.
프레임워크부(300)는 DB 서버(10)에 플러그 인으로 설치된 딥러닝 프레임워크일 수 있다. 프레임워크부(300)는 DB 서버(10)의 제어부(100)의 호출로 실행될 수 있다.
프레임워크부(300)는 호출될 때 제어부(100)로부터 각종 데이터를 인자로 받아 수행결과를 반환할 수 있다. 프레임워크부(300)는 관계형 데이터 포맷으로 정의된 네트워크 모델을 해석하여 프레임워크 내부에 네트워크를 구성할 수 있다. 이러한 해석은 후술하는 변환부(360)에서 실행될 수도 있다.
프레임워크부(300)는 제어부(100)로부터 학습 파라미터와 학습 데이터를 인자로 받아 프레임워크 내부에 구성된 네트워크의 학습을 수행하고 학습결과를 반환할 수 있다. 프레임워크부(300)는 제어부(100)로부터 입력 데이터를 인자로 받아 프레임워크 내부에 구성된 네트워크를 이용하여 기계추론을 수행하고 결과를 반환할 수 있다.
프레임워크부(300)는, 쿼리를 입력받으면, DB 서버(10)에 저장된 학습 모델에 대한 확인, 수정, 및 새로운 학습을 위한 학습 모델을 생성하며, 입력된 쿼리에 따라 정보 또는 데이터와 학습 모델을 선택하고 학습 파라미터를 설정하여 기계학습을 실행하고, 학습 중간 결과 및 최종 결과를 제공하며, 입력된 쿼리를 통하여 데이터와 기 학습된 학습 네트워크 모델을 선택하여 기계추론을 실행하고, 그 추론 결과를 제공할 수 있다.
본 실시예에서 프레임워크부(300)는 내부 프레임워크로 QML 모듈(305)을 구비할 수 있다. 내부 프레임워크는 QML 모듈(305) 이외에 다른 프레임워크를 구비하거나 더 구비할 수 있다. 이는 사용자에게 사용하고자 하는 다양한 선택지를 제공할 수 있다.
QML 모듈(305)은 QML 플러그인 기능을 구현할 수 있다. QML 모듈(305)은 딥러닝을 수행할 수 있는 프레임워크인 QML을 탑재할 수 있다. QML 모듈(305)은 데이터베이스와 UDF(User Defined Function)를 통해 연결되며 호출에 의해 실행될 수 있다.
프레임워크에 정의된 함수들은 각각 UDF를 통해 데이터베이스에 등록되고, 등록된 UDF 호출을 통해서 프레임워크가 실행될 수 있다.
UDF에서 사용할 수 있는 인자 변수의 타입은 integer, real number, string으로 정해져 있다. 이러한 변수들은 QML에서 각각 사용될 수 있다. 예를 들어, 정수(integer) 타입은 네트워크 모델을 구성하는 필수 파라미터 중 정수값, QML 내부에 정의된 구조체 메모리의 주소값 등에 이용될 수 있다. Real number 타입은 네트워크 모델을 구성하는 필수 파라미터 중 실수값 등에 이용될 수 있으며, string 타입은 개수가 가변적인 파라미터들과 binary데이터인 blob 데이터에 이용될 수 있다.
QML 프레임워크는 채널 우선 데이터 포멧인 NCHW(N:batch, C:channel, H:height, W:width) 포멧을 따를 수 있다. 레이어 종류는 ONNX에서 사용되는 레이어를 지원하며, 각 레이어에 정의된 파라미터들도 ONNX 포맷을 따를 수 있다.
QML 프레임워크는 네트워크 모델을 학습가능하도록 백프로퍼케이션(Back-Propagation)알고리즘을 탑재할 수 있다. QML 프레임워크는 그라디언트 계산 알고리즘과 모델파라미터(weight, bias)를 업데이트 시키기 위한 옵티마제이션 알고리즘을 탑재할 수 있다.
QML 모듈(305)은 네트워크 모델(아키텍처)을 학습하는 방식중 네트워크 모델를 처음부터 학습시킨 후 각 레이어의 가중치에 따라 초기화 알고리즘을 통하여 결정하는 Train from scratch 기법과 기 학습된 모델의 가중치(import 기능을 통해 데이터베이스에 저장되거나, 이전 학습시도를 통해서 구한 가중치)를 읽어와서 레이어의 초기 가중치를 설정하고 학습을 진행하는 Fine tuning 기법을 지원할 수 있다.
QML 모듈(305)은 데이터베이스(DB 서버(10), 서버의 제어부(100) 또는 저장부(200)를 의미하며, 이하 동일)로부터 받은 정보를 통하여 학습 및 추론을 수행할 수 있다. 데이터베이스로부터 받은 정보는 사용자 Query 질의를 통하여 받은 데이터 조합을 통하여 획득할 수 있다.
변환부(360)는 특정 학습 모델을 다른 형식의 학습 모델로 변환할 수 있다. 구체적으로, 변환부(360)는 특정 학습 모델을 데이터베이스의 관계형 데이터 형식으로 변환하거나, 관계형 데이터 형식의 학습 모델을 특정 학습 모델이나 다른 학습 모델로 변환할 수 있다. 예를 들어, 변환부(360)는 데이터베이스에 테이블 타입으로 저장된 학습 모델 테이블을 내부 프레임워크인 QML 프레임워크로 변환하거나, 그 역으로도 가능하다. 변환부(360)는 학습 모델(220)의 아키텍처, 레이어, 및 파라미터를 관계형 데이터 형식인 네트워크 테이블, 레이어 테이블, 및 파라미터 테이블로 변환하거나, 역변환할 수 있다.
도 6을 참조하면, 변환부(360)는 QML 학습 모델 테이블을 QML 모듈(305)에 적합하게 학습 모델로 변환할 수 있다. 변환부(360)은 필요시 데이터셋 테이블을 QML 모듈(305)에서 사용하기 적합하게 변환할 수 있다. QML 모듈(305)(또는 프레임워크부(300))은 데이터셋과 변환된 QML 학습 모델을 이용하여 학습 및/또는 추론을 하여, 학습 결과를 출력할 수 있다. 변환부(360)는 QML 모듈(305)에서 출력한 학습 결과를 관계형 데이터 형식으로 변환하여 학습 결과(output) 테이블로 저장할 수 있다. 이러한 기능은 QML 모듈(305) 및/또는 데이터셋 관리 모듈(110) 중 적어도 어느 하나가 대신 수행하거나, 서로 분담하여 수행할 수 있다.
변환부(360)는 외부 프레임워크와의 호환성을 위해 사용될 수 있다. 변환부(360)는 기존 프레임워크의 기학습된 모델을 가져오거나 데이터베이스에서 정보 또는 데이터를 외부로 내보낼 때 ONNX(Open Neural Network Exchange) 모델 포맷 등의 다른 프레임워크 포맷으로 변환할 수 있다.
도 7을 참조하면, 변환부(360)는 ONNX 모델 포맷에 정의된 망 구조(network structure) 및 모델 데이터(model data)를 데이터베이스의 네트워크 모델 포맷으로 변환(임포트; import)하거나, 반대로 데이터베이스의 네트워크 모델을 ONNX 모델을 포함하는 구조화딘 포맷이나 CSV 파일로 변환(엑스포트; export)할 수 있다.
변환부(360)는 ONNX 모델 포맷 이외에 Open Network Exchange(ONNX), Neural Network Exchange Format(NNEF) 및 하이퍼 파라미터와 학습 파라미터 파일을 구조화된 포맷으로 변환할 수 있다.
사용자는 변환된 ONNX 모델 및 구조화된 포맷을 사용자가 원하는 target 프레임 워크로 변환하여 사용할 수 있다.
변환부(360)를 통한 컨버팅 작업을 통하여 다른 형태의 딥러닝 프레임 워크에 네트워크 모델을 적용할 수 있다. 이를 통해, 데이터베이스에 저장되어 있는 관계형 데이터 형식의 모델을 호출하여 이와 유사한 형태의 데이터셋에 적용할 수 있다.
변환부(360)는 이러한 변환 작업을 통해, 작업에 소요되는 시간을 최소화 할 수 있다.
도 8은 본 발명의 실시 예에 따른 쿼리 기반의 기계학습 기술의 수행 흐름을 나타낸 흐름도이다.
도 8을 참조하면, 본 발명의 실시 예에 따른 쿼리 기반의 기계학습 기술은 ONNX 포맷 또는 ONNX 포맷으로 변환된 기학습된 모델을 컨버터를 통해서 QML 포맷으로 변환하고, 단말기(20)로부터 학습 또는 추론 쿼리를 입력받으며, 데이터베이스에서 정보를 QML 모듈(305)로 전송하여, QML 모듈(305)에서 학습 및 추론을 수행할 수 있다. 그리고, 학습 또는 추론 결과를 데이터베이스에 저장하면, 단말기(20)는 데이터베이스에 저장된 결과를 확인할 수 있다. 이하, 구체적으로 설명한다.
단말기(20)는 학습 모델을 입력(Import)하거나, 데이터베이스로부터 출력(Export)받을 수 있다(①).
학습 모델을 입력 또는 출력할 때, 변환부(360)를 통하여 데이터베이스의 스키마 구조에 맞게 변환할 수 있다(②).
데이터베이스는 쿼리를 해석하여 적절한 작업을 수행할 수 있다(③).
제어부(100)는 단말기(20)로부터 입력되는 쿼리의 QML의 유형을 분석하고, 이에 따른 결과를 QML 모듈(305)로 전송할 수 있다. 보다 상세하게 설명하면, 입력된 쿼리의 언어 종류를 분석하고, 호환여부 또는 유사한 작업내역이 저장부(200)에 있는지 파악하는 등의 작업을 수행할 수 있다.
제어부(100)는 각각의 운영체제 또는 기계학습 프레임워크(S/W) 별로 최적의 성능을 구현할 수 있는 프로그램을 선별하고, QML 모듈(305)에 학습 및 추론을 요청할 수도 있다. 예를 들어, 제어부(100)는 학습이 요구되는 데이터셋이 이미지일 경우 이미지 학습에 최적의 성능을 발휘할 수 있는 기계학습 S/W를 선별하고, 선별된 S/W에 학습을 요청할 수 있다.
이와 함께, 제어부(100)는 현재 학습을 위해, 사용중인 서버의 자원을 확인하여, 자원의 규모에 맞게 학습을 위한 프레임워크를 적용하거나, 프레임워크 적용시 구성요소의 선택적 적용을 시행할 수 있다.
QML 모듈(305)는 데이터베이스에서 플러그인을 수행하고, 데이터베이스로부터 받은 정보를 통해 학습 및 추론을 수행할 수 있다(④).
단말기(20)는 쿼리를 통해 데이터베이스로 학습 또는 추론을 요청할 수 있다(⑤).
단말기(20)는 데이터베이스의 테이블을 조회하여 학습 관련 정보를 조회할 수 있다(⑥).
학습 모델 데이터는 데이터베이스에 QML 스키마로 저장될 수 있다(⑦).
도 9는 본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 방법을 설명하기 위한 동작 흐름도이다.
도 9를 참조하면, 본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 시스템은, 단말기(2) 및 DB 서버(10)와 연동하는 프레임워크부(300)에서 쿼리 기반 딥러닝 추론 방법을 실행할 수 있다.
제어부(100)는 사용자 단말기로부터 학습 쿼리(Call Train) 또는 추론 쿼리(Call Test)를 입력 받을 수 있다(S1110).
제어부(100)는 쿼리를 분석하여, 데이터셋과 적합한 학습 모델을 프레임워크부(300)로 전송할 수 있다.
프레임워크부(300)는 학습 쿼리 또는 추론 쿼리에 따라 네트워크 초기화(Init Network), 네트워크 구성(Construct Network) 및 네트워크 갱신(Update Network)을 실행할 수 있다(S1120).
프레임워크부(300)는 모든 층에 대한 초기화(Initialize all layers)가 이루어지면 학습(Train) 또는 추론(Test)을 실행할 수 있다(S1130).
프레임워크부(300)는 학습 종료시까지 배치 데이터를 획득하고(Get Batch Data) 반복(Iteration)하여 결과 및 모델을 저장 (Store Result & Model)할 수 있다.
프레임워크부(300)는 테스트(Test)를 실행하고, 테스트 데이터를 획득하여(Get Test Data) 피드 포워드(feedforward)하고 추론 결과를 저장(Store Result)할 수 있다.
프레임워크부(300)는 학습 또는 추론의 종료시 학습 결과 또는 추론 결과를 사용자 단말기(120)로 제공할 수 있다(S1140).
한편, 본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 시스템(1)은 다음과 같이 클라이언트, 회원, 데이터셋, 네트워크, 학습 모델, 학습 실행 등을 관리할 수 있다.
[클라이언트 관리]
본 발명의 실시 예에 따른 쿼리 기반 딥러닝 추론 시스템(1)은 사용자 단말기(120)로 데이터셋과 기계학습 과정을 관리하고 결과를 확인하기 위하여 기능을 제공할 수 있다.
[회원 관리]
쿼리 기반 딥러닝 추론 시스템(1)은 회원관리를 통해서 데이터베이스(110)의 데이터, 네트워크 모델의 생성, 수정 권한을 부여하고 변경 이력을 남길 수 있다.
[데이터셋 관리]
쿼리 기반 딥러닝 추론 시스템(1)은 데이터셋을 관리하기 위하여 새로운 테이블을 생성하고, 데이터를 조회, 수정, 업로드하기 위한 기능을 제공할 수 있다. 새로운 데이터셋을 생성할 때 자동으로 새로운 테이블을 생성하고, 데이터를 업로드할 수 있다. 데이터베이스의 테이블에 접근하여 데이터를 조회거나 사용자가 작성한 쿼리를 통해서 데이터베이스의 데이터를 조회한 결과를 보여줄 수 있다. 권한에 따라 데이터를 수정할 수 있다. 사용자로부터 수치데이터를 입력 받거나, 하나 이상의 파일을 읽어서 데이터 업로드를 진행할 수 있다. 학습 데이터의 레이블을 작성(tagging)하는 기능을 제공할 수 있다.
[네트워크 관리]
쿼리 기반 딥러닝 추론 시스템(1)은 다음과 같이 네트워크 모델을 관리하기 위한 기능을 제공할 수 있다. 지원되는 레이어를 추가하고 레이어 파라미터를 조정하여 새로운 네트워크 모델을 생성할 수 있다. 기존에 작성된 네트워크 모델 리스트를 조회할 수 있다. 기존에 작성된 네트워크 모델에 새로운 레이어를 추가하여 새로운 네트워크 모델을 생성할 수 있다. 네트워크 모델을 시각화하여 보여주는 기능을 제공할 수 있다.
[학습 모델 관리]
쿼리 기반 딥러닝 추론 시스템(1)은 다음과 같이 학습을 관리하기 위한 기능을 제공할 수 있다. 네트워크 모델과 데이터셋, 학습 파라미터를 조절하여 학습 모델을 생성 또는 수정할 수 있다. 학습이 끝난 네트워크 모델을 컨버터 기능을 통해 출력할 수 있다. 현재 사용중인 서버의 자원을 확인할 수 있다.
[학습 실행 관리]
쿼리 기반 딥러닝 추론 시스템(1)은 다음과 같이 학습 및 추론을 수행하고 결과를 확인하기 위한 기능을 제공할 수 있다. 서버의 자원을 확인할 수 있다. 학습 및 추론 수행이 가능한지 여부를 사용자에게 알려줄 수 있다. 현재 실행 또는 대기 중인 학습계획 리스트를 조회할 수 있다. 등록된 네트워크 모델과 데이터셋, 학습 파라미터를 설정하여 학습계획을 생성할 수 있다. 현재 실행 또는 대기 중인 학습계획의 학습 파라미터를 확인할 수 있다. 현재 실행 중인 학습계획의 중간 및 결과를 확인할 수 있다. 현재 실행 중인 학습계획을 멈출 수 있다. 대기 중인 학습계획을 시작할 수 있다. 등록된 네트워크 모델과 데이터셋을 설정하여 추론계획을 생성할 수 있다. 실행된 추론 계획의 결과를 확인할 수 있다.
전술한 바와 같이 본 발명에 의하면, 딥러닝에 관한 전문적 지식이 없는 사용자라도 어려움 없이 사용자에게 필요한 정보를 제공할 수 있도록 딥러닝 프레임워크가 정보 데이터베이스에 플러그인 형태로 연결되어, 사용자의 요청 쿼리에 의해 정보 데이터베이스에 저장된 데이터를 딥러닝 방식으로 학습하여 쿼리에 대응하는 데이터를 추론할 수 있도록 하는, 쿼리 기반 딥러닝 추론 시스템을 실현할 수 있다.
도 10은 스트리밍 시스템 및 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 시스템의 전체적인 구성을 개략적으로 나타낸 구성도이다. 도 11은 본 시스템의 일부 구성의 세부 블럭도이다. 도 12는 데이터의 변환을 도시하는 변환도이다. 도 13 및 도 14는 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 방법의 학습 및 추론에 대한 순서도이다. 도 15는 도 14의 추론 과정을 도시한다. 도 16은 도 14의 평가 과정을 도시한다. 도 17은 추론 및 평가의 전후 이미지를 도시한다. 도 1 내지 도 9를 참고한다..
영상 녹화물 등은 공개대상 정보에 해당하거나, 일반인에게 열람 가능한 대상이 되는 경우 등에 민감한 사생활 보호 대상을 제외하고 공개해야 한다. 사생활 보호 방법은 기계학습으로, 영상 분석하여 식별 대상을 감지하여 마스킹하는 개인 정보 보호에 관한 기술이다. 본 명세서 전반에서 '식별 대상', '검출 대상', '사생활 보호 대상', 및 '개인 정보 보호 대상' 등은 동일한 의미로 이용된다.
구체적으로 개인 정보 보호 기술은 영상 녹화물 등의 원본 이미지에서 식별 대상을 감지하고, 원본 이미지의 감지된 식별 이미지 박스를 마스킹하여, 식별 대상을 인식하지 못하도록 하는 기술을 의미한다.
이하, 용어를 구체적으로 설명한다.
본 명세서에서, 식별 대상은 CCTV, 네트워크 카메라, 블랙박스와 같은 이용형 기기 등에서 생성된 영상 녹화물(또는 '원본 영상 녹화물')에서 사람의 안면이나 자동차 번호판과 같은 프라이버시 침해나 개인정보 노출 등이 될 수 있는 보호 대상을 의미한다.
지능형 영상 분석 기술은 감지(detection)과 인식(recognition)으로 나눌 수 있다. 감지는 식별 대상이 있는지 분석하는 것이고, 인식은 특정 대상과 일치하는지 판단하는 것이다. 예를 들어, 얼굴 감지는 이미지 또는 비디오 프레임에서 얼굴의 존재, 위치, 및 크기를 분석하며, 추가적인 정보(예를 들어, 얼굴의 방향 등)을 분석할 수 있다. 얼굴 인식은 이미지 안의 얼굴이 다른 이미지의 얼굴과 일치하는 지 판단하는 것이다. 특히, 본 명세서에서 인식 가능은 이미지 안의 식별 대상을 특정할 수 있는 특정 특성, 즉, 보호 대상이 되는 정보가 있음을 의미할 수 있다. 즉, 식별 대상이 있는 것으로 추정되는 어떤 이미지, 예를 들어, 인물 사진으로 추정되는 이미지는 얼굴이 존재하지 않는 이미지, 얼굴이 존재(감지)하며 특정인으로 인식할 수 있는 이미지, 및 얼굴이 존재하며 특정인으로 인식할 수 없는 이미지로 분류될 수 있다.
식별 이미지 박스는 원본 이미지(식별 이미지) 중 식별 대상 부분을 의미한다.
마스킹은 원본 이미지의 식별 대상에서 특정 특성이 나타나지 않도록 조작하여, 적어도 식별 대상을 인식하지 못하도록 하는 것을 의미한다. 마스킹된 식별 이미지 박스는 마스킹 이미지 박스(비식별 이미지 박스)를 의미한다. 변환 이미지(비식별 이미지, 마스킹 이미지)는 원본 이미지를 마스킹한 이미지를 의미한다.
식별 이미지 박스 및 마스킹 이미지 박스의 박스는 사각형만을 의미하지 않고, 다각형이나 타원형 또는 비정형 모양일 수 있다. 서로 대응되는 식별 이미지 박스 및 마스킹 이미지 박스는 동일한 모양인 것이 바람직하다.
마스킹 처리는 모자이크 처리 및 대체 처리 중 어느 하나 또는 그 조합일 수 있다.
모자이크 처리는 식별 이미지 박스를 조작하는 것을 의미할 수 있다. 예를 들어, 식별 이미지 박스를 저해상도로 변환하거나 블러 등 처리하여, 마스킹 이미지 박스에 원래의 이미지의 모양이나 색상이 어느 정도 대응되도록 처리하는 것이다.
대체 처리는 식별 이미지 박스와 무관한 이미지로 덮어 쓰는 것을 의미할 수 있다. 예를 들어, 식별 이미지 박스 대신 이모지나 다른 이미지로 대체 것으로, 원래의 이미지의 모양이나 색상이 남아 있지 않도록 하는 것이다.
사생활 보호를 위해 식별 대상이 감지되지 않도록 할 수 있으나, 데이터의 정보 분석 등을 위해 식별 대상이 감지되나 특정 특성을 알 수 없도록 인식 불가능한 정도로 이미지를 마스킹하는 것이 바람직하다. 예를 들어, 변환 이미지에서 인물이나 번호판 등의 검출 대상이 있는지 분석할 필요가 있을 수 있다. 이 때, 마스킹 이미지의 검출 대상을 감지하지 못할 정도로 식별 대상이 마스킹되어 있는 경우, 해당 변환 이미지에 영상 분석 기술 특히, 딥러닝 방식 등을 적용하기 어려울 수 있다. 즉, 어떤 이미지를 식별 대상의 특정 특성이 사라지도록 마스킹하는 것은 어떤 특정 대상인지 인식은 불가능하도록 하되, 검출 대상이 있는지 감지되도록 하는 것이 바람직하다.
본 발명의 일 실시예는 사생활 보호 솔루션에 대한 검출 대상의 감지에 대한 정확도를 제시할 수 있다. 사생활 보호 솔루션의 정확도는 특정 회사의 특정 모델이나, 특정 기계학습된 아키텍처 등 각각의 솔루션에 대해 개별적으로 측정할 수 있다.
정확도는 대상 감지율 및 감지 에러율이 있을 수 있다.
대상 감지율은 마스킹 이미지에서 식별 대상의 존재 여부에 대한 정확도를 의미한다. 감지 에러율은 마스킹 이미지에서 감지된 식별 대상(검출 대상)의 원래 위치 및 크기와의 일치율을 의미한다. 대상 감지율 및 감지 에러율은 추가 적인 요소나 다항목 요소가 있을 수 있으며, 최종적인 대상 감지율 및 감지 에러율은 추가 요소나 다항목 요소의 종합적인 결과이거나 개별적인 지표들의 나열일 수 있다.
예를 들어, 대상 감지율은 검출 대상으로 판정한 개수 대비 판정된 것들 중 실제로 검출한 대상 개수와 같은 정밀도, 본래의 전체 검출 대상 개수 대비 검출 대상으로 판정한 개수와 같은 재현율 등 여러 지표들이 있을 수 있다. 대상 감지율의 범위는 하나의 정지 이미지 및/또는 전체 프레임일 수 있다.
감지 에러율은 비식별 이미지 박스의 위치 및 크기에 대한 검출 대상으로 판정된 이미지 박스의 위치 및 크기를 통계적인 수치로 나타낸 것일 수 있다. 예를 들어, 감지 에러율의 측정 모델은 픽셀 정확도(Pixel Accuracy), 평균 정확도(Mean Accuracy), Mean IU(Intersection over Union), 및 Frequency Weighted IU 등이 있을 수 있다. 각 측정 모델의 수식은 다음과 같다.
- 픽셀 정확도(Pixel Accuracy) = (검출 대상 맞춘 픽셀수 + 비검출 대상 맞춘 픽셀수) / 전체 픽셀수}
- 평균 정확도(Mean Accuracy) = (검출 대상 맞춘 픽셀수 / 전체 검출 대상 픽셀수 + 비검출 대상 맞춘 픽셀수 / 전체 비검출 대상 픽셀수) / 2}
- Mean IU(Intersection over Union) = (검출 대상 픽셀 IU + 비검출 대상 픽셀 IU) / 2
- 검출 대상 픽셀 IU = 마스킹 이미지 박스와 판정 이미지 박스의 교집합 픽셀수 / 마스킹 이미지 박스와 판정 이미지 박스의 합집합 픽셀수
- Frequency Weighted IU = (본래 검출 대상 픽셀수 * 검출 대상 픽셀 IU + 본래 비검출 대상 픽셀수 * 비검출 대상 픽셀 IU) / 전체 픽셀수
검출 대상의 인식을 GAN(Generative Adversarial Networks)을 이용하는 경우, 감지 에러율의 픽셀 대신에 GAN의 특성 포인트를 대신할 수 있다.
도 10(a)를 참조하면, 스트리밍 시스템은 일반적인 스트리밍 서비스를 제공하는 시스템으로 서버(11), 카메라(50), 및 사용자 단말기(30)를 포함할 수 있다.
카메라(50)는 CCTV, 네트워크 카메라 등을 의미할 수 있다. 카메라(50)는 서버(11)와 통신할 수 있다.
서버(11)는 카메라(50)가 촬영한 신호 또는 촬영 데이터를 수신하여 사용자 단말기(30)에게 동영상 스트리밍 서비스를 제공할 수 있다. 촬영된 산출물은 무작위로 대상을 촬영하여, 사람의 얼굴이나 자동차 번호판 등의 프라이버시 대상이 스트리밍 서비스될 수 있다. 프라이버시 대상 즉, 타인이 식별할 수 있는 식별 대상은 타인이 식별 불가능하게 비식별 대상으로 변환할 필요가 있다.
도 10(b)를 참조하면, 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 시스템은 DB 서버(10), 관리자 단말기(20), 사용자 단말기(30), 및 카메라(50)를 포함할 수 있다. 동일한 요소의 내용은 도 1 내지 도 9에서 기술한 내용을 참고한다.
카메라(50)는 CCTV, 네트워크 카메라 등을 의미할 수 있다. 다만 이에 한정되지 않으며 블랙박스 등 다양한 매체일 수 있다. 또한, 카메라(50)는 본 시스템에서 생략되어 실시될 수 있다. 생략된 경우, 산출된 이미지는 DB 서버(10)에 미리 저장된 것으로 볼 수 있다.
단말기(20)는 관리자를 의미할 수 있다. 단말기(20)는 DB 서버(10)에 입출력하는 장치일 수 있다.
사용자 단말기(30)은 시청자를 의미할 수 있다. 단말기(20)와 사용자 단말기(30)는 동일한 요소일 수 있다.
사용자 단말기(30)는 일 실시예에 따른 스트리밍을 시청하는 사용자를 표시하기 위한 것으로, 본 실시예에 따른 시스템에서 생략될 수 있다.
DB 서버(10)는 데이터베이스를 운용하거나 데이터베이스와 연결되어 제어하는 서버일 수 있다. 단말기(20)는 딥러닝 추론 쿼리를 입력하고, DB 서버(10)로부터 쿼리에 대응된 추론 결과를 수신할 수 있다.
도 2를 참조하면, DB 서버(10)는 제어부(100), 저장부(200), 프레임워크부(300), 변환부(360), 및 입출력부(370)를 포함할 수 있다. 자세한 설명은 도 2를 참조한다.
저장부(200)는 DB 서버(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다. 저장부(200)는 제어부(100)의 처리 및 제어를 위한 프로그램이 저장될 수 있고, 입력되거나 출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수 있다.
제어부(100)는 DB 서버(10)의 각 부의 동작을 제어하여 DB 서버(10)의 전반적인 제어 기능을 실행할 수 있다.
도 11을 참조하면, 제어부(100)는 데이터셋 관리 모듈(110), 학습 모델 관리 모듈(120), 결과 관리 모듈(115), 이미지 박스 관리 모듈(130), 및 평가 모듈(135)을 구비할 수 있으며, 저장부(200)는 데이터셋(210), 학습 모델(220), 학습 결과(215), 이미지 박스 저장 모듈(230), 및 평가 결과(235)를 저장할 수 있다. 데이터셋 관리 모듈(110), 학습 모델 관리 모듈(120), 결과 관리 모듈(115), 데이터셋(210), 학습 모델(220), 및 학습 결과(215)는 도 1 내지 도 9, 특히, 도 3의 설명을 참조한다.
이미지 박스(IB) 관리 모듈(130)은 원본 이미지의 식별 대상인 식별 이미지 박스를 마스킹 이미지 박스로 마스킹할 수 있다. 이미지 박스 관리 모듈(130)은 식별 이미지 박스를 이미지 박스(IB) 저장 모듈(230)에 저장할 수 있다. 이미지 박스 관리 모듈(130)은 식별 이미지 박스를 암호화하여 저장할 수 있다.
이미지 박스 관리 모듈(130)은 식별 이미지 박스와 마스킹 이미지 박스를 서로 대응되도록 매핑할 수 있다. 이를 위해, 이미지 박스 저장 모듈(230)은 마스킹 이미지 박스에 관련된 식별 이미지 박스의 파일 명, 타임 코드(이미지 위치를 알 수 있는 시간 정보) 또는 프레임 번호, 원본 이미지에서의 배치 위치, 및 크기 중 적어도 하나인 매핑 정보를 저장할 수 있다. 이미지 박스 저장 모듈(230)은 이러한 매핑 정보를 마스킹 이미지 박스의 메타 정보로 저장할 수 있다.
이미지 박스 관리 모듈(130)은 프레임워크부(300)의 내부 프레임워크로서 기능하거나, QML 모듈(305)에 합쳐질 수 있다. 즉, QML 모듈(305) 또는 프레임워크부(300)는 이미지 박스 관리 모듈(130)의 기능을 수행할 수 있다.
평가 모듈(135)은 사생활 보호 솔루션의 마스킹된 식별 대상을 영상 분석 솔루션을 통해 얼마나 감지(재검출)할 수 있는지 평가할 수 있다.
본 실시예에서 사생활 보호 솔루션(901) 및/또는 영상 분석 솔루션(902)은 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 시스템 또는 방법이 적용된 솔루션이거나, 다른 사생활 보호용 마스킹 솔루션 및/또는 영상 분석 솔루션일 수 있다.
솔루션은 장치나 프로그램, 앱 등을 통칭한다. 솔루션은 명시된 코드로 작성된 프로그램, 또는 학습 및/또는 추론하여 실행할 수 있는 기계학습, 딥러닝, 인공지능에 의한 시스템(알고리즘의 집합)을 통칭하기로 한다.
사생활 보호 솔루션(901)은 원본 이미지의 식별 대상을 감지하여, 감지된 식별 대상의 특정 특성이 인식되지 않도록 마스킹 등의 처리를 하는 솔루션을 의미한다. 추가로, 사생활 보호 솔루션은 원본 이미지를 마스킹 처리하여 비식별 이미지로 변환할 수 있다.
영상 분석 솔루션(902)은 특정 이미지에서 식별 대상을 감지할 수 있는 솔루션을 의미한다. 영상 분석 솔루션은 사생활 보호 솔루션을 그대로 이용하거나, 다른 알고리즘에 적용된 솔루션일 수 있다.
평가 모듈(135)은 본 실시예에 따른 식별 대상이 마스킹된 이미지, 또는 다른 기술에 의해 식별 대상이 마스킹된 이미지에서 식별 대상을 잘 감지하는지 그 정확도인 대상 감지율 및/또는 식별 대상이 원래 위치와 크기에 있는지의 일치율인 감지 에러율을 평가할 수 있다.
평가 모듈(135)은 대상 감지율 및 감지 에러율 중 적어도 하나를 구비하는 평가 결과(235)를 저장부(200)에 저장할 수 있다.
도 12를 참조하면, 카메라(50)는 대상을 촬영하여 녹화 영상물인 식별 동영상(510)을 생성하여 DB 서버(10)에 전송할 수 있다. 식별 동영상(510)은 사생활 보호 대상을 구비할 수 있다.
DB 서버(10)의 데이터셋 관리 모듈(110)은 식별 동영상(510)을 디코딩하여 데이터베이스 형식에 적합하도록 식별 이미지 데이터 셋 테이블(520)로 변환할 수 있다. 식별 이미지 데이터 셋 테이블(520)은 식별 동영상(510)의 프레임별 이미지들의 집합일 수 있다.
식별 이미지 데이터 셋 테이블(520)의 이미지들은 DB 서버(10)에서 보호 대상이 마스킹 처리되어 비식별 이미지 데이터 셋 테이블(530)로 변환될 수 있다. 이러한 마스킹 처리는 딥러닝에 의해 수행될 수 있다.
데이터셋 관리 모듈(110)은 비식별 이미지 데이터 셋 테이블(530)을 인코딩하여 비식별 동영상(540)으로 변환할 수 있다. 데이터셋 관리 모듈(110)은 비식별 이미지 데이터 셋 테이블(530)을 인코딩하여 비식별 동영상 스트리밍(550) 서비스를 제공할 수 있다. 이 경우, 비식별 동영상(540)은 저장하지 않을 수 있다.
도 13을 참조하면, 제어부(100)는 사용자(단말기(20))로부터 사생활 보호 기능(딥러닝 기능)을 훈련하라는 쿼리를 입력 받을 수 있다(S1210). 처리할 데이터는 저장부(200)에 미리 저장되어 있거나, 카메라(50)를 입력 받거나, 쿼리와 함께 입력 받을 수 있다. 본 실시예에서 딥러닝 기능은 쿼리로부터 그 내용인 사생활 보호 기능을 도출할 수 있다. 딥러닝 기능은 사생활 보호, 안면(얼굴), 모자이크(블러, 이모지, 저해상), 마스킹, 이미지, 동영상 등과 같은 키워드들의 조합을 이용할 수 있다. 학습용 이미지는 데이터셋 테이블 형식으로 데이터베이스화되어 있을 수 있다.
제어부(100)는 사생활 보호 기능에 적합한 학습 모델 테이블을 선택할 수 있다(S1220). 사생활 보호 기능의 학습 모델 테이블은 저장부(200)에 저장된 복수의 학습 모델 테이블 중에서 선택될 수 있다. 제어부(100)는 학습 모델 테이블과 학습용 데이터셋 테이블을 비교하여, 학습용 데이터셋 테이블과 유사도가 높은 데이터 형식의 학습 모델 테이블을 사생활 보호용 학습 모델 테이블로 선택할 수 있다. 다만 이에 한정되지 않고, 사생활 보호 기능의 학습 모델 테이블은 사용자에 의해 선택될 수 있다.
학습 모델 테이블은 외부 프레임워크에서 생성된 학습 모델을 임포트(import)한 것일 수 있다.
제어부(100)는 사생활 보호 기능의 학습 모델 테이블에 속한 네트워크 테이블을 DB 서버(10)에 플러그인으로 설치된 프레임워크부(300)에 적합한 포맷으로 변환하여 모델 아키텍처를 구성할 수 있다(S1230).
제어부(100)는 구성된 모델 아키텍처에 임의의 학습 파라미터를 할당(S1240)하여, 학습 모델을 훈련할 준비를 할 수 있다. 훈련 내용은 식별 대상을 검출하는 것일 수 있다. 훈련 내용은 식별 대상 검출 외에 검출된 식별 대상을 식별되지 못하도록 변환하는 내용을 더 포함할 수 있다. 본 실시예에서 식별 대상의 검출은 식별 대상은 감지하는 정도면 족하다. 또한 이미지의 변환은 식별 대상을 감지하되, 특정 특성을 인식하지 못하도록 하는 것이 바람직하다.
프레임워크부(300), 예를 들어, QML 모듈(305)은 학습용 이미지와 학습 파라미터가 할당된 모델 아키텍처를 이용하여 훈련할 수 있다(S1250).
제어부(100)는 QML 모듈(305)로부터 훈련 결과를 수신할 수 있다. 제어부(100)는 훈련 결과를 저장부(200)에 저장할 수 있다. 제어부(100)는 훈련된 모델 아키텍처 및 훈련된 학습 파라미터를 네트워크 테이블 및 학습 파라미터 테이블로 변환하여 사생활 보호 기능의 학습 모델 테이블로 DB 서버(10)에 저장할 수 있다.
도 14를 참조하면, 제어부(100)는 사용자(단말기(20))로부터 쿼리를 입력 받아 이를 해석하여 사생활 보호 기능을 딥러닝 추론하라는 명령를 입력 받을 수 있다(S1305). 처리할 데이터는 저장부(200)에 미리 저장되어 있거나, 카메라(50)를 통해 입력 받거나, 쿼리를 통해 입력될 수 있다. 본 실시예에서 딥러닝 기능은 사생활 보호, 안면(얼굴), 모자이크(블러, 이모지, 저해상), 마스킹, 이미지, 동영상 등과 같은 키워드들의 조합에서 사생활 보호 기능을 도출할 수 있다.
DB 서버(10)는 사생활 보호 대상이 기록된 식별 동영상(510)을 입력 받을 수 있다. 식별 동영상(510)은 카메라(50)로부터 수신된 것일 수 있다.
제어부(100)는 데이터셋 관리 모듈(110)을 이용하여 처리 대상 데이터(입력 받은 데이터)를 데이터 전처리할 수 있다(S1320). 데이터 전처리는 도 12의 디코딩에 대응될 수 있다. 이하, 본 실시예에서 데이터 전처리된 처리 대상은 추론용 데이터셋(DS)이라 지칭될 수 있다. 본 데이터셋 또는 데이터는 딥러닝용 데이터셋 또는 딥러닝용 데이터와 같이 일반적으로 지칭될 수 있다. 추론용 데이터셋은 식별 동영상(510)이 복수의 식별 이미지로 디코딩되어 식별 이미지 데이터 셋 테이블(520)로 변환되어 데이터베이스화될 수 있다.
제어부(100)는 기학습된 사생활 보호 기능의 학습 모델 테이블을 선택할 수 있다(S1330). 기학습된 사생활 보호 기능의 학습 모델 테이블은 도 13을 통해 생성될 수 있다.
제어부(100)는 선택된 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 프레임워크부(300), 예를 들어, QML 모듈(305)에 적합한 사생활 보호용 모델 아키텍처로 구성할 수 있다(S1340).
제어부(100)는 사생활 보호 기능의 학습 모델 테이블의 학습 파라미터 테이블을 이용하여 사생활 보호용 모델 아키텍처에 학습 파라미터를 할당할 수 있다(S1350).
QML 모듈(305)은 식별 이미지 데이터 셋 테이블(520)의 이미지를 사생활 보호 대상이 식별되지 않도록 비식별 이미지로 변환하는 추론을 할 수 있다(S1360). 추론 내용은 식별 대상을 검출하고, 검출된 식별 대상을 식별되지 못하도록 이미지를 변환하는 내용일 수 있다. 본 실시예에서 식별 대상의 검출은 식별 대상은 감지하는 정도면 족하다. 또한 이미지의 변환은 식별 대상을 감지하되, 특정 특성을 인식하지 못하도록 하는 것이 바람직하다.
QML 모듈(305)이 식별 이미지 데이터 셋 테이블(520)의 복수의 식별 이미지 중 어느 이미지인 원본 이미지(910)에서 식별 대상이 있는지 추론할 수 있다. QML 모듈(305)은 식별 대상을 감지하면 식별 대상의 위치와 크기를 지정할 수 있다.
도 15를 참조하면, QML 모듈(305)은 원본 이미지(910)에서 감지된 식별 대상을 제1 식별 이미지 박스(911) 및 제2 식별 이미지 박스(912)로 정의(지정,구역화)할 수 있다.
이미지 박스 관리 모듈(130)은 제1 및 제2 식별 이미지 박스(911, 912) 각각을 제1 및 제2 마스킹 이미지 박스(921, 922)로 치환하여 마스킹 처리할 수 있다.
이미지 박스 관리 모듈(130)은 마스킹 처리를 위해, 모자이크 처리 및 대체 처리 중 어느 하나로 하거나, 각기 달리 처리하는 조합 처리할 수 있다. 예를 들어, 제1 및 제2 식별 이미지 박스(911, 912) 모두에 모자이크 처리 및 대체 처리 중 어느 하나로 하거나, 제1 식별 이미지 박스(911)은 모자이크 처리하고 제2 식별 이미지 박스(912)는 대체 처리할 수 있다. 조합 처리시, 식별 대상의 범주에 따라 처리 방식이 정해질 수 있다. 예를 들어, 인물의 경우에는 모자치크 처리하고, 자동차 번호판의 경우에는 대체 처리하도록, 설정되거나 학습될 수 있다.
이미지 박스 관리 모듈(130)은 제1 및 제2 마스킹 이미지 박스(921, 922)가 사생활 보호 대상으로 검출 시 검출 대상으로 감지되고, 검출 대상의 특정 특성은 존재하지 않도록 마스킹 처리하는 것이 바람직하다. 영상 분석 솔루션에서 비식별 이미지(920), 또는 후술할 비식별 동영상(540)의 식별 대상을 검출하는 작업이 필요할 수 있기 때문이다.
위와 같이 조합 처리로 설정된 경우, 이미지 박스 관리 모듈(130)는 제1 식별 이미지 박스(911)를 제1 마스킹 이미지 박스(921)로 모자이크 처리할 수 있다. 제1 마스킹 이미지 박스(921)은 제1 식별 이미지 박스(911)의 검출 대상의 특정 특성이 사라지도록 모자이크 처리되되, 검출 대상으로 감지되도록 모자이크 처리되는 것이 바람직하다.
이미지 박스 관리 모듈(130)는 제2 식별 이미지 박스(912)를 기저장되어 있거나 새로운 이미지를 생성된, 제2 식별 이미지 박스(912)와 무관한 제2 마스킹 이미지 박스(922)로 치환할 수 있다.
제2 마스킹 이미지 박스(922)는 제2 식별 이미지 박스(912)와 동일한 대상 범주로 감지되도록 하는 이미지, 문자, 및 QR 코드 중 적어도 하나일 수 있다. 예를 들어, 제2 식별 이미지 박스(912)의 대상 범주가 인물인 경우, 인물을 나타내는 이미지, '인물' 문자, 및 인물이라는 정보를 구비하는 QR 코드 중 어느 하나일 수 있다. 문자는 텍스트 코드이거나 이미지화된 것일 수 있다. 텍스트 코드인 경우, 비식별 이미지(920)에 레이어 형태로 병합될 수 있다.
제2 마스킹 이미지 박스(922)는 동일한 하위 범주 특성을 구비할 수 있다. 하위 범주 특성은 대상 범주의 다양한 하위 범주 중 적어도 하나일 수 있다.
예를 들어, 대상 범주가 인물인 경우, 하위 범주 특성은 성별, 나이대, 동일 얼굴 표시 등이 있을 수 있다. 구체적으로, 제2 마스킹 이미지 박스(922)가 문자일 경우, 제2 마스킹 이미지 박스(922)는 "남자A-40대"와 같이 표시될 수 있다. '남자A'는 '남자B'와 다른 사람임을 의미한다.
이러한 과정을 거쳐, 이미지 박스 관리 모듈(130)은 원본 이미지(910)를 입력받아 비식별 이미지(920)으로 출력할 수 있다. 비식별 이미지(920)는 비식별 이미지 데이터 셋 테이블(530)로 저장될 수 있다.
이미지 박스 관리 모듈(130)은 제1 및 제2 식별 이미지 박스(911, 912)를 이미지 박스 저장 모듈(230)에 저장할 수 있다. 이미지 박스 관리 모듈(130)은 제1 및 제2 식별 이미지 박스(911, 912)를 암호화하여 저장할 수 있다.
이미지 박스 관리 모듈(130)은 제1 및 제2 식별 이미지 박스(911, 912)와 제1 및 제2 마스킹 이미지 박스(921, 922)를 서로 대응되도록 매핑할 수 있다. 이를 위해, 이미지 박스 저장 모듈(230)은 마스킹 이미지 박스에 관련된 식별 이미지 박스의 파일 명, 프레임, 시간, 원본 이미지에서의 배치 위치, 및 크기 중 적어도 하나인 매핑 정보(m1, m2)를 저장할 수 있다. 이미지 박스 저장 모듈(230)은 이러한 매핑 정보를 마스킹 이미지 박스의 메타 정보(m1, m2)로 저장할 수 있다.
복수의 식별 이미지는 비식별 이미지로 순차적으로 변환되거나 임의의 순서대로 변환될 수 있다. 임의 변환이 되는 경우는 복수의 프로세스로 분산 처리되는 경우에 유리할 수 있다.
제어부(100)는 복수의 비식별 이미지를 인코딩하여 비식별 동영상(540)으로 저장하거나, 비식별 동영상 스트리밍(550)으로 작업하여 단말기(20) 또는 사용자 단말기(30)에게 스트리밍 서비스할 수 있다. 복수의 비식별 이미지는 비식별 이미지 데이터 셋 테이블(530)로 저장된 것일 수 있다. 사용자 단말기(30)의 사용자는 실시간에 가깝게 사생활 보호 처리된 동영상을 시청할 수 있다. 단말기(20)의 유저인 관리자는 비식별화 작업이 순조롭게 진행되는지 실시간으로 확인할 수 있다.
제어부(100)는 사용자 단말기(30) 또는 관리자 단말기(20)로부터 비식별 이미지(920) 중 언마스킹할 대상을 요청 받아, 이를 복원할 수 있다(S1380). 비식별 이미지(920)에 한정되지 않고, 유저는 비식별 동영상(540) 또는 비식별 동영상 스트리밍(550)에서 언마스킹할 대상을 선택할 수 있다.
예를 들어, 이미지 박스 관리 모듈(130)은 사용자로부터 비식별 이미지(920)에서 제2 마스킹 이미지 박스(922)를 언마스킹할 대상으로 요청 받을 수 있다. 이미지 박스 관리 모듈(130)은 제2 마스킹 이미지 박스(922)와 매칭되는 제2 식별 이미지 박스(912)를 이미지 박스 저장 모듈(230)에서 추출한 후, 제2 마스킹 이미지 박스(922)를 제2 식별 이미지 박스(912)로 대체(언마스킹)할 수 있다. 이를 통해, 이미지 박스 관리 모듈(130)은 비식별 이미지(920)를 복구 이미지(930)로 복원할 수 있다. 이러한 맵핑 정보를 통해, 제어부(100)는 비식별 이미지(920)에서 복구 이미지(930)로 빠르게 복원할 수 있다.
도 16 및 도 17을 참조하면, 평가 모듈(135)은 사생활 보호 솔루션(901)의 마스킹된 식별 대상을 영상 분석 솔루션(902)을 통해 얼마나 감지(재검출)할 수 있는지 평가할 수 있다(S1390).
본 실시예에서 사생활 보호 솔루션 및/또는 영상 분석 솔루션은 본 발명의 일 실시예에 따른 쿼리 기반 딥러닝 추론을 이용한 사생활 보호 및 재검출 평가 시스템 또는 방법이 적용된 솔루션이거나, 다른 사생활 보호용 마스킹 솔루션 및/또는 영상 분석 솔루션일 수 있다. 이하, 임의의 사생활 보호 솔루션(901)을 통해, 원본 이미지(910)가 마스킹 이미지(950)로 변환된 것으로 가정하여 설명한다. 마스킹 이미지(950)의 마스킹된 마스킹 이미지 박스들의 세트인 마스킹 이미지 박스 세트(955)는 이미지 박스 저장 모듈(230)에 저장될 수 있다.
평가 모듈(135)은 마스킹 이미지(950)에서 식별 대상을 잘 감지하는지 그 정확도인 대상 감지율(281) 및/또는 식별 대상이 원래 위치와 크기에 있는지의 일치율인 감지 에러율(282)을 평가할 수 있다.
평가 모듈(135)은 대상 감지율(281) 및 감지 에러율(282) 중 적어도 하나를 구비하는 평가 결과(235)를 저장부(200)에 저장할 수 있다.
구체적으로, 평가 모듈(135)은 영상 분석 솔루션(902)을 통해 마스킹 이미지(950)로부터 식별 대상 세트를 감지하여 분석 이미지 박스 세트(965)를 도출할 수 있다.
평가 모듈(135)은 분석 이미지 박스 세트(965)와 마스킹 이미지 박스 세트(955)를 비교할 수 있다.
평가 모듈(135)은 대상 감지율(281) 및/또는 감지 에러율(282)를 측정할 수 있다.
대상 감지율(281)은 식별 대상 세트의 존재 여부에 대한 정확도를 의미할 수 있다. 평가 모듈(135)은 마스킹 이미지 박스와 분석 이미지 박스의 합집합 대비 교집합의 비율이 기설정 값 이상일 경우에, 해당 마스킹 이미지 박스를 식별 대상으로 감지했다고 판단할 수 있다.
감지 에러율(282)은 분석 이미지 박스 세트(965)와 마스킹 이미지 박스 세트(955)의 서로 대비되는 이미지 박스들 각각의 위치와 크기의 일치율을 의미할 수 있다. 도 17 (c) 및 (d)를 참조하면, 제1 마스킹 이미지 박스(921) 대 제11 분석 이미지 박스(941-1)와 같이 대응되는 이미지 박스가 일부분 겹치는 경우, 제2 마스킹 이미지 박스(922)와 제22 분석 이미지 박스(942-2) 또는 제1 마스킹 이미지 박스(921)와 제21분석 이미지 박스(942-1)과 같이 어느 한 이미지 박스가 다른 이미지 박스를 포함하는 경우, 및 제2 마스킹 이미지 박스(922)와 제22 분석 이미지 박스(942-2)와 같이 겹치는 부분이 없는 경우 등 각각의 경우에 대해, 평가 모듈(135)은 일치율을 감지 에러율(282)로 제시할 수 있다.
도 18은 본 발명의 일 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 블록 구성도(block diagram)이다. 도 19는 도 18에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 시스템 환경을 도시한다. 도 20은 도 18에 네트워크 통신부에 수신되는 패킷을 도시한다. 도 21은 도 20에 따른 프레임의 시스템 메모리에 로딩되는 것을 도시한다. 도 1 내지 도 17을 참고한다.
도 18 내지 도 21에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 하나 또는 다수의 다른 범용 컴퓨팅 환경, 또는 특수 목적의 컴퓨팅 환경 또는 구성으로 동작될 수 있다. 본 딥러닝 프레임워크 응용 컴퓨팅 장치는 퍼스널 컴퓨터, 서버 컴퓨터, 셀폰 및 PDA와 같은 핸드-헬드, 랩탑 또는 모바일 컴퓨터 또는 통신 장치, 멀티-프로세서 시스템, 마이크로프로세서-기반 시스템, 셋톱 박스, 프로그램 가능한 상용 전자제품, 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 상기 시스템 또는 장치 들 중 하나를 포함하는 분산 컴퓨팅 환경 등이 있으며, 이에 한정되지 않는다. 도 19는 이러한 범용 컴퓨팅 장치의 예시적 구성이다.
본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 도 1 내지 도 17의 DB 서버(10), 및/또는 도 10의 서버(11)에 대응될 수 있으며, 각 서버의 기능을 수행할 수 있다.
도 18 및 도 20을 참조하면, 본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 제어부(100), 프레임 관리 모듈(140), 메모리 관리 모듈(155), CPU부(170), GPU부(180), 저장부(200), 버퍼 메모리부(270), GPU 메모리부(280), 메인 프레임워크부(310), 서브 프레임워크부(320), 변환부(360), 입출력부(370), 및 네트워크 통신부(이하, 'NW 통신부')(380)를 포함할 수 있다.
NW 통신부(380)는 복수의 채널(CH1~CHn)을 통해 채널에 연결된 네트워크의 임의의 구성요소와 데이터 통신을 할 수 있다. 데이터 통신은 유무선 통신 기술이 이용될 수 있으며, 유선 통신 기술로 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 인터넷 통신, 시리얼 통신(serial communication), 광/동축 케이블 등이 이용될 수 있다. 본 실시예에서 인터넷 통신인 것이 바람직하다. NW 통신부(380)는 적어도 하나의 NIC(Network Interface Card)일 수 있다.
복수의 채널(CH1~CHn)의 일단은 NW 통신부(380)에 연결되고, 각각의 타단은 CCTV나 블랙 박스 등의 복수의 영상 촬영 장치와 연결될 수 있다. 각각의 영상 촬영 장치는 도 10의 카메라(50)에 대응될 수 있다. 이하, 복수의 채널(CH1~CHn)은 장치 또는 장치의 인터페이스처럼 취급하기로 한다.
NW 통신부(380)는 복수의 채널(CH1~CHn)로부터 복수의 동영상 패킷을 수신할 수 있다. NW 통신부(380)는 후술할 비식별화 동영상 패킷을 복수의 채널(CH1~CHn)로 송신할 수 있다.
동영상 패킷은 도 10 내지 도 17에서 언급된 스트리밍, 및/또는 식별 동영상(510)에 대응될 수 있으며, 비식별화 동영상 패킷은 도 10 내지 도 17의 비식별 동영상(540), 및 비식별 동영상 스트리밍(550)에 대응될 수 있다. 스트리밍과 동영상 파일은 실시간과 다운로드의 차이로, 동영상 포맷이나 프레임 구조는 실질적으로 동일하다. 따라서, 도 10 내지 도 17에서 동영상 파일로 설명한 내용은 본 패킷에 따른 스트리밍에도 적용될 수 있다. 즉, 동영상 패킷은 앞선 식별 동영상(510)에 대응될 수 있고, 비식별화 동영상 패킷은 비식별 동영상 스트리밍(550)에 대응될 수 있다.
본 실시예에서, 동영상 패킷 및 비식별화 동영상 패킷은 스트리밍으로 보고 설명한다. 또한, 이하에서 설명하는 프레임은 도 10 내지 도 17의 이미지와 대응될 수 있다.
CPU부(170)는 적어도 하나의 중앙 처리 장치(Central Processing Unit, CPU)를 구비할 수 있다. CPU는 데이터 및 프로그램의 연산을 수행하여, 다양한 기능을 처리할 수 있다.
버퍼 메모리부(270)는 RAM과 같은 시스템 메모리, 및/또는 속도가 빠른 SSID와 같은 저장 매체, 또는 이들의 조합일 수 있다. 본 딥러닝 프레임워크 응용 컴퓨팅 장치는 실시간 스트리밍을 해야 하므로, RAM과 같은 메모리인 것이 바람직하다. RAM은 CPU부(170)에 즉시 엑세스할 수 있다. RAM은 CPU부(170)에서 연산되고 있는 데이터 및 프로그램을 포함할 수 있다. 본 장치는 버퍼 메모리부(270) 이외에 CPU부(170)가 엑세스할 수 있는 다른 시스템 메모리를 더 구비할 수 있다. 버퍼 메모리부(270)는 시스템 메모리 그 자체이거나 그 일부일 수 있는데, 본 명세서에서 설명의 편의를 위해 버퍼 메모리부(270)는 시스템 메모리와 동일한 것으로 가정하고 설명한다.
GPU부(180)는 적어도 하나의 GPU를 구비할 수 있다. 본 실시예에서 GPU부(180)는 제1 내지 제4 GPU(181~184)를 구비할 수 있다. 각 GPU는 그래픽카드에 장착된 것일 수 있다.
GPU 메모리부(280)는 GPU부(180)의 GPU가 엑세스할 수 있는 메모리로서, 다양하게 구현될 수 있다. 예를 들어, CPU부(170)에서 엑세스하는 시스템 메모리로서, 이 경우 CPU 및 GPU는 메모리를 공유할 수 있다. 다른 예로, 제1 내지 제4 GPU(181~184)가 공유하는 메모리일 수 있다.
바람직하게 GPU 메모리부(280)는 제1 내지 제4 GPU(181~184) 각각이 엑세스 가능한 제1 내지 제4 GPU 메모리(281~284)를 구비할 수 있다. 이 경우 딥러닝 프레임워크 응용 컴퓨팅 장치는 4개의 그래픽 카드를 구비한 것으로 볼 수 있다.
이하 본 실시예에서 버퍼 메모리부(270)와 GPU 메모리부(280)는 서로 다른 물리적인 메모리로 보고 설명하기로 한다. 이 경우, 버퍼 메모리부(270)에서 GPU 메모리부(280)으로의 데이터 전송은 시간이 많이 소요되므로, 남겨지는 데이터 없이 GPU 메모리로 데이터가 전송되는 것이 바람직하다.
버퍼 메모리부(270)에서 GPU 메모리로의 전송되는 데이터 크기는 GPU 메모리 사이즈일 수 있다. 버퍼 메모리부(270)는 기설정된 GPU 메모리 사이즈의 워크 아이템이 로딩될 수 있는 아이템 영역이 복수 개 할당될 수 있다.
프레임 관리 모듈(140)은 NW 통신부(380)에서 수신한 동영상 패킷을 디코딩하여, 복수의 프레임을 생성할 수 있다. 각 프레임은 채널 식별자 및 타임 코드를 구비할 수 있다. 채널 식별자는 해당 프레임이 복수의 채널(CH1~CHn) 중 어느 채널로부터 수신한 것인지 식별하도록 할 수 있다. 타임 코드는 특정한 프레임의 시작점으로부터의 위치를 표시하는 정보로, 예를 들면 경과시간과 프레임 번호로 구성될 수 있다.
프레임 관리 모듈(140)은 디코딩한 복수의 프레임을 버퍼 로딩 정책에 따라 기설정된 배치 사이즈 별로 순차적으로 버퍼 메모리부(270)에 로딩할 수 있다.
딥러닝 훈련시 배치 사이즈가 너무 크면 한 번에 처리해야할 양이 증가하여 학습 속도가 느려지고 메모리 부족 문제를 겪을 수 있다. 딥러링 훈련시 배치 사이즈가 너무 작으면 적은 샘플을 참조하여 가중치 업데이트가 빈번하게 일어나기 때문에 불안정하게 훈련될 수 있다. 따라서 딥러닝 훈련시 적절한 배치 사이즈를 부여해야 한다.
딥러닝 추론은 가중치가 고정이며 순방향 전파만 일어나므로, 딥러닝 훈련의 이유와 같은 적절한 배치 사이즈 부여가 필요 없을 수도 있다. 그러나, 추론시 요구 사항에 따라 딥러닝 추론에 적절한 배치 사이즈가 필요할 수 있다. 서로 다른 하드웨어 사양, 프레임워크 등에 따라 딥러인 추론을 처리하는데 걸리는 지연(latency), 초당 요청 수(request/s), 소요 비용, 정확도가 차이가 날 수 있다.
일반적으로, 하드웨어 사양 및 프레임워크의 종류는 정해져 있으므로, 딥러닝 추론에 적절한 배치 사이즈가 정해질 수 있다. 본 실시예에서 딥러닝 추론이 수행되는 하드웨어(CPU부(170), GPU부(180)) 및 프레임워크(메인 프레임워크부(310), 서브 프레임워크부(320))에 따라 배치 사이즈가 결정될 수 있다.
프레임 관리 모듈(140)은 딥러닝 추론이 수행되는 하드웨어 및 프레임워크에 따라 적절한 배치 사이즈로 딥러닝 추론이 실행되도록 할 수 있다. 예를 들어, 딥러닝 추론이 서브 프레임워크부(320)에서 수행되고, 서브 프레임워크부(320)이 GPU부(180)에서 구동되는 경우, 제1 내지 제4 GPU(181~184)의 하드웨어 사양 별로 및 제1 내지 제4 서브 프레임워크 모듈(321~324)의 종류에 따라 적절한 배치 사이즈가 상이할 수 있다. 딥러닝 추론의 일부는 GPU부(180)에서 나머지는 제1 내지 제4 GPU(181~184) 중 어느 한 모듈에서 수행될 경우, 하드웨어 및 수행 비율에 따라 적절한 배치 사이즈는 상이할 수 있다. 후술하겠지만, 실질적으로 딥러닝 추론이 수행되는 것은 프레임워크에 종속될 수 있으며, 해당 프레임워크에 따라 적절한 배치 사이즈가 설정될 수 있다.
프레임 관리 모듈(140)은 다음 딥러닝 추론이 수행될 프레임워크의 기설정된 배치 사이즈로 디코딩된 복수의 프레임을 버퍼 메모리부(270)에 순차적으로 로딩할 수 있다.
버퍼 로딩 정책은 버퍼 메모리부(270)에 복수의 프레임을 어떠한 순서로 순차적으로 로딩되도록 하는 정책일 수 있다. 프레임 도착 순서는 패킷 도착 순서에 대응되며, 본 정책에서 언급하는 프레임은 복수의 이미지로 구성될 수 있다.
버퍼 로딩 정책은 복수의 프레임이 도착한 순서대로 순차적으로 로딩하는 제1 로딩 정책을 기본으로 구비할 수 있다. 배치 사이즈에 동일한 채널의 프레임이 로딩되는 것이 바람직하나, 이럴 경우 네트워크에 로드가 가중되고 네트워크 비용이 올라갈 수 있다. 따라서 본 제1 로딩 정책과 같이 가변 레이트를 기본으로 하는 것이 바람직하다.
버퍼 로딩 정책은 버퍼 메모리부(270)의 배치 사이즈 영역에 로딩되는 프레임은 최초 할당된 제1 채널의 제1 프레임과 일정 시간 또는 일정 순서 내의 제1 채널의 다른 프레임인 제2 로딩 정책을 더 구비할 수 있다. 본 정책은 네트워크 로드에 영향을 덜 주면서, 배치 사이즈에 동일한 채널의 프레임이 로딩되게 할 수 있다. 본 정책은 제1 로딩 정책 보다 우선 순위가 높은 것이 바람직하다.
버퍼 로딩 정책은 배치 사이즈 영역에 빈 영역이 있는 경우, 할당되지 않은 최신 프레임이 로딩되도록 하는 제3 로딩 정책을 더 구비할 수 있다. 제3 로딩 정책은 제1 로딩 정책 보다 우선 순위가 낮은 것이 바람직하다.
제1 내지 제3 로딩 정책이 적용되는 경우, 제1 로딩 정책이 먼저 적용되고 마지막으로 제3 로딩 정책이 적용될 수 있는지 체크될 수 있다.
본 버퍼 로딩 정책의 실시예를 도 20 및 도 21을 참조하여 설명한다. 도 20에서 패킷이 아닌 프레임으로 표시하였지만, 이는 설명의 편의일뿐, 도착 패킷 순에 따른 디코딩된 프레임을 표시하는 것이다. 즉, 패킷이 들어오지만, 디코딩된 프레임의 순서는 점선 화살표 방향 순임을 표시한다.
도 20과 같이 제1 채널의 제1 프레임 그룹(Ch1_f01)('프레임 그룹'은 복수의 프레임(이미지)를 의미함)이 제일 먼저 도착하면, 도 21(a)와 같이 프레임 관리 모듈(140)은 버퍼 메모리부(270)의 할당된 제1 아이템 영역의 첫번째 배치 사이즈 영역에 제1 채널의 제1 프레임 그룹(Ch1_f01)을 로딩할 수 있다(제1 로딩 정책). 본 배치 사이즈는 제1 GPU 메모리(281)에서 구동되는 제1 서브 프레임워크 모듈(321)에 종속적일 수 있다.
본 실시예에서 제2 로딩 정책은 일정 순서 내이고, 도 20의 경우 15 순위라고 가정한다. 프레임 관리 모듈(140)은 제2 로딩 정책의 적용하여, 15 순위 내의 제1 채널의 제2 내지 제4 프레임 그룹(Ch1_f02~04)를 제1 아이템 영역의 첫번째 배치 사이즈 영역에 로딩할 수 있다. 제2 로딩 정책의 우선 순위가 제1 로딩 정책 보다 높으므로, 2 순위의 제2 채널의 제1 프레임 그룹(Ch2_f01)은 제1 아이템 영역의 첫번째 배치 사이즈 영역에 로딩되지 않게 된다. 또한 제1 아이템 영역의 첫번째 배치 사이즈 영역에 빈 영역이 없으므로, 제3 로딩 정책이 적용되지 않는다.
이후, 프레임 관리 모듈(140)은 제1 및 제2 로딩 정책에 기초하여, 제2 및 제4 채널의 프레임 그룹들을 제1 아이템 영역의 두번째 및 세번째 배치 사이즈 영역에 로딩할 수 있다.
제1 아이템 영역의 네번째 배치 사이즈 영역에는, 제1 로딩 정책에 따라 제3 채널의 제1 프레임 그룹(Ch3_f01)이 먼저 로딩될 수 있다. 제2 로딩 정책에 따라 제3 채널의 제2 프레임 그룹(Ch3_f02)이 로딩되나, 제3 채널의 제3 프레임 그룹(Ch3_f03)은 15 순위에 있지 않아 로딩될 수 없다.
제1 아이템 영역의 네번째 배치 사이즈 영영의 나머지는 제3 로딩 정책에 따라 제1 채널의 제5 내지 제6 프레임 그룹(Ch1_f05~06)이 로딩될 수 있다(S1410).
프레임 관리 모듈(140)은 버퍼 메모리부(270)의 나머지 할당된 부분에 프레임을 버퍼 로딩 정책에 기초하여 계속 로딩할 수 있다(S1430).
프레임 관리 모듈(140)은 복수의 채널(CH1~CHn) 중 패킷량이 적은 채널에 전송 속도를 높이도록 하는 메시지가 전송되도록 할 수 있다. 해당 메시지를 수신한 채널은 대역폭을 상승시키거나, 패킷 경로를 재설정하거나, 하드웨어 등에 문제가 있는지 체크 등을 할 수 있다.
메모리 관리 모듈(155)은 복수의 프레임이 복수의 아이템 영역 중 어느 하나에 모두 로딩되면, 로딩된 워크 아이템이 GPU 메모리부(280) 중 어느 한 GPU 메모리로 전송되도록 할 수 있다(S1415).
본 실시예에서 GPU 메모리부(280)는 제1 내지 제4 GPU 메모리(281~284)를 구비한다. 메모리 관리 모듈(155)은 순차적으로 제1 내지 제4 GPU 메모리(281~284)에 아이템 영역을 전송하거나, 제일 마지막에 딥러닝 추론이 끝난 GPU 메모리로 아이템 영역을 전송할 수 있다. 도 21을 참조하면, 제1 GPU 메모리(281)로 아이템 영역이 전송될 순서인 것으로 가정하고 설명한다.
제어부(100), 저장부(200), 변환부(360), 및 입출력부(370)의 일반적인 기능은 도 1 내지 도 17의 설명을 참고한다.
제어부(100)는 도 11과 같이, 데이터셋 관리 모듈(110), 결과 관리 모듈(115), 학습 모델 관리 모듈(120), 이미지 박스 관리 모듈(130), 및 평가 모듈(135)를 구비할 수 있다. 저장부(200)는 도 11과 같이, 데이터셋(210), 학습 결과(215), 학습 모델(220), 이미지 박스 저장 모듈(230), 및 평가 결과(235)를 구비할 수 있다.
본 실시예에서, 학습 모델 관리 모듈(120)은 기학습된 사생활 보호 기능의 학습 모델의 아키텍처 및 학습 파라미터를 관계형 데이터 구조인 네트워크 테이블 및 학습 파라미터 테이블를 구비한 사생활 보호 기능의 학습 모델 테이블로 관리할 수 있다. 학습 모델 관리 모듈(120)은 사생활 보호 기능의 학습 모델 테이블을 학습 모델(220)로서 저장부(200)에 저장되도록 할 수 있다.
메인 프레임워크부(310) 및 서브 프레임워크부(320)는 도 1 내지 도 17의 프레임워크부(300)에 대응될 수 있다. 메인 프레임워크부(310)는 CPU부(170)에 연관될 수 있다. 서브 프레임워크부(320)은 제1 내지 제4 GPU(181~184)에 각각 연관된 제1 내지 제4 서브 프레임워크 모듈(321~324)을 구비할 수 있다. 메인 프레임워크부(310)은 CPU부(170)에 의해 실행될 수 있다. 제1 내지 제4 서브 프레임워크 모듈(321~324) 각각은 제1 내지 제4 GPU(181~184)에 의해 실행될 수 있다. 본 실시예에서 제어부(100), 프레임 관리 모듈(140), 메모리 관리 모듈(155), 및 변환부(360)는 CPU부(170)에 의해 실행될 수 있다.
메인 프레임워크부(310) 및 제1 내지 제4 서브 프레임워크 모듈(321~324)은 각각 QML 모듈(305)를 구비할 수 있다.
메인 프레임워크부(310) 및 제1 내지 제4 서브 프레임워크 모듈(321~324)은 변환부(360)를 통해 적절히 변형된 포맷 및/또는 프레임워크의 학습 모델(220)(사생활 보호 기능의 학습 모델 테이블)로 딥러닝 추론할 수 있다.
변환부(360)는 특정 형식의 학습 모델을 다른 형식의 학습 모델로 변환할 수 있다. 저장부(200)에 저장된 학습 모델 테이블은 외부 딥러닝 프레임워크에서 생성된 학습 모델이 변환부(360)에 의해 임포트된 것일 수 있다.
제어부(100)는 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 메인 프레임워크부(310)에 적합한 사생활 보호용 모델 아키텍처로 구성할 수 있다. 제어부(100)는 학습 파라미터 테이블의 학습 파라미터를 사생활 보호용 모델 아키텍처에 할당하여, 입력되는원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능이 실행되도록 할 수 있다.
제어부(100)는 제1 내지 제4 서브 프레임워크 모듈(321~324)이 사생활 보호 추론 기능 중 적어도 매트릭스 연산이 수행되도록 어레인지할 수 있다.
추론에서의 CPU는 저 비용에 학습 모델들을 일반적으로 문제 없이 처리할 수 있으며, 다양한 학습 모델을 지원하는 범용성이 있으나, 처리량이 낮으며, 입력 데이터의 배치 사이즈가 커질 수록 불리하다. 특히, 본 실시예와 같이 실시간으로 여러 채널에 따른 대용량 동영상 프레임을 처리할 경우, 높은 처리량과 큰 배치 사이즈에서 강점을 보이는 GPU를 이용하는 것이 유리하다. 따라서 사생활 보호 추론 기능의 딥러닝 추론은 GPU부(180)에서 실행되는 것이 바람직하다. 다만 단순한 처리는 CPU부(170)에서 처리하는 것이 바람직하다. 따라서, CPU부(170)는 GPU부(180)에서 처리하기 전에 입력 데이터나 추론 기능의 간단한 일부를 전처리하거나, GPU부(180)에서 처리된 이후의 간단한 후처리를 하도록 설정되는 것이 바람직하다. 즉, GPU부(180)는 딥러닝 추론의 대부분의 연산, 예를 들어 매트릭스 연산을 수행하거나, 딥러닝 추론의 전부를 수행할 수 있다.
서브 프레임워크부(320)에서 사생활 보호 추론 기능의 딥러닝 추론이 수행된다고 하면, 제1 서브 프레임워크 모듈(321)은 제1 GPU 메모리(281)로 복사된 워크 아이템(S1420)에 대해 사생활 보호 추론 기능의 딥러닝 추론을 하여 워크드 아이템를 생성하여, 제1 GPU 메모리(281)에 적당한 주소로 전송할 수 있다(S1440).
메모리 관리 모듈(155)은 제1 서브 프레임워크 모듈(321)에 의해 워크 아이템의 작업이 완료되면, 완료된 워크드 아이템을 버퍼 메모리부(270)로 전송되도록 할 수 있다(S1450).
워크드 아이템은 메인 프레임워크부(310) 및 제1 서브 프레임워크 모듈(321) 중 적어도 제1 서브 프레임워크 모듈(321)에 의해 사생활 보호 추론 기능이 적용된 비식별화 워크드 아이템될 수 있다(S1455). 제1 서브 프레임워크 모듈(321)에서 딥러닝 추론이 모두 수행된 경우, 워크드 아이템와 비식별화 워크드 아이템는 동일할 수 있다.
비식별화 워크드 아이템은 복수의 비식별화 프레임을 구비할 수 있다. 비식별화 프레임은 앞서 설명한 비식별 이미지(920)에 대응될 수 있다.
프레임 관리 모듈(140)은 복수의 비식별화 프레임을 매핑된 채널 식별자 및 타임 코드를 기초로 복수의 비식별화 동영상 패킷으로 인코딩할 수 있다. 프레임 관리 모듈(140)은 NW 통신부(380)가 비식별화 동영상 패킷을 채널 식별자에 대응되는 채널로 전송되도록 할 수 있다.
데이터셋 관리 모듈(110)은 복수의 프레임을 관계형 데이터 구조인 식별 이미지 데이터 셋 테이블(520)으로 데이터베이스화할 수 있다.
기학습된 사생활 보호 기능의 학습 모델은 본 딥러닝 프레임워크 응용 컴퓨팅 장치에 의해 딥러닝 훈련될 수 있다. 학습 모델 관리 모듈(120)은 식별 이미지 데이터 셋 테이블(520) 중 딥러닝 훈련 가능한 훈련용 데이터셋 테이블과 기저장된 복수의 학습 모델의 각각의 네트워크 테이블의 관계형 데이터 구조에 기초하여, 훈련용 데이터셋 테이블에 적합한 학습 모델을 결정할 수 있다.
사생활 보호 추론 기능을 위해, 제어부(100)에 의해 기 훈련된 학습 모델에서 기학습된 사생활 보호 기능의 학습 모델을 추출할 수 있다. 학습 모델 관리 모듈(120)은 네트워크 테이블의 관계형 데이터 구조에 기초하여, 식별 이미지 데이터 셋 테이블(520)과의 유사도를 판단할 수 있다.
제어부(100)는 사생활 보호 기능(딥러닝 기능)의 훈련을 하는 경우, 저장부(200)에 저장된 복수의 학습 모델 테이블 중 사생할 보호 기능에 적합한 학습 모델 테이블을 선택할 수 있다.
변환부(360)는 학습 모델 테이블에 속한 네트워크 테이블을 상기 메인 프레임워크부(310)에 적합한 포맷으로 변환할 수 있다.
메인 프레임워크부(310)는 변환부(360)에서 변환된 적합한 포맷을 이용하여 모델 아키텍처를 구성하고, 모델 아키텍처에 학습 파라미터를 임의로 할당하여 훈련용 데이터셋 테이블에 저장된 학습용 이미지 데이터와 상기 모델 아키텍처를 이용하여 훈련할 수 있다. 다만 이에 한정되지 않고, 서브 프레임워크부(320)에서 훈련될 수 있다.
저장부(200)는 상기 훈련된 모델 아키텍처 및 훈련된 학습 파라미터를 네트워크 테이블 및 학습 파라미터 테이블로 변환하여 사생활 보호 기능의 학습 모델 테이블로 저장할 수 있다.
제어부(100)는 복수의 프레임 중 어느 하나인 원본 이미지(910)의 식별 대상인 제1 식별 이미지 박스(911)를 제1 마스킹 이미지 박스(921)로 마스킹하여 비식별 이미지(920)로 변환하는 이미지 박스 관리 모듈(130)을 더 구비할 수 있다.
이미지 박스 관리 모듈(130)은 사용자로부터 비식별 이미지(920)에서 마스킹된 제2 마스킹 이미지 박스(922)를 언마스킹할 대상으로 요청 받을 수 있다. 이 경우, 이미지 박스 관리 모듈(130)은 제2 마스킹 이미지 박스(922)와 매칭되는 제2 식별 이미지 박스(912)를 이미지 박스들을 저장하는 이미지 박스 저장 모듈(230)에서 추출한 후, 상기 제2 마스킹 이미지 박스(922)를 상기 제2 식별 이미지 박스(912)로 언마스킹할 수 있다.
제어부(100)는 사생활 보호 솔루션(901)의 마스킹된 식별 대상을 영상 분석 솔루션(902)을 통해 얼마나 감지하는 평가하는 평가 모듈(135)을 더 구비할 수 있다.
평가 모듈(135)은 비식별 이미지(920)에 영상 분석 솔루션(902)을 적용하여, 비식별 이미지(920)로부터 식별 대상 세트를 감지하여 분석 이미지 박스 세트를 도출할 수 있다. 평가 모듈(135)은 분석 이미지 박스 세트와 비식별 이미지의 마스킹 이미지 박스 세트를 비교하여, 대상 감지율 및 감지 에러율 중 적어도 하나를 측정할 수 있다.
대상 감지율은 식별 대상 세트의 존재 여부에 대한 정확도이다. 감지 에러율은 분석 이미지 박스 세트와 마스킹 이미지 박스 세트의 위치와 크기의 일치율이다.
제1 식별 이미지 박스(911)를 마스킹한 제1 마스킹 이미지 박스(921)는 사생활 보호 대상으로 검출 시 검출 대상으로 감지되고, 검출 대상을 특정할 수 있는 특정 특성은 존재하지 않는 것이 바람직하다.
마스킹 처리는 제1 식별 이미지 박스(911) 자체를 조작하는 모자이크 처리 및 식별 이미지 박스와 무관한 이미지로 대체하는 대체 처리 중 적어도 어느 하나일 수 있다.
제1 마스킹 이미지 박스(921)가 대체 처리된 경우, 제1 마스킹 이미지 박스(921)는 식별 대상으로 감지되도록 하는 이미지, 문자, 및 QR 코드 중 적어도 하나를 구비할 수 있다. 제1 마스킹 이미지 박스(921)는 식별 대상과 동일한 대상 범주 및 대상 범주 보다 하위 범주의 하위 범주 특성을 구비할 수 있다.
도 22는 본 발명의 다른 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 주요 하드웨어적 환경을 도시한다. 도 23은 도 22에 따른 장치의 블록 구성도이다. 도 24는 도 23에 따른 일부 구성인 제어부 및 저장부의 세부 블록 구성도이다. 도 25은 데이터에 관련된 도 22에 따른 일부 구성의 세부 블록 구성도이다. 도 26은 도 25에 따른 일부 구성의 세부 블록 구성도이다. 도 27은 도 26에 따른 메모리 관리를 도시한다. 도 28은 도 22의 장치를 이용한 딥러닝 프레임워크 응용 컴퓨팅 방법의 순서도이다. 도 29는 도 22의 신호 흐름도이다. 도 30은 도 22의 입출력 및 중간 데이터를 도시한다. 도 1 내지 도 21을 참고한다. 도 22 내지 도 30의 실시예에 따른 본 발명의 설명은 특히, 도 18 내지 도 21에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치에 대한 설명을 참고하며, 각 구성요소 및 그 기능의 중복되는 설명은 생략한다.
도 22 내지 도 30을 참조하면, 본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 도 1 내지 도 17의 DB 서버(10), 도 10의 서버(11), 및/또는 도 18 내지 도 21의 딥러닝 프레임워크 응용 컴퓨팅 장치에 대응될 수 있으며, 각 서버/장치의 기능을 수행할 수 있다.
본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 제어부(100), 호스트부(70), 타겟부(80), 저장부(200), 및 메인 프레임워크부(310)을 포함할 수 있다.
본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 변환부(360), 및 입출력부(370)를 더 포함할 수 있다. 제어부(100), 저장부(200), 변환부(360), 및 입출력부(370)의 일반적인 기능은 도 1 내지 도 21의 설명을 참고한다.
도 24를 참조하면, 제어부(100)는 데이터셋 관리 모듈(110), 결과 관리 모듈(115), 학습 모델 관리 모듈(120), 이미지 박스 관리 모듈(130), 및 평가 모듈(135)를 구비할 수 있다. 저장부(200)는 데이터셋(210), 학습 결과(215), 학습 모델(220), 이미지 박스 저장 모듈(230), 및 평가 결과(235)를 구비할 수 있다.
본 실시예에서, 학습 모델 관리 모듈(120)은 기학습된 사생활 보호 기능의 학습 모델의 아키텍처 및 학습 파라미터를 관계형 데이터 구조인 네트워크 테이블 및 학습 파라미터 테이블를 구비한 사생활 보호 기능의 학습 모델 테이블로 관리할 수 있다. 학습 모델 관리 모듈(120)은 사생활 보호 기능의 학습 모델 테이블을 학습 모델(220)로서 저장부(200)에 저장되도록 할 수 있다.
호스트부(70)는 CPU부(170) 및 버퍼 메모리부(270)를 구비할 수 있다. CPU부(170)는 하나 또는 그 이상의 CPU일 수 있다.
타겟부(80)는 복수의 GPU 모듈을 구비할 수 있다. 타겟부(80)는 제1 내지 제4 GPU모듈 모듈(191~194)를 구비할 수 있다.
제1 GPU 모듈(191)은 제1 GPU(181) 및 제1 GPU 메모리(281)을 구비할 수 있다. GPU 및 GPU 메모리의 일반적인 설명은 앞선 내용을 참고한다. 제2 내지 제4 GPU모듈 모듈(192~194)은 각각 제2 내지 제4 GPU(182~184) 및 제2 내지 제4 GPU 메모리(282~284)를 구비할 수 있다.
타겟부(80)는 호스트부(70)와 대응되는 블록으로, GPU부(180)로 표시될 수 있다. 도 18 등의 설명에서 GPU부(180)는 GPU만을 의미하였지만, 본 실시예에서는 GPU 메모리도 포함되는 것으로 하였으나, 이에 한정되지 않는다.
본 실시예에서 제1 내지 제4 GPU모듈 모듈(191~194)는 각각의 그래픽 카드와 같이 모듈화되고, 서로 분리된 것으로 보고 설명한다. 또한 버퍼 메모리부(270)과 제1 내지 제4 GPU 메모리(281~284) 각각은 물리적으로 분리된 메모리인 것으로 가정하고 설명한다.
제어부(100)는 프레임 관리 모듈(140), 스케쥴러 모듈(145), 매핑 모듈(150), 및 메모리 관리 모듈(155)을 더 포함할 수 있다.
프레임 관리 모듈(140)은 네트워크 통신 상의 패킷이나 동영상 파일을 디코딩하여 복수의 프레임을 생성할 수 있다. 프레임 관리 모듈(140)은 이미지인 프레임 들을 패킷이나 동영상 파일로 인코딩할 수 있다. 패킷은 다운로드용 동영상 파일의 일부, 또는 스트리밍 서비스용 일 수 있다.
프레임 관리 모듈(140)은 복수의 채널(CH1~CHn)로부터 수신한 복수의 동영상 패킷을 디코딩하여, 복수의 프레임을 생성할 수 있다. 복수의 채널은 네트워크 인터페이스이거나 복수의 동영상 파일 등 그 소스는 다양할 수 있다.
본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치는 네트워크의 서로 상이한 복수의 채널로부터 동영상 패킷들을 수신하는 네트워크 통신부(380)(이하, NW 통신부)를 더 포함할 수 있다.
NW 통신부(380)는 복수의 채널(CH1~CHn)을 통해 채널에 연결된 네트워크의 임의의 구성요소와 데이터 통신을 할 수 있다. 복수의 채널(CH1~CHn)의 일단은 NW 통신부(380)에 연결되고, 각각의 타단은 CCTV나 블랙 박스 등의 복수의 영상 촬영 장치와 연결될 수 있다. 각각의 영상 촬영 장치는 도 10의 카메라(50)에 대응될 수 있다. 이하, 복수의 채널(CH1~CHn)은 장치 또는 장치의 인터페이스처럼 취급하기로 한다.
NW 통신부(380)는 복수의 채널(CH1~CHn)로부터 복수의 동영상 패킷을 수신할 수 있다. NW 통신부(380)는 후술할 비식별화 동영상 패킷을 복수의 채널(CH1~CHn)로 송신할 수 있다.
매핑 모듈(150)은 복수의 프레임 각각에 이미지 정보 ID를 부여할 수 있다.
이미지 정보 ID는 채널 식별자 및 타임 코드를 구비할 수 있다. 채널 식별자는 해당 프레임이 복수의 채널(CH1~CHn) 중 어느 채널로부터 수신한 것인지 식별하도록 할 수 있다. 타임 코드는 특정한 프레임의 시작점으로부터의 위치를 표시하는 정보로, 예를 들면 경과시간 및/또는 프레임 번호로 구성될 수 있다. 이미지 정보 ID는 각 프레임에 메타 데이터로 첨부될 수 있다.
저장부(200)는 매핑 테이블(250)을 더 포함할 수 있다. 매핑 테이블(250)은 매핑 모듈(150)에 의해 프레임 식별자와 이미지 정보 ID가 서로 연관되어 저장된 데이터베이스일 수 있다. 프레임 식별자는 어느 한 프레임을 다른 프레임과 식별되도록 하는 식별자일 수 있다.
프레임에 첨부되는 이미지 정보 ID는 프레임 식별자를 더 구비할 수 있다..
메인 프레임워크부(310)는 도 1 내지 도 17의 프레임워크부(300) 및/또는 도 18 내지 도 21의 메인 프레임워크부(310)에 대응되거나, 그 기능의 적어도 일부를 수행할 수 있다. 메인 프레임워크부(310)는 CPU부(170)에 연관될 수 있다.
본 실시예에서 제어부(100), 프레임 관리 모듈(140), 메모리 관리 모듈(155), 메인 프레임워크부(310), 및 변환부(360)는 CPU부(170)에 의해 실행될 수 있다.
메인 프레임워크부(310)는 다양한 학습 모델에 따른 딥러닝 훈련 및 추론(이하, '딥러닝 기능')을 수행할 수 있다. 메인 프레임워크부(310)는 변환부(360)를 통해 적절히 변형된 포맷의 학습 모델(220), 또는 본 실시예에 따른 프레임워크에 기반한 학습 모델(220)(사생활 보호 기능의 학습 모델 테이블)로 딥러닝 추론할 수 있다.
변환부(360)는 특정 형식의 학습 모델을 다른 형식의 학습 모델로 변환할 수 있다. 저장부(200)에 저장된 학습 모델 테이블은 외부 딥러닝 프레임워크에서 생성된 학습 모델이 변환부(360)에 의해 임포트된 것일 수 있다.
제어부(100)는 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 메인 프레임워크부(310)에 적합한 사생활 보호용 모델 아키텍처로 구성할 수 있다. 제어부(100)는 학습 파라미터 테이블의 학습 파라미터를 사생활 보호용 모델 아키텍처에 할당하여, 입력되는원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능이 실행되도록 할 수 있다.
메인 프레임워크부(310)는 딥러닝 기능을 실행하기 위해 CPU부(170)에서 다양한 프로세스로 구현될 수 있다. 예를 들어 본 실시예에 따른 사생활 보호 추론 기능을 실행하기 위해, CPU부(170)는 메인 프레임워크부(310)을 기초로, 제1 딥러닝 프로세스(311), 제2 딥러닝 프로세스(312), 등과 같은 프로세스를 생성할 수 있다. 이러한 딥러닝 프로세스는 QML 모듈(305)에 대응되어 생성될 수 있다.
메인 프레임워크부(310)는 입력되는 원본 이미지(910)를 사생활 보호 대상이 식별되지 않는 비식별 이미지(920)로 변환되도록 하는 사생활 보호 추론 기능의 딥러닝 프로세스를 생성할 수 있다.
스케쥴러 모듈(145)은 복수의 GPU 모듈 중 딥러닝 프로세스의 일부 연산을 분담(이하, '서브 연산')할 GPU 모듈을 선정할 수 있다. 스케쥴러 모듈(145)는 타겟 설정 정책에 따라 다음에 서브 연산할 제1 GPU 모듈(191)을 선정할 수 있다. 선정되는 서브 연산 모듈은 버퍼 메모리부(270)의 FIFO(First In First Out)에 따른 워크 아이템이 처리될 GPU 모듈을 의미할 수 있다.
타겟 설정 정책은 제일 먼저 서브 연산을 수행하는 GPU 모듈을 다음 서브 연산 모듈로 선정하거나, 제일 먼저 유휴 상태가 될 GPU 모듈를 서브 연산 모듈로 선정하는 등 다양한 정책이 있을 수 있다. 제일 먼저 유휴 상태가 될 GPU 모듈은 각 GPU 모듈에서 기존에 데이터를 처리한 시간 들에 기초하여 연산될 수 있다.
스케쥴러 모듈(145)는 복수의 프레임 중 적어도 일부의 프레임 세트가 버퍼 로딩 정책에 따라 버퍼 메모리부(270)의 제1 워크 아이템에 로딩되도록 할 수 있다.
프레임 관리 모듈(140)은 제1 워크 아이템에 로딩되는 복수의 프레임 중 일부 프레임을 기설정된 필터링 정책에 따라 누락시킬 수 있다. 필터링 정책은 프레임에 변화가 없는 프레임, 이전 프레임과 큰 차이가 없는 프레임 등, 변동이 없거나 변동폭이 매우 적은 프레임을 서브 연산에서 제외시킬 수 있다. 이에 의해, 연산량이 줄어 컴퓨팅 자원이 효율적으로 이용될 수 있다.
버퍼 로딩 정책은 스케쥴러 모듈(145)에 의해 비누락된 프레임들 중 기설정된 버퍼링 시간 내에 도착한 프레임들을 순차적으로 버퍼 메모리부(270)에 로딩하는 정책을 의미할 수 있다. 본 실시예에서 각 채널은 실시간 스트리밍으로, 오랜 시간 동안 데이터를 버퍼링할 수 없다. 따라서 버퍼링 시간 내에 도착한 프레임들의 용량이 제1 워크 아이템의 허용 용량인 제1 배치 볼륨과 같거나 이를 초과하면 제1 배치 볼륨에 맞추고, 남는 프레임들은 제2 워크 아이템에 로딩될 수 있다. 버퍼링 시간 내에 도착한 프레임들의 용량이 제1 배치 볼륨 보다 작으면, 실시간 서비스를 위해 해당 프레임들로 제1 워크 아이템을 완성시킬 수 있다.
제1 워크 아이템은 상기 제1 GPU 모듈(191)에서 수행되는 아이템일 수 있다.
일반적으로 프로세스는 프로그램을 수행하기 위한 연산 코드와 입력 데이터(메모리 주소; 변수)를 구비할 수 있다.
워크 아이템은 명령어 세트, 프레임 데이터, 및 출력 데이터로 할당된 영역을 구비할 수 있다.
명령어 세트는 프로그램을 수행하기 위한 연산 코드를 기초로 생성될 수 있다. 명령어 세트는 딥러닝 프로세스에서 실행되는 프로그램 코드 중 적어도 일부인 복잡한 연산(이하, '매트릭스 연산')이 수행되도록 하는 코드들의 집합을 구비할 수 있다. 즉, 명령어 세트는 GPU 모듈에서 서브 연산될 코드들의 집합일 수 있다. 명령어 세트는 연산 코드와 동일하거나 그 일부일 수 있다.
프레임 데이터는 딥러닝 프로세스의 입력 데이터로, 로딩되는 프레임들일 수 있다.
출력 데이터로 할당된 영역은 GPU 모듈에서 서브 연산된 후 결과값들이 로딩될 메모리 영역으로, 프레임 데이터의 용량 보다 작은 용량인 것이 자원 효율적인 면에서 바람직하다.
제1 배치 볼륨은 제1 GPU 모듈(191)의 GPU 메모리 사이즈 이하로, 명령어 세트 및 출력 데이터로 할당된 영역에 따른 용량을 기본으로 하고, 로딩되는 복수의 프레임의 최대 개수에 따른 용량일 수 있다. 즉, 제1 배치 볼륨은 GPU 메모리 사이즈 내에서 최대로 프레임이 로딩되는 용량이되, 버퍼링 시간 내에 최대 허용 용량이 로딩되지 않으면, 버퍼링 시간 동안 로딩된 프레임들의 최대 개수에 연관되어 정해질 수 있다.
또 다른 실시예로, 스케쥴러 모듈(145)은 버퍼 메모리부(270)에 GPU 메모리 사이즈에 대응되는 제1 내지 제4 아이템 영역(item area 1~4)를 할당하고(도 27(a) 참조), 필터링된 프레임들을 로딩할 수 있다. 스케쥴러 모듈(145)은 제1 아이템 영역이 헤드 영역(head.01) 및 필터링된 프레임들의 용량이 제1 배치 볼륨에 도달할 때까지 필터링된 프레임들을 제1 아이템 영역에 로딩할 수 있다.
제1 헤드 영역(head.01)은 명령어 세트 및 출력 데이터로 할당된 영역 중 적어도 명령어 세트로 구성될 수 있다.
메모리 관리 모듈(155)은 제1 워크 아이템의 용량이 기설정된 제1 배치 볼륨이 되면, 제1 워크 아이템이 제1 GPU 모듈(191)의 제1 GPU 메모리(281)로 전송되도록 할 수 있다.
일반적으로 딥러닝 추론시 각 채널별로 딥러닝 프로세스가 생성되어, 각 프로세스의 매트릭스 연산을 그래픽 카드에서 수행한다. 이 경우, 시스템 메모리와 GPU 메모리 간의 메모리 클럭, 한 프로세스의 그래픽카드 독점, 독점에 따른 인풋/아웃풋의 병목 등의 현상으로, 메모리 사용 효율 및 그래픽 카드의 자원 활용이 낮아진다.
본 실시예에 따른 메모리 관리 모듈(155)은 처리할 입력 데이터(프레임들)을 GPU 모듈의 메모리 사이즈에 가깝게 되도록 최대 용량의 데이터를 GPU 메모리에 전송하므로, 병목 현상 등이 줄어들어 더 빠른 시간에 딥러닝 추론 기능의 실행을 완료할 수 있다.
이하, 도 28 및 도 29를 특히 참조하여, 본 실시예에 따른 딥러닝 프레임워크 응용 컴퓨팅 장치의 디러닝 방법에 대해 설명한다.
스케쥴러 모듈(145)은 복수의 GPU 모듈 중 타겟 설정 정책에 따라 서브 연산할 제1 GPU 모듈(191)을 선정할 수 있다(S1510).
프레임 관리 모듈(140)은 복수의 채널(CH1~CHn)로부터 수신한 복수의 동영상 패킷(packet)을 디코딩하여, 복수의 프레임(Ch1_f01)을 생성할 수 있다(S1515).
매핑 모듈(150)은 복수의 프레임 각각에 이미지 정보 ID(info.img1)를 부여할 수 있다(S1520).
스케쥴러 모듈(145)는 복수의 프레임 중 적어도 일부의 프레임 세트가 버퍼 로딩 정책에 따라 버퍼 메모리부(270)의 제1 워크 아이템(work item 1)에 로딩되도록 하는 버퍼링이 되도록 할 수 있다(S1530).
프레임 관리 모듈(140)은 제1 워크 아이템에 로딩되는 복수의 프레임 중 일부 프레임을 기설정된 필터링 정책에 따라 누락시킬 수 있다(S1525). 프레임 관리 모듈(140)은 필터링하여 프레임 세트(Ch1_F01+info.img1)에서 버퍼링이 되도록 할 수 있다.
메모리 관리 모듈(155)은 제1 워크 아이템의 용량이 기설정된 제1 배치 볼륨이 되면, 제1 워크 아이템이 제1 GPU 모듈(191)의 제1 GPU 메모리(281)로 전송되도록 할 수 있다(S1535). 전송이라는 표현을 사용하였지만, 실질적으로 복사되는 것으로 볼 수 있다.
제1 GPU 모듈(191)은 제1 워크 아이템을 기초로 서브 연산하여 워크드 아이템을 결과로 산출할 수 있다(S1540).
제1 GPU 모듈(191)은 도 30(a)의 원본 이미지(910)를 입력 데이터로 하여 서브 연산하여, 제1 식별 이미지 박스(911) 및 제2 식별 이미지 박스(912) 등의 식별 이미지 박스 세트를 식별할 수 있다. 원본 이미지(910)는 앞서 언급한 이미지 정보 ID(info_img1)를 메타 데이터 등의 형식으로 구비할 수 있다.
제1 GPU 모듈(191)은 식별 이미지 박스 세트(911, 912)를 마스킹하여 도 30(b)의 제1 마스킹 이미지 박스(921) 및 제2 마스킹 이미지 박스(922) 등의 마스킹 이미지 박스로 구성된 마스킹 이미지 박스 세트(955)을 생성할 수 있다. 제1 GPU 모듈(191)은 도 30(c)의 비식별 이미지(920)을 생성할 수 있다. 그러나, 메모리 간의 데이터 복사량 등을 줄이고 고성능의 CPU부(170)에서 작업하여 작업의 효율성을 높이기 위해, 제1 GPU 모듈(191)에서 비식별 이미지(920)을 생성하지 않는 것이 바람직하다.
즉, 워크드 아이템은 프레임(원본 이미지(910)) 중 식별 이미지 박스를 마스킹한 마스킹 이미지 박스로 구성된 마스킹 이미지 박스 세트(955)를 구비할 수 있다.
제1 및 제2 마스킹 이미지 박스(921, 922)는 대응되는 제1 및 제2 식별 이미지 박스(911, 921)의 이미지(910)에서의 위치 정보를 구비하는 매핑 정보(m1, m2)를 구비할 수 있다.
마스킹 이미지 박스 세트(955)는 도 30(d)와 같이, 프레임 식별자(ID_img1), 이미지 정보 ID(info_img1), 제1 및 제2 매핑 정보(m1, m2), 그리고, 제1 및 제2 식별 이미지 박스(911, 921)를 구비할 수 있다.
메모리 관리 모듈(155)은 제1 GPU 모듈(191)에 의해 제1 워크 아이템의 작업이 완료되면, 완료된 워크드 아이템을 프레임 관리 모듈(140)로 전송되도록 할 수 있다(S1545). 워크드 아이템은 버퍼 메모리부(270)에 저장되고, 이를 프레임 관리 모듈(140)이 제어할 수도 있다.
프레임 관리 모듈(140)은 복수의 프레임의 원본 이미지(910)을 마스킹 이미지 박스 세트(955)를 이용하여 비식별 이미지(920)으로 변환하여, 복수의 프레임을 복수의 복수의 비식별화 프레임으로 마스킹할 수 있다(S1550). 이는 이미지 박스 관리 모듈(130)에서도 가능할 수 있으며, 바람직하게는 프레임 관리 모듈(140)은 이미지 박스 관리 모듈(130)의 기능을 수행할 수 있다. 이와 관련하여, 매핑 모듈(150)은 이미지 박스 관리 모듈(130)의 기능을 수행할 수 있다.
프레임 관리 모듈(140)은 복수의 비식별화 프레임을 매핑된 이미지 정보 ID을 기초로 채널별 비식별화 동영상 패킷으로 인코딩(S1555)하여, 상기 이미지 정보 ID의 채널 식별자에 대응되는 각각의 채널로 상기 비식별화 동영상 패킷이 전송되도록 할 수 있다(S1560).
매핑 모듈(150)은 마스킹 이미지 박스 세트(955)의 메타 데이터를 기초로 기존의 매핑 테이블(250)을 도 30(d)와 같이 업데이트할 수 있다. 이는 마스킹 이미지 박스의 복원 등에 유용하게 이용될 수 있다.
데이터셋 관리 모듈(110)의 복수의 프레임을 관계형 데이터 구조인 식별 이미지 데이터 셋 테이블(520)으로 데이터베이스화하고, 훈련용 데이터셋 테이블에 적합한 학습 모델을 결정하는 것, 학습 모델 관리 모듈(120)의 유사도 판단, 메인 프레임워크부(310)의 디러닝 훈련, 이미지 박스 관리 모듈(130)의 언마스킹, 평가 모듈(135)의 평가 기능에 대한 자세한 설명은 도 18 내지 도 21를 참고한다.
상기 본 발명은 하드웨어 또는 소프트웨어에서 구현될 수 있다. 구현은 상기 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 즉, 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 매체를 포함한다. 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터가 읽을 수 있는 명령어, 데이터 구조, 프로그램 모듈, 및 기타 데이터 등 정보 저장을 위한 임의의 방법 또는 기술로서 구현된 모든 저장 가능한 매체를 포함하는 것으로, 휘발성/비휘발성/하이브리드형 메모리 여부, 분리형/비분리형 여부 등에 한정되지 않는다. 통신 저장 매체 는 반송파와 같은 변조된 데이터 신호 또는 전송 메커니즘, 임의의 정보 전달 매체 등을 포함한다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
10: DB 서버 20: 단말기
100: 제어부 110: 데이터셋 관리 모듈
120: 학습 모델 관리 모듈 115: 결과 관리 모듈
140: 프레임 관리 모듈 155: 메모리 관리 모듈
170: CPU부 180: GPU부
200: 저장부 210: 데이터셋
220: 학습 모델 215: 학습 결과
270: 버퍼 메모리부 280: GPU 메모리부
300: 프레임워크부 310: 메인 프레임워크부
320: 서브 프레임워크부 360: 변환부
370: 입출력부 380: 네트워크 통신부

Claims (14)

  1. 복수의 채널로부터 복수의 동영상 패킷을 수신하는 네트워크 통신부;
    기설정된 GPU 메모리 사이즈의 워크 아이템이 로딩될 수 있는 아이템 영역이 복수 개 할당된 버퍼 메모리부;
    상기 동영상 패킷을 디코딩하여, 각각 채널 식별자 및 타임 코드를 구비하는 복수의 프레임을 생성하고, 상기 복수의 프레임을 버퍼 로딩 정책에 따라 기설정된 배치 사이즈 별로 순차적으로 상기 버퍼 메모리부에 로딩하는 프레임 관리 모듈;
    복수의 GPU 메모리를 구비하는 GPU 메모리부;
    상기 복수의 GPU 메모리에 각각 연관된 복수의 GPU를 구비하는 GPU부;
    상기 복수의 프레임이 상기 복수의 아이템 영역 중 어느 하나에 모두 로딩되면, 상기 로딩된 워크 아이템이 상기 GPU 메모리부 중 제1 GPU 메모리로 전송되도록 하는 메모리 관리 모듈;
    기학습된 사생활 보호 기능의 학습 모델의 아키텍처 및 학습 파라미터를 관계형 데이터 구조인 네트워크 테이블 및 학습 파라미터 테이블를 구비한 사생활 보호 기능의 학습 모델 테이블로 관리하는 제어부; 및
    CPU부에 연관된 메인 프레임워크부 및 상기 복수의 GPU에 각각 연관된 복수의 서브 프레임워크 모듈을 구비하는 서브 프레임워크부;를 포함하고,
    상기 배치 사이즈는 상기 CPU부와 상기 GPU부의 사양, 및 상기 메인 프레임워크부와 상기 서브 프레임워크부의 종류에 따라 그 사이즈가 결정되고,
    상기 제어부는
    상기 사생활 보호 기능의 학습 모델 테이블의 네트워크 테이블을 상기 메인 프레임워크부에 적합한 사생활 보호용 모델 아키텍처로 구성하고, 상기 학습 파라미터 테이블의 학습 파라미터를 상기 사생활 보호용 모델 아키텍처에 할당하여, 입력되는원본 이미지를 사생활 보호 대상이 식별되지 않는 비식별 이미지로 변환되도록 하는 사생활 보호 추론 기능이 실행되도록 하고,
    상기 복수의 서브 프레임워크 모듈이 상기 사생활 보호 추론 기능 중 적어도 매트릭스 연산이 수행되도록 어레인지하고,
    상기 제어부는
    상기 복수의 프레임을 관계형 데이터 구조인 식별 이미지 데이터 셋 테이블으로 데이터베이스화하는 데이터셋 관리 모듈;
    상기 식별 이미지 데이터 셋 테이블 중 딥러닝 훈련 가능한 훈련용 데이터셋 테이블과 기저장된 복수의 학습 모델의 각각의 네트워크 테이블의 관계형 데이터 구조에 기초하여, 상기 훈련용 데이터셋 테이블에 적합한 학습 모델을 결정하는 학습 모델 관리 모듈;
    상기 네트워크 테이블의 관계형 데이터 구조에 기초하여, 상기 유사도를 판단하는 학습 모델 관리 모듈;
    상기 복수의 프레임 중 어느 하나인 원본 이미지의 식별 대상인 제1 식별 이미지 박스를 제1 마스킹 이미지 박스로 마스킹하여 비식별 이미지로 변환하는 이미지 박스 관리 모듈; 및
    상기 제어부는 사생활 보호 솔루션의 마스킹된 식별 대상을 영상 분석 솔루션을 통해 얼마나 감지하는 평가하는 평가 모듈을 구비하고,
    상기 평가 모듈은
    상기 비식별 이미지에 상기 영상 분석 솔루션을 적용하여, 상기 비식별 이미지로부터 식별 대상 세트를 감지하여 분석 이미지 박스 세트를 도출하고,
    상기 분석 이미지 박스 세트와 상기 비식별 이미지의 마스킹 이미지 박스 세트를 비교하여, 대상 감지율 및 감지 에러율 중 적어도 하나를 측정하고,
    상기 대상 감지율은 상기 식별 대상 세트의 존재 여부에 대한 정확도이고,
    상기 감지 에러율은 상기 분석 이미지 박스 세트와 상기 마스킹 이미지 박스 세트의 위치와 크기의 일치율인, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 버퍼 로딩 정책은
    상기 복수의 프레임이 도착한 순서대로 순차적으로 로딩하는 제1 로딩 정책;
    상기 버퍼 메모리부의 상기 배치 사이즈의 영역에 로딩되는 프레임은 최초 할당된 제1 채널의 제1 프레임과 일정 시간 또는 일정 순서 내의 상기 제1 채널의 다른 프레임인 상기 제1 로딩 정책 보다 우선 순위가 높은 제2 로딩 정책; 및
    상기 배치 사이즈의 영역에 빈 영역이 있는 경우, 할당되지 않은 최신 프레임이 로딩되는 상기 제1 로딩 정책 보다 우선 순위가 낮은 제3 로딩 정책; 중 적어도 상기 제1 로딩 정책을 구비하는, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  7. 제 1 항에 있어서,
    상기 프레임 관리 모듈은 상기 복수의 채널 중 패킷량이 적은 채널에 전송 속도를 높이도록 하는 메시지가 전송되도록 하는, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  8. 삭제
  9. 제 1 항에 있어서,
    상기 이미지 박스 관리 모듈은 사용자로부터 상기 비식별 이미지에서 마스킹된 제2 마스킹 이미지 박스를 언마스킹할 대상으로 요청 받은 경우, 상기 제2 마스킹 이미지 박스와 매칭되는 제2 식별 이미지 박스를 이미지 박스들을 저장하는 이미지 박스 저장 모듈에서 추출한 후, 상기 제2 마스킹 이미지 박스를 상기 제2 식별 이미지 박스로 언마스킹하는, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  10. 삭제
  11. 제 1 항에 있어서,
    저장부 및 변환부를 더 포함하고,
    상기 제어부는 사생활 보호 기능(딥러닝 기능)의 훈련을 하는 경우, 상기 저장부에 저장된 복수의 학습 모델 테이블 중 상기 사생활 보호 기능에 적합한 학습 모델 테이블을 선택하고,
    상기 변환부는 상기 학습 모델 테이블에 속한 네트워크 테이블을 상기 메인 프레임워크부에 적합한 포맷으로 변환하고,
    상기 메인 프레임워크부는 상기 변환부에서 변환된 적합한 포맷을 이용하여 모델 아키텍처를 구성하고, 상기 모델 아키텍처에 학습 파라미터를 임의로 할당하여 상기 훈련용 데이터셋 테이블에 저장된 학습용 이미지 데이터와 상기 모델 아키텍처를 이용하여 훈련하고,
    상기 저장부는 상기 훈련된 모델 아키텍처 및 훈련된 학습 파라미터를 네트워크 테이블 및 학습 파라미터 테이블로 변환하여 사생활 보호 기능의 학습 모델 테이블로 저장하는, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  12. 제 1 항에 있어서,
    상기 제1 식별 이미지 박스를 마스킹 처리한 제1 마스킹 이미지 박스는 사생활 보호 대상으로 검출 시 검출 대상으로 감지되고, 검출 대상을 특정할 수 있는 특정 특성은 존재하지 않고,
    상기 마스킹 처리는 상기 제1 식별 이미지 박스 자체를 조작하는 모자이크 처리 및 상기 식별 이미지 박스와 무관한 이미지로 대체하는 대체 처리 중 적어도 어느 하나인, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  13. 제 12 항에 있어서,
    상기 제1 마스킹 이미지 박스가 상기 대체 처리된 경우, 상기 제1 마스킹 이미지 박스는 상기 식별 대상으로 감지되도록 하는 이미지, 문자, 및 QR 코드 중 적어도 하나를 구비하고,
    상기 제1 마스킹 이미지 박스는 상기 식별 대상과 동일한 대상 범주 및 상기 대상 범주 보다 하위 범주의 하위 범주 특성을 구비하는, 딥러닝 프레임워크 응용 컴퓨팅 장치.
  14. 삭제
KR1020220135417A 2022-10-20 2022-10-20 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법 KR102641532B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220135417A KR102641532B1 (ko) 2022-10-20 2022-10-20 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220135417A KR102641532B1 (ko) 2022-10-20 2022-10-20 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR102641532B1 true KR102641532B1 (ko) 2024-02-28

Family

ID=90052832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220135417A KR102641532B1 (ko) 2022-10-20 2022-10-20 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102641532B1 (ko)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100771125B1 (ko) * 2006-11-24 2007-10-29 서울통신기술 주식회사 Cpu 보안을 위한 이더넷 트래픽 수신율 제한 시스템 및그 방법
KR20150099781A (ko) * 2012-12-21 2015-09-01 퀄컴 인코포레이티드 그래픽 프로세싱 유닛 기반 메모리 전송 동작들을 수행하는 다중모드 메모리 액세스 기법들
KR20160006106A (ko) * 2014-07-08 2016-01-18 삼성전자주식회사 멀티미디어 데이터를 전송하는 방법 및 장치
KR20160066068A (ko) * 2014-11-28 2016-06-10 전자부품연구원 동영상 마스킹 처리방법 및 장치
KR20190110498A (ko) * 2019-09-10 2019-09-30 엘지전자 주식회사 영상 파일에서 불특정 인물의 얼굴 영역을 비식별화 처리하는 인공 지능 서버 및 그 방법
KR102058124B1 (ko) 2019-01-25 2019-12-23 (주)비아이매트릭스 피벗 테이블 구조의 olap 결과를 이용한 딥러닝 예측 데이터 반영 시스템
KR20200044103A (ko) * 2017-08-30 2020-04-28 인퍼, 인코포레이티드 고정밀 프라이버시 보호 실가 함수 평가
KR20200077370A (ko) * 2019-04-22 2020-06-30 주식회사 로민 영상 마스킹 장치 및 영상 마스킹 방법
KR20210066390A (ko) * 2019-11-28 2021-06-07 한국전자기술연구원 개인정보 비식별화 방법 및 시스템
KR20220016641A (ko) * 2020-08-03 2022-02-10 (주)한국플랫폼서비스기술 쿼리를 이용한 프레임워크 딥러닝 학습 시스템 및 방법
KR20220096142A (ko) * 2020-12-30 2022-07-07 (주)한국플랫폼서비스기술 쿼리 기반 딥러닝 추론을 이용한 안면 검출 및 사생활 보호 시스템 및 그 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100771125B1 (ko) * 2006-11-24 2007-10-29 서울통신기술 주식회사 Cpu 보안을 위한 이더넷 트래픽 수신율 제한 시스템 및그 방법
KR20150099781A (ko) * 2012-12-21 2015-09-01 퀄컴 인코포레이티드 그래픽 프로세싱 유닛 기반 메모리 전송 동작들을 수행하는 다중모드 메모리 액세스 기법들
KR20160006106A (ko) * 2014-07-08 2016-01-18 삼성전자주식회사 멀티미디어 데이터를 전송하는 방법 및 장치
KR20160066068A (ko) * 2014-11-28 2016-06-10 전자부품연구원 동영상 마스킹 처리방법 및 장치
KR20200044103A (ko) * 2017-08-30 2020-04-28 인퍼, 인코포레이티드 고정밀 프라이버시 보호 실가 함수 평가
KR102058124B1 (ko) 2019-01-25 2019-12-23 (주)비아이매트릭스 피벗 테이블 구조의 olap 결과를 이용한 딥러닝 예측 데이터 반영 시스템
KR20200077370A (ko) * 2019-04-22 2020-06-30 주식회사 로민 영상 마스킹 장치 및 영상 마스킹 방법
KR20190110498A (ko) * 2019-09-10 2019-09-30 엘지전자 주식회사 영상 파일에서 불특정 인물의 얼굴 영역을 비식별화 처리하는 인공 지능 서버 및 그 방법
KR20210066390A (ko) * 2019-11-28 2021-06-07 한국전자기술연구원 개인정보 비식별화 방법 및 시스템
KR20220016641A (ko) * 2020-08-03 2022-02-10 (주)한국플랫폼서비스기술 쿼리를 이용한 프레임워크 딥러닝 학습 시스템 및 방법
KR20220096142A (ko) * 2020-12-30 2022-07-07 (주)한국플랫폼서비스기술 쿼리 기반 딥러닝 추론을 이용한 안면 검출 및 사생활 보호 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
CN109964216B (zh) 识别未知数据对象
CN109564568B (zh) 用于分布式数据集索引的装置、方法和机器可读存储介质
US20160034547A1 (en) Systems and methods for an sql-driven distributed operating system
US10643181B2 (en) System and method for a big data analytics enterprise framework
US20200097270A1 (en) Automated exchanges of job flow objects between federated area and external storage space
US20160342645A1 (en) Efficient storage using automatic data translation
US10936308B2 (en) Multi-tenant collaborative learning
CN114402315A (zh) 基于云的查询工作负载优化
US11928095B2 (en) Image analysis interface
Bartolini et al. A general framework for real-time analysis of massive multimedia streams
US20230244695A1 (en) Materialized view sub-database replication
US20220382562A1 (en) Systems and methods for generating a target dataset having a target data format on a user device
CN114792009A (zh) 一种数据管理的方法、设备及系统
US20230067285A1 (en) Linkage data generator
KR102641532B1 (ko) 사생활 보호 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법
KR102568011B1 (ko) 쿼리 기반 딥러닝 추론을 이용한 안면 검출 및 사생활 보호 시스템 및 그 방법
KR20240088541A (ko) 사생활 보호 기능의 딥러닝 프레임워크 응용 컴퓨팅 장치 및 그 방법
US11586598B2 (en) Data deduplication in data platforms
Noor et al. Sherlock in OSS: A Novel Approach of Content-Based Searching in Object Storage System
KR20240099104A (ko) 분산 원장이 적용된 딥러닝을 이용한 비식별화 인증 시스템 및 그 인증 방법
KR20220165391A (ko) 쿼리 기반 딥러닝 분산 시스템 및 분산 훈련 방법
Sun et al. Design of a Media Resource Management System for Colleges Based on Cloud Service
CN111639260B (zh) 内容推荐方法及其装置、存储介质
WO2021242938A1 (en) Methods and systems for streamlined searching according to semantic similarity
CN114356712A (zh) 数据处理方法、装置、设备、可读存储介质及程序产品

Legal Events

Date Code Title Description
GRNT Written decision to grant