KR20180044094A - 데이터 전처리 방법 및 데이터 전처리 장치 - Google Patents
데이터 전처리 방법 및 데이터 전처리 장치 Download PDFInfo
- Publication number
- KR20180044094A KR20180044094A KR1020160137749A KR20160137749A KR20180044094A KR 20180044094 A KR20180044094 A KR 20180044094A KR 1020160137749 A KR1020160137749 A KR 1020160137749A KR 20160137749 A KR20160137749 A KR 20160137749A KR 20180044094 A KR20180044094 A KR 20180044094A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image frame
- sensing
- sensing device
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000007781 pre-processing Methods 0.000 title claims abstract description 20
- 238000010801 machine learning Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 49
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 238000013480 data collection Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06N99/005—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
데이터 전처리 방법이 개시된다. 본 발명의 일 실시 예에 따른 데이터 전처리 방법은 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 단계, 상기 이미지 프레임으로부터 이미지 피처(Feature)를 추출하는 단계, 및 기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터(Parameter)로 설정하는 단계를 포함할 수 있다.
Description
본 발명은 데이터 전처리 방법 및 데이터 전처리 장치에 관한 것이다.
지금까진 인터넷에 연결된 기기들이 정보를 주고받으려면 인간의 “조작”이 개입돼야 했다. 사물인터넷(IoT, Internet of Things) 시대가 열리면 인터넷에 연결된 기기는 사람의 도움 없이 서로 알아서 정보를 주고 받으며 대화를 나눌 수 있다. 블루투스나 근거리무선통신(NFC), 센서데이터, 네트워크가 이들의 자율적인 소통을 돕는 기술이 된다.
IoT 디바이스 각각은 센서를 구비하여 온도, 습도, 열, 가스, 조도, 초음파 등을 감지할 수 있다. IoT 디바이스로부터 수집된 데이터는 전처리 과정, 모델 학습 과정 및 테스트 과정을 수행될 수 있다. 이때, 수집되는 데이터는 형식(문자, 숫자, 상태 등)이 다를 수 있으며 숫자들의 범위도 서로 다르게 될 수 있다.
이에 따라 보다 센싱 데이터를 보다 효율적으로 처리하는 방법의 대두가 요청된다.
실시 예의 일 목적은 센싱 데이터를 이미지로 가공하여 수집하는 데이터 전처리 방법 및 데이터 전처리 장치를 제공하는데 있다.
실시 예의 다른 목적은 가공된 이미지에서 신경망 알고리즘을 적용하여 이미지 피처(Feature)를 추출하는 디바이스를 제공하는데 있다.
본 발명의 일 실시 예에 따른 데이터 전처리 방법은 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 단계; 상기 이미지 프레임으로부터 이미지 피처(Feature)를 추출하는 단계; 및 기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터(Parameter)로 설정하는 단계;를 포함할 수 있다.
본 발명의 일 실시예에 따른 데이터 전처리 장치는, 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 이미지 가공부; 상기 이미지 프레임으로부터 이미지 피처(Feature)를 추출하는 피처 추출부; 및 기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터(Parameter)로 설정하는 제어부;를 포함할 수 있다.
실시 예에 따르면 수집되는 데이터의 형식, 종류 등에 무관하게 기계 학습 알고리즘으로 입력되는 데이터에 대한 전처리 과정 없이 데이터가 처리되어 디바이스 효율성이 향상될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 데이터 처리 장치의 블록도이다.
도 2는 수집된 데이터를 이미지로 가공하는 방법을 설명하는 흐름도이다.
도 3은 수집된 데이터를 이미지로 가공한 일 예를 나타내는 도면이다.
도 4는 수집된 데이터를 이미지로 가공한 다른 예를 나타내는 도면이다.
도 5는 수집된 데이터를 이미지로 가공한 또 다른 예를 나타내는 도면이다.
도 6은 이미지 프레임을 이용한 이미지 피처의 추출 및 이용 과정을 설명하기 위한 도면이다.
도 7은 도 6에 도시된 CNN의 동작을 보다 상세히 설명하기 위한 도면이다.
도 8은 도 6에 도시된 기계 학습 알고리즘을 보다 상세히 설명하기 위한 도면이다.
도 2는 수집된 데이터를 이미지로 가공하는 방법을 설명하는 흐름도이다.
도 3은 수집된 데이터를 이미지로 가공한 일 예를 나타내는 도면이다.
도 4는 수집된 데이터를 이미지로 가공한 다른 예를 나타내는 도면이다.
도 5는 수집된 데이터를 이미지로 가공한 또 다른 예를 나타내는 도면이다.
도 6은 이미지 프레임을 이용한 이미지 피처의 추출 및 이용 과정을 설명하기 위한 도면이다.
도 7은 도 6에 도시된 CNN의 동작을 보다 상세히 설명하기 위한 도면이다.
도 8은 도 6에 도시된 기계 학습 알고리즘을 보다 상세히 설명하기 위한 도면이다.
이하에서는 도면을 참고하여 본 발명을 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 데이터 처리 장치의 블록도이다.
도 1에 따르면, 데이터 처리 장치(100)는 센싱 데이터 수집부(110), 이미지 가공부(120), 피처(Feature) 추출부 및 제어부(140)를 포함할 수 있다.
센싱 데이터 수집부(110)는 각종 센싱 디바이스(10)로부터 센싱 정보를 수집할 수 있다. 센싱 디바이스(10)는 온도, 습도, 열, 가스, 조도, 초음파 등을 감지하는 센서, 온/오프 상태를 갖는 스위치, 시간에 따른 전력 사용량을 측정할 수 있는 전력량 측정계, 현재 온도/설정 온도/송풍 강도 등에 대한 데이터를 수집하는 에어컨 등의 다양한 IoT(Internet of Things) 디바이스일 수 있으나, 실시 예는 이에 국한되지 않는다.
또한, 센싱 데이터 수집부(110)는 각종 센싱 디바이스(10)의 디바이스 정보를 수집할 수 있다.
즉, 센싱 데이터 수집부(110)는 다수의 센싱 디바이스(10)들로부터 디바이스 정보 및 그에 대응하는 센싱 정보를 수집할 수 있으며, 센싱 정보는 센싱 디바이스(10)에 따라 데이터의 의미, 형식(format; 문자, 숫자, 상태 등), 수치의 범위(range)가 서로 달라질 수 있다.
이미지 가공부(120)는 제어부(140)의 제어에 따라 수집된 데이터(디바이스 정보 및 센싱 정보)를 이미지로 가공하는 모듈이다. 즉, 이미지 가공부(120)는 특정 시점에서 적어도 하나의 센싱 디바이스(10)로부터 수집된 디바이스 정보와 센싱 정보를 이미지 프레임으로 가공할 수 있다. 하나의 이미지 프레임에는 적어도 하나의 센싱값이 포함될 수 있다.
피처 추출부(130)는 이미지 프레임에서 이미지 피처를 추출할 수 있다. 피처 추출부(130)는 이미지 프레임에서 기계 학습의 입력값으로 사용되는 각종 이미지 피처를 추출할 수 있다.
제어부(140)는 추출된 이미지 피처를 입력값으로 하여 각종 데이터를 처리 및 분석할 수 있다.
이하에서는 제어부(140)가 센싱 데이터 수집부(110) 및 이미지 가공부(120)를 제어하여 수집된 데이터를 이미지로 가공하는 방법을 설명하기로 한다.
도 2는 수집된 데이터를 이미지로 가공하는 방법을 설명하는 흐름도이다. 도 3은 수집된 데이터를 이미지로 가공한 일 예를 나타내는 도면이다. 도 4는 수집된 데이터를 이미지로 가공한 다른 예를 나타내는 도면이다. 도 5는 수집된 데이터를 이미지로 가공한 또 다른 예를 나타내는 도면이다.
도 2을 참조하면, 제어부(140)는 초기시점(t0)에 분석할 데이터를 센싱 디바이스(10)로부터 센싱 데이터 수집부(110)를 제어하여 수집한다(S210). 따라서, 분석할 데이터에는 센싱 디바이스(10)에 대응되는 디바이스 정보 및 센싱 정보가 포함될 수 있다.
이미지 가공부(120)는 N*M(N, M은 각각 픽셀의 개수를 의미하며, 1이상의 정수임) 크기의 이미지 버퍼(Image Buffer)를 할당할 수 있다(S220). 즉, 이미지 가공부(120)는 초기 시점(t0)에서 수집된 데이터를 기초로 생성될 이미지 프레임이 저장될 수 있도록 상기 이미지 프레임의 크기에 대응되는 저장 공간을 이미지 가공부(120)에 포함된 메모리에 할당할 수 있다. 여기서, 할당된 저장 공간을 이미지 버퍼라 정의하고, N과 M은 데이터 처리 장치(100)가 연결되어 데이터를 수집하는 센싱 디바이스(10)의 개수, 종류 등에 따라 가변될 수 있고 임의로 설정된 값일 수 있다.
이미지 가공부(120)는 시간 t에서 센싱 디바이스(10)로부터 수집된 데이터(디바이스 정보 및 센싱 정보)를 기초로 이미지 프레임을 생성할 수 있다(S230).
도 3을 참조하면, 센싱 데이터 수집부(110)가 수집한 데이터는 센싱 디바이스(10)의 종류(플러그)에 대한 디바이스 정보 및 센싱 디바이스(10)의 명칭(플러그1), 모델명(SN0002), 설치장소/연결장치(TV), 상태 정보(연결된 상태)에 대한 센싱 정보를 포함한다고 가정한다. 여기서, 센싱 정보에 포함된 명칭, 모델명, 설치장소/연결장치, 상태 정보는 센싱 정보에 포함될 수 있는 정보의 예시에 불과하며, 센싱 디바이스(10)의 종류, 기종 등에 따라 센싱 정보는 다양한 정보를 포함할 수 있다.
이미지 가공부(120)는 N*M 픽셀의 크기를 가지는 이미지 프레임을 생성 및 저장하기 위해 N*M 픽셀의 크기를 갖는 이미지 버퍼(300)를 할당할 수 있다.
이후, 이미지 가공부(120)는 디바이스 정보로부터 센싱 디바이스(10)가 플러그임을 인식할 수 있고, 플러그에 대응하는 아이콘을 이미지 버퍼(300)에 삽입함에 의해 중간 이미지 프레임(310)을 생성할 수 있다. 이미지 가공부(120)는 적어도 1회 이상 연결되었던 센싱 디바이스(10)에 대한 아이콘을 센싱 디바이스(10)의 종류별로 미리 저장할 수 있으며, 이미지 가공부(120)는 현재의 디바이스 정보에 대응하는 아이콘을 미리 저장된 아이콘들로부터 로딩하여 이미지 버퍼(300)에 삽입할 수 있다.
그리고, 이미지 가공부(120)는 센싱 정보로부터 센싱 디바이스(10)의 명칭(플러그1), 모델명(SN0002), 설치장소/연결장치(TV) 및 상태 정보(연결된 상태)를 인식할 수 있고, 각 데이터를 중간 이미지 프레임(310)에 삽입함에 의해 이미지 프레임(320)을 생성할 수 있다. 여기서, 이미지 가공부(120)가 명칭(플러그1), 모델명(SN0002), 설치장소/연결장치(TV) 및 상태 정보(연결)를 인식한다 함은, 통상의 전처리 과정(수치화 및 정규화)을 의미하는 것이 아니며, 단순히 '플러그1', 'SN0002', 'TV', '연결'을 문자(숫자도 포함) 그대로 인식한다는 것을 의미한다.
따라서, 이미지 프레임(320)은 센싱 디바이스(10)의 종류(플러그), 명칭(플러그1), 모델명(SN0002), 설치장소/연결장치(TV) 및 상태 정보(연결)를 그대로 이미지화하여 생성된 것을 의미한다. 센싱 디바이스(10)의 종류, 명칭, 모델명, 설치장소/연결장치 및 상태 정보 등이 이미지 프레임(320)에 삽입되는 위치, 크기 등은 얼마든지 변형될 수 있으며, 본 발명의 범위는 도 3의 방식에 한정되지 않는다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 이미지 프레임(400)은 도 3의 방식으로 생성된 복수 개의 서브 이미지 프레임이 하나의 이미지 프레임으로 구현된 것에 해당한다. 즉, 시간 t에서 데이터 처리 장치(100)는 복수 개의 센싱 디바이스(10)로부터 디바이스 정보와 센싱 정보를 수집할 수 있고, 이미지 가공부(120)는 각 센싱 디바이스(10) 별로 도 3의 방식을 통해 서브 이미지 프레임(410, 420, 430…)을 생성하여 이미지 프레임(400)을 생성할 수 있다. 이때, 도 4에서와 같이 이미지 프레임(400)의 동일한 행에는 동일한 종류의 센싱 디바이스에 해당하는 서브 이미지 프레임이 배치될 수 있으나(달리 말하면, 이미지 프레임(400)의 제1행에는 제1종류에 대응되는 서브 이미지 프레임들이 배치되고, 제2행에는 제2 종류에 대응되는 서브 이미지 프레임들이 배치됨), 본 발명의 범위는 이에 한정되지 않는다.
즉, 도 5의 본 발명의 또 다른 실시예에 따른 이미지 프레임(500)과 같이, 이미지 프레임(500)의 동일한 행에 서로 다른 종류의 센싱 디바이스(전력량계와 가스락, 또는 플러그와 온도 조절기)에 해당하는 서브 이미지 프레임이 배치될 수도 있다.
다시 도 2를 참조하면, 시간 t에 해당하는 이미지 프레임의 생성이 완료되면, 이미지 가공부(120)는 생성된 이미지 프레임을 할당된 이미지 버퍼에 저장할 수 있다(S240).
센싱 데이터 수집부(110)는 초기 시점(t0)으로부터 소정의 타임 구간(예컨대, 1초)이 경과한 뒤 다시 센싱 디바이스(10)로부터 데이터를 수집할 수 있다(S250).
여기서, 수집된 데이터가 있는 경우(S260의 Yes), 제어부(140)는 이미지 버퍼를 할당하고 이미지 프레임을 생성 및 저장하고, 수집 데이터가 없는 경우(S260의 No) 시퀀스를 종료할 수 있다.
도 6은 이미지 프레임을 이용한 이미지 피처의 추출 및 이용 과정을 설명하기 위한 도면이다. 도 7은 도 6에 도시된 CNN의 동작을 보다 상세히 설명하기 위한 도면이다. 도 8은 도 6에 도시된 기계 학습 알고리즘을 보다 상세히 설명하기 위한 도면이다.
도 6을 참조하면, 이미지 가공부(120), 피처 추출부(130) 및 제어부(140)가 수행하는 데이터 처리 과정이 도시되어 있다.
전술한 바와 같이, 이미지 가공부(120)는 제어부(140)의 제어에 따라 센싱 디바이스(10)로부터 수집된 데이터(디바이스 정보 및 센싱 정보)를 이미지 프레임으로 가공할 수 있다(S0).
피처 추출부(130)는 이미지 프레임으로부터 이미지 피처를 추출할 수 있고(S1), 피처 추출부(130)는 도 6에 도시된 바와 같이, CNN(Convolutional Neural Network; 회선 신경망 기술)을 이용해 이미지 피처를 추출할 수 있으나 본 발명의 범위는 이에 한정되지 않는다.
도 7을 참고하여 피처 추출부(130)가 이미지 피처를 추출하는 구체적인 방법을 설명하기로 한다.
피처 추출부(130)는 소정 시간(t1 내지 t4)에 생성된 이미지 프레임들(IF_t1~IF_t4)을 제1 컨볼루션(Convolution) 과정(예컨대, 5x5 convolution), 제1 서브 샘플링(SubSampling) 과정(예컨대, 2x2 subsampling), 제2 컨볼루션 과정(예컨대, 5x5 convolution), 제2 서브 샘플링 과정(예컨대, 2x2 subsampling)을 통해 이미지 피처 정보를 추출할 수 있다. 여기서, 소정 시간 내에 생성된 이미지 프레임들(IF_t1~IF_t4)이 피처 추출부(130)에 동시에 입력되는 것은 일 예에 불과하며, 하나의 이미지 프레임씩 또는 2 이상의 이미지 프레임씩 동시에 입력될 수도 있다.
컨볼루션 과정은 컨볼루션 피처를 이용하여 의미있는 자질을 입력된 이미지 프레임으로부터 추출할 수 있다. 서브 샘플링 과정은 이미지의 특성상 픽셀이 다수 존재하므로 피처를 줄이기위해 수행하는 과정이다(예컨대, max-pooling). 이는, 이미지 프레임으로부터 한 단계 더 높은 추상화된 정보를 추출한 다음, 추상화된 정보로부터 가장 중요한 정보 만을 남기도록 압축 또는 요약하는 과정이 반복되는 구조이다.
다음으로, 도 8을 참고하여 제어부(140)가 수행하는 기계 학습 알고리즘을 보다 상세히 설명하기로 한다.
이미지 가공부(120)는 소정 시간(t1 내지 tn; n은 1이상의 정수)에 생성된 이미지 프레임(IF_t1~IF_tn)을 생성하고, 피처 추출부(130)는 이미지 프레임(IF_t1~IF_tn)을 입력으로 하여 각 시점에 대응하는 이미지 피처(또는 feature vector)를 출력할 수 있다.
제어부(140)는 각 시점에서의 이미지 피처를 기계 학습 알고리즘의 입력 패러미터로 설정하여 기계 학습을 수행할 수 있는데(S2), 예컨대, RNN(Recurrent Neural Network) 알고리즘이 이용될 수 있다.
RNN 알고리즘은 순차적인 시점에 대응하는 이미지 피처를 분석 및 처리하는데 효과적이며, 동시에 입력되는 이미지 프레임의 수는 임의로 설정될 수 있다. RNN 알고리즘의 동작은 당업자에게 알려진 사항이므로, 구체적인 설명은 생략하기로 한다.
제어부(140)는 RNN 알고리즘을 통해 이미지 프레임(IF_t1~IF_tn) 각각에 포함된 정보를 추출할 수 있다.
예를 들어, 제어부(140)는 도 3에 도시된 이미지 프레임(320)으로부터 센싱 디바이스(10)의 종류(플러그), 명칭(플러그1), 모델명(SN0002), 설치장소/연결장치(TV) 및 상태 정보(연결)를 인식할 수 있다.
이때, 제어부(140)는 센싱 디바이스(10)의 종류가 플러그이고, 명칭이 플러그 1이며, 모델명이 SN0002이고, 설치장소/연결장치가 TV이며, 상태가 연결된 상태라는 것을 비로소 인식할 수 있다.
또한, 제어부(140)는 도 4에 도시된 이미지 프레임(400)으로부터 복수의 센싱 디바이스(10) 각각에 대응하는 센싱 디바이스(10)의 종류, 명칭, 모델명, 설치장소/연결장치 및 상태 정보를 인식할 수 있다.
아울러, 도 8에 도시된 이미지 프레임들(IF_t1~IF_tn)이 도 5에 도시된 이미지 프레임(500)과 같이 전력량계로부터 수집된 데이터에 기초하여 생성된 이미지 프레임일 경우, 제어부(140)는 각 시점에서의 전력 사용량(150kWh, 151kWh, … , 200kWh)을 인식할 수 있다.
그리고, 제어부(140)에 의해 인식된 데이터의 검증을 통해, CNN과 RNN에 이용되는 학습 파라미터는 최적화될 수 있도록 조정될 수 있다.
데이터 처리 장치(100)에 의해 수행되는 동작 중에서 제어부(140)에 의한 기계 학습 이전의 동작들 즉, 이미지 가공부(120)에 의해 수행되는 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 동작, 상기 이미지 프레임으로부터 이미지 피처를 추출하는 동작, 및 기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터로 설정하는 동작은 데이터 전처리 방법을 구성할 수 있다.
실시예에 따라, 제어부(140)가 수행하는 기계 학습은 외부에 구현되는 독립적인 장치에 의해 수행될 수 있으며, 이 경우 데이터 처리 장치(100)는 데이터 전처리 방법 만을 수행하는 데이터 전처리 장치로 정의될 수 있다. 여기서, 데이터 처리 장치(100)에 의한 데이터 전처리 방법은 통상적인 데이터 전처리 과정(수치화, 정규화 등)을 의미하는 것이 아니며, 이러한 데이터 전처리 과정 없이 데이터를 이미지화하고 이미지 인식을 통해 기계 학습에 이용되는 입력 패러미터를 추출하는 것을 의미한다.
따라서, 본 발명의 일 실시예에 따른 데이터 처리 방법 및 데이터 처리 장치에 의하면, 기계 학습 알고리즘을 수행하기 위해 각 센싱 디바이스로부터 수집된 개별 데이터를 전처리(수치화, 정규화 등)하지 않고, 개별 데이터를 이미지화하고 이미지화된 데이터를 CNN을 통해 이미지 피처를 추출함으로써 개별 데이터의 전처리에 소요되는 시간 및 불필요한 연산을 최소화할 수 있다.
상기와 같이 설명된 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
또한, 상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Claims (10)
- 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 단계;
상기 이미지 프레임으로부터 이미지 피처(Feature)를 추출하는 단계; 및
기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터(Parameter)로 설정하는 단계;를 포함하는 데이터 전처리 방법. - 제1항에 있어서,
상기 적어도 하나의 센싱 디바이스로부터 수집된 데이터는, 디바이스 정보와 센싱 정보 중 적어도 하나를 포함하고,
상기 이미지 프레임을 생성하는 단계는,
N*M(N과 M은 1이상의 정수) 픽셀의 크기를 가지는 상기 이미지 프레임을 생성 및 저장하기 위해 N*M 픽셀의 크기를 갖는 이미지 버퍼를 할당하는 단계;
상기 디바이스 정보와 상기 센싱 정보 중 적어도 하나로부터 상기 센싱 디바이스에 대한 이미지 프레임을 가공하는 단계; 및
상기 가공된 이미지 프레임을 상기 할당된 이미지 버퍼에 저장하는 단계;를 포함하는 데이터 전처리 방법. - 제2항에 있어서,
상기 이미지 프레임을 가공하는 단계는,
상기 디바이스 정보에 따른 상기 센싱 디바이스에 대응하는 아이콘 및 상기 센싱 정보에 따른 문자를 이미지로 생성하는 단계를 포함하는 데이터 전처리 방법. - 제1항에 있어서,
상기 이미지 프레임은, 상기 이미지 프레임의 제1행에 배치되는 제1 종류의 센싱 디바이스에 대응되는 서브 이미지 프레임과, 상기 이미지 프레임의 제2행에 배치되는 제2 종류의 센싱 디바이스에 대응되는 서브 이미지 프레임을 포함하는 데이터 전처리 방법. - 제1항에 있어서,
상기 이미지 피처를 추출하는 단계는, 상기 이미지 프레임을 CNN(Convolutional Neural Network)의 입력으로 하여 이미지 피처를 생성하는 단계를 포함하고,
상기 기계 학습은, RNN(Recurrent Neural Network) 알고리즘을 적용하여 수행되는 데이터 전처리 방법. - 적어도 하나의 센싱 디바이스로부터 수집된 데이터를 기초로 이미지 프레임을 생성하는 이미지 가공부;
상기 이미지 프레임으로부터 이미지 피처(Feature)를 추출하는 피처 추출부; 및
기계 학습을 수행하기 위해 상기 이미지 피처를 소정의 기계 학습 알고리즘의 입력 패러미터(Parameter)로 설정하는 제어부;를 포함하는 데이터 전처리 장치. - 제6항에 있어서,
상기 적어도 하나의 센싱 디바이스로부터 수집된 데이터는, 디바이스 정보와 센싱 정보 중 적어도 하나를 포함하고,
상기 이미지 가공부는,
N*M(N과 M은 1이상의 정수) 픽셀의 크기를 가지는 상기 이미지 프레임을 생성 및 저장하기 위해 N*M 픽셀의 크기를 갖는 이미지 버퍼를 할당하고,
상기 디바이스 정보와 상기 센싱 정보 중 적어도 하나로부터 상기 센싱 디바이스에 대한 이미지 프레임을 가공하고,
상기 가공된 이미지 프레임을 상기 할당된 이미지 버퍼에 저장하는 데이터 전처리 장치. - 제7항에 있어서,
상기 이미지 가공부는,
상기 디바이스 정보에 따른 상기 센싱 디바이스에 대응하는 아이콘 및 상기 센싱 정보에 따른 문자를 이미지로 생성하는 데이터 전처리 장치. - 제6항에 있어서,
상기 이미지 프레임은, 상기 이미지 프레임의 제1행에 배치되는 제1 종류의 센싱 디바이스에 대응되는 서브 이미지 프레임과, 상기 이미지 프레임의 제2행에 배치되는 제2 종류의 센싱 디바이스에 대응되는 서브 이미지 프레임을 포함하는 데이터 전처리 장치. - 제6항에 있어서,
상기 피처 추출부는, 상기 이미지 프레임을 CNN(Convolutional Neural Network)의 입력으로 하여 이미지 피처를 생성하고,
상기 기계 학습은, RNN(Recurrent Neural Network) 알고리즘을 적용하여 수행되는 데이터 전처리 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160137749A KR20180044094A (ko) | 2016-10-21 | 2016-10-21 | 데이터 전처리 방법 및 데이터 전처리 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160137749A KR20180044094A (ko) | 2016-10-21 | 2016-10-21 | 데이터 전처리 방법 및 데이터 전처리 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180044094A true KR20180044094A (ko) | 2018-05-02 |
Family
ID=62183760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160137749A KR20180044094A (ko) | 2016-10-21 | 2016-10-21 | 데이터 전처리 방법 및 데이터 전처리 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180044094A (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11941871B2 (en) | 2021-07-30 | 2024-03-26 | Deepx Co., Ltd. | Control method of image signal processor and control device for performing the same |
-
2016
- 2016-10-21 KR KR1020160137749A patent/KR20180044094A/ko not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11941871B2 (en) | 2021-07-30 | 2024-03-26 | Deepx Co., Ltd. | Control method of image signal processor and control device for performing the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977530B2 (en) | ThunderNet: a turbo unified network for real-time semantic segmentation | |
WO2021093468A1 (zh) | 视频分类方法、模型训练方法、装置、设备及存储介质 | |
CN110851835B (zh) | 图像模型检测方法、装置、电子设备及存储介质 | |
CN105740707B (zh) | 恶意文件的识别方法和装置 | |
CN112232293A (zh) | 图像处理模型训练、图像处理方法及相关设备 | |
CN111667001B (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
KR20200145827A (ko) | 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체 | |
CN107392189B (zh) | 用于确定无人车的驾驶行为的方法和装置 | |
CN108875482B (zh) | 物体检测方法和装置、神经网络训练方法和装置 | |
CN110738103A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
CN112580660B (zh) | 图像处理方法、装置、计算机设备和可读存储介质 | |
CN111226226A (zh) | 基于运动的对象检测方法及其对象检测装置和电子设备 | |
CN116797533B (zh) | 电源适配器的外观缺陷检测方法及其系统 | |
CN113642639A (zh) | 活体检测方法、装置、设备和存储介质 | |
CN112784781A (zh) | 基于差异感知元学习的伪造人脸检测方法和装置 | |
CN110533184B (zh) | 一种网络模型的训练方法及装置 | |
CN108875500A (zh) | 行人再识别方法、装置、系统及存储介质 | |
US20220067495A1 (en) | Intelligent processor, data processing method and storage medium | |
KR20180044094A (ko) | 데이터 전처리 방법 및 데이터 전처리 장치 | |
KR102290857B1 (ko) | 채널상태정보를 이용한 인공지능 기반의 스마트 사용자 검출 방법 및 장치 | |
CN112988337A (zh) | 任务处理系统、方法、装置、电子设备、存储介质 | |
KR20190056873A (ko) | 다중 신경망을 활용한 객체 검출 장치 및 그 방법과, 객체 검출 학습 방법 | |
KR102707696B1 (ko) | 경량화된 자세 추정 모델 제공 장치 및 방법 | |
KR102343348B1 (ko) | 적외선 영상 데이터 획득 방법, 적외선 영상 데이터 획득 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램 | |
CN110795993A (zh) | 一种构建模型的方法、装置、终端设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |