KR20240060988A - Pre-processing Method of Time Series Data for AI Learning - Google Patents

Pre-processing Method of Time Series Data for AI Learning Download PDF

Info

Publication number
KR20240060988A
KR20240060988A KR1020220142136A KR20220142136A KR20240060988A KR 20240060988 A KR20240060988 A KR 20240060988A KR 1020220142136 A KR1020220142136 A KR 1020220142136A KR 20220142136 A KR20220142136 A KR 20220142136A KR 20240060988 A KR20240060988 A KR 20240060988A
Authority
KR
South Korea
Prior art keywords
data
time series
series data
present
stride
Prior art date
Application number
KR1020220142136A
Other languages
Korean (ko)
Inventor
김욱
Original Assignee
주식회사 뉴로다임
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뉴로다임 filed Critical 주식회사 뉴로다임
Priority to KR1020220142136A priority Critical patent/KR20240060988A/en
Publication of KR20240060988A publication Critical patent/KR20240060988A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0626Reducing size or complexity of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1041Resource optimization
    • G06F2212/1044Space efficiency improvement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 인공지능학습용 타임시리즈데이터 전처리방법에 관한 것으로 본 발명에 따르면, 컴퓨팅장치가 R개의 행과 C개의 열로 구성되는 R×C 행렬을 갖는 기본데이터를 입력받는 입력단계; 및 입력단계에서 입력된 기본데이터를 이용하여 기본데이터를 표현하는 표현데이터를 별도로 산출하는 산출단계;를 포함하되, 산출단계에서 산출되는 표현데이터는 (R, C, S)이고, 스트라이드 S는 (RB, SB)로 산출되므로 실제데이터는 그대로 두고 별도의 정보를 이용하여 데이터를 표현하므로 소요되는 메모리 용량을 감축시킬 수 있는 기술이 개시된다. The present invention relates to a time series data preprocessing method for artificial intelligence learning. According to the present invention, an input step in which a computing device receives basic data having an R × C matrix consisting of R rows and C columns; And a calculation step of separately calculating expression data representing the basic data using the basic data input in the input step; wherein the expression data calculated in the calculation step is (R, C, S), and the stride S is ( RB, SB), a technology is disclosed that can reduce the required memory capacity by expressing the data using separate information while leaving the actual data as is.

Description

인공지능학습용 타임시리즈데이터 전처리방법{Pre-processing Method of Time Series Data for AI Learning}{Pre-processing Method of Time Series Data for AI Learning}

본 발명은 추가 리소스 또는 메모리를 최소화할 수 있는 타임시리즈 데이터 전처리방법에 관한 것이다.The present invention relates to a time series data preprocessing method that can minimize additional resources or memory.

일반적으로 타임시리즈데이터는 엑셀형식의 2차원 테이블데이터로서 첫열은 시간정보이고 나머지 열은 그 시간에서의 어떤 정보를 나타낸다. In general, time series data is two-dimensional table data in Excel format, where the first column is time information and the remaining columns represent certain information at that time.

이러한 타임시리즈데이터를 사용하는 일반적인 방법은 계속되는 N개(N: 정수)의 데이터를 통해 그 다음의 데이터를 예측하는 것이다. A common way to use such time series data is to predict the next data through N consecutive pieces of data (N: integer).

여기서 그 다음의 데이터를 예측하기 위해서 기본데이터 또는 원시데이터의 구조를 변환하게 된다. 타임시리즈데이터를 변환하게 되는 경우 변환된 타임시리즈데이터의 크기는 기본데이터의 크기 및 변환 파라미터에 따라서 수배 내지 수십배 이상의 크기로 증가된다. 따라서 변환된 타임시리즈데이터를 저장하기 위해 필요한 메모리의 크기는 기본데이터의 수배 내지 수십배 이상의 메모리가 필요하게 된다.Here, the structure of the basic data or raw data is converted to predict the next data. When time series data is converted, the size of the converted time series data increases by several to tens of times or more depending on the size of the basic data and conversion parameters. Therefore, the size of memory required to store the converted time series data is several to tens of times larger than the basic data.

변환된 타임시리즈데이터의 크기가 예상보다 더 크게 변환되는 경우 한정된 메모리 공간에 다 저장되지 못하는 문제가 발생하게 된다.If the size of the converted time series data is converted to a larger size than expected, a problem occurs in which it cannot be stored in limited memory space.

따라서, 한정된 메모리의 크기를 감안하여 소요되는 메모리양을 감축시킬 수 있는 처리기술이 요망된다.Therefore, a processing technology that can reduce the amount of memory required considering the limited size of memory is desired.

대한민국 공개특허공보 제10-2021-0130964호Republic of Korea Patent Publication No. 10-2021-0130964

본 발명의 목적은 상기한 바와 같은 종래의 문제점을 해결하기 위한 것으로, 인공지능학습용 타임시리즈데이터 전처리방법을 제공함에 있다.The purpose of the present invention is to solve the conventional problems described above and to provide a time series data preprocessing method for artificial intelligence learning.

상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈전처리방법은 컴퓨팅장치가 R개의 행과 C개의 열로 구성되는 R×C 행렬을 갖는 기본데이터를 입력받는 입력단계 및 상기 입력단계에서 입력된 기본데이터를 이용하여 상기 기본데이터를 표현하는 표현데이터를 별도로 산출하는 산출단계;를 포함하되, 상기 산출단계에서 산출되는 상기 표현데이터는 (R, C, S(스트라이드(Stride))) 이고, 상기 스트라이드 S는 (RB, SB)로 산출되는 것을 하나의 특징으로 할 수도 있다. (R, C : 양의 정수, S=(RB, SB)=(하나의 행의 바이트수, 하나의 열의 바이트수))The time series preprocessing method for artificial intelligence learning according to an embodiment of the present invention to achieve the above object includes an input step in which a computing device receives basic data having an R × C matrix consisting of R rows and C columns, and the above A calculation step of separately calculating expression data representing the basic data using the basic data input in the input step, wherein the expression data calculated in the calculation step is (R, C, S (Stride) )), and the stride S may be calculated as (RB, SB). (R, C: positive integer, S=(RB, SB)=(number of bytes in one row, number of bytes in one column))

본 발명에 따른 인공지능학습용 타임시리즈데이터 전처리방법은, 실제데이터는 그대로 두고 별도의 정보를 이용하여 데이터를 표현하므로 소요되는 메모리 용량을 감축시킬 수 있는 효과가 있다.The time series data preprocessing method for artificial intelligence learning according to the present invention has the effect of reducing the required memory capacity by expressing data using separate information while leaving the actual data as is.

도 1은 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법을 설명하기 위하여 타임시리즈 데이터의 일반적인 형식을 개략적으로 나타낸 차트도면이다.
도 2는 본 발명의 실시 예에 따른 전인공지능학습용 타임시리즈데이터 전처리방법을 설명하기 위하여 타임시리즈데이터를 행렬적 형태로 개략적으로 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법에 의해 산출되는 데이터를 개략적으로 나타낸 개념도이다.
Figure 1 is a chart diagram schematically showing the general format of time series data to explain the preprocessing method of time series data for artificial intelligence learning according to an embodiment of the present invention.
Figure 2 is a diagram schematically showing time series data in matrix form to explain the preprocessing method of time series data for artificial intelligence learning according to an embodiment of the present invention.
Figure 3 is a conceptual diagram schematically showing data calculated by the time series data preprocessing method for artificial intelligence learning according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고, 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 실시 예들은 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 상세하게 설명하기 위해서 제공되는 것이다. 따라서 도면에 나타난 각 요소의 형상은 보다 분명한 설명을 강조하기 위하여 과장될 수 있으며, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략할 수 있다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention. These embodiments are provided to explain the present invention in more detail to those skilled in the art. Therefore, the shape of each element shown in the drawings may be exaggerated to emphasize a clearer description, and in explaining the present invention, if it is determined that a detailed description of related known technology may obscure the gist of the present invention, the detailed description can be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 설명하고 이해하는 목적으로 사용된다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. Terms are used for the purpose of explaining and understanding one component by distinguishing it from other components.

본 발명에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions, unless the context clearly dictates otherwise.

본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present invention, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예에 대하여 첨부한 도면을 참고로 하여 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 사용할 수도 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. The same reference numerals may be used for similar parts throughout the specification.

이하 도면을 참조하여 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법에 대하여 설명하기로 한다. Hereinafter, a time series data preprocessing method for artificial intelligence learning according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법을 설명하기 위하여 타임시리즈 데이터의 일반적인 형식을 개략적으로 나타낸 차트도면이고, 도 2는 본 발명의 실시 예에 따른 전인공지능학습용 타임시리즈데이터 전처리방법을 설명하기 위하여 타임시리즈데이터를 행렬적 형태로 개략적으로 나타낸 도면이며, 도 3은 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법에 의해 산출되는 데이터를 개략적으로 나타낸 개념도이다.Figure 1 is a chart diagram schematically showing the general format of time series data to explain the preprocessing method for time series data for artificial intelligence learning according to an embodiment of the present invention, and Figure 2 is a chart diagram schematically showing the general format of time series data for artificial intelligence learning according to an embodiment of the present invention. In order to explain the time series data preprocessing method, it is a diagram schematically showing time series data in matrix form, and Figure 3 schematically shows the data calculated by the time series data preprocessing method for artificial intelligence learning according to an embodiment of the present invention. It is a concept diagram.

도 1 내지 도 3을 참조하면, 본 발명의 실시 예에 따른 인공지능학습용 타임시리즈데이터 전처리방법은 입력단계 및 산출단계를 포함한다. 여기서 입력단계는 컴퓨팅장치가 R개의 행과 C개의 열로 구성되는 R×C 행렬을 갖는 기본데이터를 입력받는 단계이다. 여기서 R과 C는 양의 정수이다.Referring to Figures 1 to 3, the time series data preprocessing method for artificial intelligence learning according to an embodiment of the present invention includes an input step and a calculation step. Here, the input step is a step where the computing device receives basic data having an R × C matrix consisting of R rows and C columns. Here R and C are positive integers.

그리고 산출단계는 상기 입력단계에서 입력된 기본데이터를 이용하여 상기 기본데이터를 표현하는 표현데이터를 별도로 산출하는 단계이다.And the calculation step is a step of separately calculating expression data representing the basic data using the basic data input in the input step.

여기서, 산출단계에서 산출되는 상기 표현데이터는 (R, C, S(스트라이드(Stride))) 이고, 상기 스트라이드 S는 (RB, SB)로 산출되는 것이다.Here, the expression data calculated in the calculation step is (R, C, S (Stride)), and the stride S is calculated as (RB, SB).

(R, C : 양의 정수, S=(RB, SB)=(하나의 행의 바이트수, 하나의 열의 바이트수))(R, C: positive integer, S=(RB, SB)=(number of bytes in one row, number of bytes in one column))

추가리소스 즉 추가메모리를 최소화하는 효율적인 타임시리즈데이터 전처리방법에서 타임시리즈데이터의 일반적인 형식은 엑셀 형식의 2차원 테이블데이타이다. 첫 열은 시간정보이고, 나머지 열은 그 시간에서의 정보를 나타낸다.In an efficient time series data preprocessing method that minimizes additional resources, that is, additional memory, the common format of time series data is two-dimensional table data in Excel format. The first column is time information, and the remaining columns represent information at that time.

도 1에서, 첫 열 이외의 나머지 열인 정보열은 6개 이지만, 실제에서 정보열은 1개 이상이면 충분하다.In Figure 1, there are six information columns other than the first column, but in reality, one or more information columns are sufficient.

타임시리즈데이터를 사용하는 일반적인 방법은 계속되는 N개의 데이터로 그 다음을 예측하는 것인데, 예를 들면 도 1에서, 이전에 5개 데이터를 이용하여 그 다음의 온도를 예측하는 것이다.A common way to use time series data is to predict the next temperature using N consecutive pieces of data. For example, in Figure 1, the next temperature is predicted using the previous 5 pieces of data.

이를 위해서 기본데이터의 구조를 변환해야 한다.To achieve this, the structure of the basic data must be converted.

예를 들어, 도 2에서 참조되는 바와 같이, 100개의 타임시리즈데이터가 있고, 윈도우(Window)=5, 스트라이드(Stride)=1 로 데이터변환을 하면 96X5 의 약 5배 크기의 새로운 데이터가 만들어진다. For example, as shown in FIG. 2, there are 100 time series data, and when the data is converted with Window = 5 and Stride = 1, new data about 5 times the size of 96X5 are created.

예를 들어 100X6의타임시리즈데이터가 있고, 윈도우=5, 스트라이드=1로 데이터변환을 하면 96X5X6 약 5배 크기의 새로운 데이터가 만들어진다.For example, if there is time series data of 100X6 and the data is converted with window = 5 and stride = 1, new data about 5 times the size of 96

만약 100X6의 같은 크기의 타임시리즈데이터로 윈도우=50, 스트라이드=1 로 데이터 변환을 하면 51X50X6 약 25배 크기의 새로운 데이터가 만들어 진다.If the data is converted to time series data of the same size of 100X6 with window = 50 and stride = 1, new data about 25 times the size of 51X50X6 are created.

이와 같이 타임시리즈데이터를 변환하면, 데이터의 크기 및 변환파라미터에 따라서 원본데이터의 수배에서 많게는 수십배 이상의 메모리가 필요하게 된다.When time series data is converted in this way, memory is required from several times to tens of times more than the original data, depending on the data size and conversion parameters.

위의 예에서처럼 작은 크기의 데이터에서는 별 무리가 없지만, 예를 들어 워시데이터가 1기가바이트 라면 변환데이터의 크기는 메인메모리가 감당할 수 없는 정도의 크기로 불어날 수 있다.As in the example above, there is no problem with small-sized data, but for example, if the wash data is 1 gigabyte, the size of the converted data may increase to a size that the main memory cannot handle.

이를 해결하기 위해서는 실제데이터는 그대로 놔두고 별도의 정보를 이용하여 데이터를 표현해야 한다.To solve this problem, the actual data must be left as is and the data must be expressed using separate information.

예를 들어 도면을 참조하면, 4바이트(byte)짜리 100개의 메모리는 하나만 마련하고, 실제 데이터를 표현하는 정보만을 갖게 한다면, 1x100 어레이는 행(row)=1, 열(column)=100, 스트라이드(stride)=(행의 바이트수, 하나의 열의 바이트수)= (100X4, 4)=(400,4) 로 표현할 수 있다.For example, referring to the drawing, if only one memory of 100 4 bytes is provided and only information representing actual data is provided, a 1x100 array has row = 1, column = 100, stride It can be expressed as (stride)=(number of bytes in a row, number of bytes in one column)= (100X4, 4)=(400,4).

96x5 어레이는 행=96, 열=5, 스트라이드=(하나의 행의 바이트수, 하나의 열의 바이트수)=(5X4, 4)=(20,4)로 표현 할 수 있다.A 96x5 array can be expressed as row = 96, column = 5, stride = (number of bytes in one row, number of bytes in one column) = (5X4, 4) = (20,4).

두 번째 예처럼, 기초데이터가 2차원이라면 3차원의 타임시리즈데이터가 생성되는데 이것은 다음과 같이 표현할 수 있다.As in the second example, if the basic data is two-dimensional, three-dimensional time series data is generated, which can be expressed as follows.

쉐이프(shape)=(96, 5, 6), 스트라이드(strides)=(24, 24, 4)shape=(96, 5, 6), strides=(24, 24, 4)

이상에서 설명한 바와 같이, 본 발명에 따른 인공지능학습용 타임시리즈데이터 전처리방법은, 실제데이터는 그대로 두고 별도의 정보를 이용하여 데이터를 표현하므로 소요되는 메모리 용량을 감축시켜줄 수 있는 장점이 있다.As described above, the time series data preprocessing method for artificial intelligence learning according to the present invention has the advantage of reducing the required memory capacity by expressing data using separate information while leaving the actual data as is.

이상에서 설명된 바와 같이, 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시 예들에 의해서 이루어졌지만, 상술한 실시 예들은 본 발명의 바람직한 실시 예를 들어 설명하였을 뿐이기 때문에, 본 발명이 상기의 실시 예에만 국한되는 것으로 이해되어져서는 아니되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 등가개념으로 이해되어져야 할 것이다. As described above, the specific description of the present invention has been made by way of examples with reference to the accompanying drawings, but since the above-described embodiments are only explained by referring to preferred embodiments of the present invention, the present invention is not limited to the above. It should not be understood as being limited to the embodiments only, and the scope of the present invention should be understood in terms of the claims and equivalent concepts described later.

Claims (1)

컴퓨팅장치가 R개의 행과 C개의 열로 구성되는 R×C 행렬을 갖는 기본데이터를 입력받는 입력단계 및
상기 입력단계에서 입력된 기본데이터를 이용하여 상기 기본데이터를 표현하는 표현데이터를 별도로 산출하는 산출단계;를 포함하되,
상기 산출단계에서 산출되는 상기 표현데이터는 (R, C, S(스트라이드(Stride))) 이고,
상기 스트라이드 S는 (RB, SB)로 산출되는 것을 특징으로 하는 인공지능학습용 타임시리즈데이터 전처리방법.
(R, C : 양의 정수, S=(RB, SB)=(하나의 행의 바이트수, 하나의 열의 바이트수))
An input step where the computing device receives basic data having an R × C matrix consisting of R rows and C columns, and
A calculation step of separately calculating expression data representing the basic data using the basic data input in the input step,
The expression data calculated in the calculation step is (R, C, S (Stride)),
A time series data preprocessing method for artificial intelligence learning, wherein the stride S is calculated as (RB, SB).
(R, C: positive integer, S=(RB, SB)=(number of bytes in one row, number of bytes in one column))
KR1020220142136A 2022-10-31 2022-10-31 Pre-processing Method of Time Series Data for AI Learning KR20240060988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142136A KR20240060988A (en) 2022-10-31 2022-10-31 Pre-processing Method of Time Series Data for AI Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220142136A KR20240060988A (en) 2022-10-31 2022-10-31 Pre-processing Method of Time Series Data for AI Learning

Publications (1)

Publication Number Publication Date
KR20240060988A true KR20240060988A (en) 2024-05-08

Family

ID=91074424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220142136A KR20240060988A (en) 2022-10-31 2022-10-31 Pre-processing Method of Time Series Data for AI Learning

Country Status (1)

Country Link
KR (1) KR20240060988A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210130964A (en) 2020-04-23 2021-11-02 인하대학교 산학협력단 A deep learning based prediction system with time series decomposition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210130964A (en) 2020-04-23 2021-11-02 인하대학교 산학협력단 A deep learning based prediction system with time series decomposition

Similar Documents

Publication Publication Date Title
CN112840356B (en) Operation accelerator, processing method and related equipment
CN110678840B (en) Tensor register file
CN110678841B (en) Tensor processor instruction set architecture
US20190130265A1 (en) Method and apparatus for performing operations in convolutional neural network
US4287566A (en) Array processor with parallel operations per instruction
CN103988212A (en) Methods and systems for routing in state machine
CN109993293B (en) Deep learning accelerator suitable for heap hourglass network
CN103999035A (en) Methods and systems for data analysis in a state machine
US9240237B2 (en) Semiconductor device and method of writing/reading entry address into/from semiconductor device
CN111915001A (en) Convolution calculation engine, artificial intelligence chip and data processing method
US3325785A (en) Efficient utilization of control storage and access controls therefor
EP4227886A1 (en) Matrix operation method and apparatus for image data, device, and storage medium
JP6955598B2 (en) Parallel extraction method of image data in multiple convolution windows, devices, equipment and computer readable storage media
US11907681B2 (en) Semiconductor device and method of controlling the semiconductor device
KR20240060988A (en) Pre-processing Method of Time Series Data for AI Learning
US3976980A (en) Data reordering system
JP7129857B2 (en) Product-sum operation device, product-sum operation method, and system
US20220179923A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN113055027B (en) Variable bit width LDPC encoding method, encoder, SSD and storage medium
JP6780181B2 (en) Database and information processing system
CN111475304B (en) Feature extraction acceleration method and system
JP2021051448A (en) Information processing device, sparse matrix storage method and program
US10754920B2 (en) Arithmetic processing device
CN112712167A (en) Memory access method and system supporting acceleration of multiple convolutional neural networks
CN111831207A (en) Data processing method, device and equipment