KR102592089B1 - Moving Frame Detecting Method, Device and Computer Program Thereof - Google Patents

Moving Frame Detecting Method, Device and Computer Program Thereof Download PDF

Info

Publication number
KR102592089B1
KR102592089B1 KR1020210078246A KR20210078246A KR102592089B1 KR 102592089 B1 KR102592089 B1 KR 102592089B1 KR 1020210078246 A KR1020210078246 A KR 1020210078246A KR 20210078246 A KR20210078246 A KR 20210078246A KR 102592089 B1 KR102592089 B1 KR 102592089B1
Authority
KR
South Korea
Prior art keywords
frame
motion
frames
ratio information
intra mode
Prior art date
Application number
KR1020210078246A
Other languages
Korean (ko)
Other versions
KR20220157832A (en
Inventor
장의선
가경
동천우
김규태
김동기
Original Assignee
주식회사 핀텔
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 핀텔, 한양대학교 산학협력단 filed Critical 주식회사 핀텔
Publication of KR20220157832A publication Critical patent/KR20220157832A/en
Application granted granted Critical
Publication of KR102592089B1 publication Critical patent/KR102592089B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 움직임이 존재하는 프레임의 검출방법에 관한 것으로서, 더욱 상세하게는 영상 디코딩 과정에서 도출되는 파라미터값에 기초하여 예비적으로 해당 프레임이 움직임이 존재하는 프레임인지 여부를 검출하여, 이를 영상분석에 참조함으로써, 보다 객체인식, 추적 등의 분석을 더욱 고속화할 수 있는 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method for detecting a frame in which motion exists, and more specifically, to preliminary detect whether the frame in question is a frame in which motion exists based on parameter values derived from the video decoding process and analyze the image. By referring to , it relates to an object area detection method, device, and computer program for the same that can further speed up analysis such as object recognition and tracking.

Description

움직임이 존재하는 프레임의 검출방법 {Moving Frame Detecting Method, Device and Computer Program Thereof}Method for detecting frames with movement {Moving Frame Detecting Method, Device and Computer Program Thereof}

본 발명은 움직임이 존재하는 프레임의 검출방법에 관한 것으로서, 더욱 상세하게는 영상 디코딩 과정에서 도출되는 파라미터값에 기초하여 예비적으로 해당 프레임이 움직임이 존재하는 프레임인지 여부를 검출하여, 이를 영상분석에 참조함으로써, 보다 객체인식, 추적 등의 분석을 더욱 고속화할 수 있는 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method for detecting a frame in which motion exists, and more specifically, to preliminary detect whether the frame in question is a frame in which motion exists based on parameter values derived from the video decoding process and analyze the image. By referring to , it relates to an object area detection method, device, and computer program for the same that can further speed up analysis such as object recognition and tracking.

최근 들어, 스마트 폰, CCTV, 블랙박스, 고화질 카메라 등으로부터 수집되는 영상 데이터가 급격히 증가되고 있다. 이에 따라, 비정형의 영상 데이터들을 기반으로 인물이나 사물 등을 인식하여 의미 있는 정보를 추출하고 내용을 시각적으로 분석하고 활용하기 위한 요구 사항이 증대되고 있다.Recently, video data collected from smartphones, CCTV, black boxes, high-definition cameras, etc. has been rapidly increasing. Accordingly, the requirements for recognizing people or objects based on unstructured image data, extracting meaningful information, and visually analyzing and utilizing the content are increasing.

영상 데이터 분석 기술은 이러한 다양한 영상들에 대해 학습 및 분석을 수행하여 원하는 영상을 검색하거나 이벤트 발생 등의 상황 인식을 위한 제반기술들을 말한다.Video data analysis technology refers to various technologies for searching for desired images or recognizing situations such as event occurrence by learning and analyzing various images.

하지만, 영상 데이터를 인식하여 분석하고 추적하는 기술은 상당한 계산량을 요구하는 알고리즘이기 때문에, 즉, 복잡도가 높아서 영상 데이터의 크기가 커질수록 연산 장치에 상당한 부하를 주게 된다. 이에 따라, 크기가 커진 영상데이터를 분석하는 시간이 점점 오래 걸리게 된다. 따라서, 영상 정보 분석 시간을 줄일 수 있는 방법이 꾸준히 요구되고 있는 실정이다.However, since the technology to recognize, analyze, and track image data is an algorithm that requires a significant amount of calculation, that is, the complexity is high, so as the size of the image data increases, a significant load is placed on the computing device. Accordingly, it takes increasingly longer time to analyze image data that has become larger in size. Therefore, there is a constant need for a method to reduce image information analysis time.

한편, 최근 몇 년 사이 테러 등으로 인해 보안에 대한 인식이 강화되면서 영상 보안 시장이 지속적으로 성장하고 있으며, 이에 따라, 지능형 영상 처리에 대한 요구도 증가하고 있는 추세에 있다.Meanwhile, in recent years, as awareness of security has strengthened due to terrorism, etc., the video security market has continued to grow, and accordingly, the demand for intelligent video processing is also increasing.

최근 H.265(HEVC) 등의 규약에 따른 블록 기반의 비디오 코덱을 기반으로 높은 해상도의 영상을 효율적으로 압축하여 전송하고 확인할 수 있는 기술이 확산되었다. 이와 같은 고해상도 영상은 CCTV 등의 모니터링 영상에도 적용이 되고 있으나, 이와 같은 고해상도 영상에서 분석, 트래킹 등에 있어서, 영상의 해상도가 높아짐에 따라 종래와 같은 객체검출방법은 보다 높은 연산량을 요구하고 따라서 실시간 영상에 대한 분석이 원활하게 이루어지지 않는다는 점이 있었다.Recently, technology that can efficiently compress, transmit, and view high-resolution video based on block-based video codecs following protocols such as H.265 (HEVC) has spread. Such high-resolution images are also applied to monitoring images such as CCTV, but in the analysis and tracking of such high-resolution images, as the resolution of the image increases, the conventional object detection method requires a higher amount of calculation, and thus real-time video There was a problem that the analysis was not carried out smoothly.

한편, 선행문헌 1(한국등록특허 제10-1409826호, 2014.6.13 등록)은 참조프레임 내의 블록들의 움직임 벡터에 대한 히스토그램에 기반하여 참조프레임의 움직임 벡터를 산출하고, 전역 움직임벡터에 기초하여 참조블록의 영역종류를 결정하는 기술을 개시하고 있다. Meanwhile, Prior Document 1 (Korean Patent No. 10-1409826, registered on June 13, 2014) calculates the motion vector of the reference frame based on the histogram of the motion vectors of blocks within the reference frame, and calculates the motion vector of the reference frame based on the global motion vector. A technology for determining the area type of a block is being disclosed.

그러나, 선행문헌 1의 경우 영역전체에 대하여 움직임 벡터를 산출하고, 영역 전체에 대하여 히스토그램 데이터를 산출하여야 하기 때문에, 현재의 높은 해상도의 영상에서의 실시간 처리가 가능한 정도의 속도가 나오기 어렵고, 또한, 모든 블록들에 대하여 모션벡터를 고려하여야 하기 때문에, 불필요한 블록에 대해서도 일단 연산을 수행하여야 한다는 문제점이 있다.However, in the case of Prior Document 1, since motion vectors must be calculated for the entire region and histogram data must be calculated for the entire region, it is difficult to achieve a speed that enables real-time processing of current high-resolution images, and furthermore, Since motion vectors must be considered for all blocks, there is a problem that operations must first be performed on unnecessary blocks as well.

또한, 기본적으로 객체검출과 관련하여 전체 프레임에 대한 처리를 하여야 하기 때문에, 기본적인 연산량이 많이 요구된다는 문제점이 있다.Additionally, since the entire frame must be processed in relation to object detection, there is a problem that a large amount of basic computation is required.

한편, 최근 다양한 전자기기의 발달로 4K UHD(Ultra High Definition)급 영상의 획득이 가능해졌으며, 이제 사람들은 8K UHD 영상을 논하고 있다. 모바일 기기에서도 HD(High Definition)급보다 해상도가 큰 2048×1530급 영상을 다룰 수 있게 되었다. HEVC(High Efficiency Video Coding)는 HD 모바일, 홈 시네마, UHDTV(Ultra High Definition TV)와 같은 고화질 응용분야에서의 부호화 성능 향상을 목표로 개발된 차세대 영상 압축 표준이다. Meanwhile, recent developments in various electronic devices have made it possible to acquire 4K UHD (Ultra High Definition) video, and people are now discussing 8K UHD video. Mobile devices can now handle 2048×1530 video, which has a higher resolution than HD (High Definition). HEVC (High Efficiency Video Coding) is a next-generation video compression standard developed with the goal of improving coding performance in high-definition applications such as HD mobile, home cinema, and UHDTV (Ultra High Definition TV).

선행문헌 1: 한국등록특허 제10-1409826호, '적응적 탐색 범위를 이용한 움직임 예측방법', 2014.6.13 등록)Prior Document 1: Korean Patent No. 10-1409826, ‘Motion prediction method using adaptive search range’, registered on June 13, 2014)

본 발명의 목적은 영상 디코딩 과정에서 도출되는 파라미터값에 기초하여 예비적으로 해당 프레임이 움직임이 존재하는 프레임인지 여부를 검출하여, 이를 영상분석에 참조함으로써, 보다 객체인식, 추적 등의 분석을 더욱 고속화할 수 있는 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램을 제공하는 것이다.The purpose of the present invention is to preliminary detect whether the frame in question is a frame in which movement exists based on the parameter values derived from the video decoding process and refer to this for video analysis, thereby enabling further analysis such as object recognition and tracking. The aim is to provide a high-speed object area detection method, device, and computer program for the same.

상기와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에서는, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 메인 메모리를 포함하는 컴퓨팅 시스템에서 수행되는 움직임이 존재하는 프레임의 검출방법으로서, 영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출단계; 상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인단계; 상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출단계; 및 상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단단계;를 포함하는, 움직임이 존재하는 프레임의 검출방법을 제공한다.In order to solve the above problem, in one embodiment of the present invention, a method of detecting a frame in which movement is performed in a computing system including one or more processors and a main memory storing instructions executable by the processor, comprising: A frame extraction step of extracting a P frame or B frame from data; For the P frame or B frame, an intra mode confirmation step of checking information about whether each of a plurality of coding units included in each frame is an intra mode; A ratio information calculation step of calculating ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; And a motion frame determination step of determining that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist, based on the ratio information of the P frame or B frame. Provides a frame detection method.

본 발명의 몇 실시예에서는, 상기 영상데이터는 HEVC 규약에 따라 인코딩된 영상데이터를 포함할 수 있다.In some embodiments of the present invention, the video data may include video data encoded according to the HEVC standard.

본 발명의 몇 실시예에서는, 상기 움직임프레임판단단계는, 각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단할 수 있다.In some embodiments of the present invention, the motion frame determination step is performed when the ratio information of each P frame or B frame is higher than a preset first threshold value, and the corresponding P frame or B frame is selected as a frame in which movement exists. It can be judged as follows.

본 발명의 몇 실시예에서는, 상기 제1임계수치는, 움직임이 없는 것으로 라벨링된 P프레임 혹은 B프레임을 포함하는 학습영상데이터의 각각의 프레임에 대하여 인트라모드에 해당하는 코딩 유닛의 비율정보를 산출하는 학습비율도출단계; 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보로부터 제1통계적정보를 도출하는 제1통계적수치도출단계; 및 상기 제1통계적정보에 기초하여 상기 제1임계수치를 결정하는 제1임계수치결정단계;에 의하여 결정될 수 있다.In some embodiments of the present invention, the first threshold calculates ratio information of coding units corresponding to the intra mode for each frame of training video data including P frames or B frames labeled as having no movement. learning rate derivation step; A first statistical value derivation step of deriving first statistical information from the ratio information of each of the plurality of P frames or B frames of the learning video data; and a first critical value determination step of determining the first critical value based on the first statistical information.

본 발명의 몇 실시예에서는, 상기 제1통계적수치는 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보의 평균값 및 표준편차값에 기초하여 결정될 수 있다.In some embodiments of the present invention, the first statistical value may be determined based on the average value and standard deviation value of each ratio information of a plurality of P frames or B frames of the training image data.

본 발명의 몇 실시예에서는, 상기 움직임프레임판단단계는, 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 관련 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단할 수 있다.In some embodiments of the present invention, the motion frame determination step is to select a related P frame or B frame when the standard deviation value of the ratio information of a plurality of P frames or B frame groups is higher than a preset second threshold value. It can be judged by the frame in which movement exists.

본 발명의 몇 실시예에서는, 상기 움직임프레임판단단계는, N번째 P프레임 혹은 B프레임이 움직임이 존재하는 프레임인지 여부를 판단하는 경우, N번째 P프레임 혹은 B프레임에서 N+M번째 P프레임 혹은 B프레임까지의 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, N번째 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단할 수 있다.In some embodiments of the present invention, the motion frame determination step is performed when determining whether the Nth P frame or B frame is a frame in which movement exists, and the N+Mth P frame or B frame is selected from the Nth P frame or B frame. If the standard deviation value of the ratio information of a plurality of P frames or B frame groups up to the B frame is higher than the preset second threshold value, the Nth P frame or B frame can be determined as a frame in which movement exists. .

본 발명의 몇 실시예에서는, 상기 제2임계수치는, 움직임이 없는 것으로 라벨링된 P프레임 혹은 B프레임을 포함하는 학습영상데이터의 각각의 프레임에 대하여 인트라모드에 해당하는 코딩 유닛의 비율정보를 산출하는 학습비율도출단계; In some embodiments of the present invention, the second threshold calculates ratio information of coding units corresponding to the intra mode for each frame of training video data including P frames or B frames labeled as having no movement. learning rate derivation step;

상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보로부터 제2통계적정보를 도출하는 제2통계적수치도출단계; 및 상기 제2통계적정보에 기초하여 상기 제2임계수치를 결정하는 제2임계수치결정단계;에 의하여 결정될 수 있다.A second statistical value derivation step of deriving second statistical information from the ratio information of each of the plurality of P frames or B frames of the learning video data; and a second critical value determination step of determining the second critical value based on the second statistical information.

본 발명의 몇 실시예에서는, 상기 제2통계적수치는 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보의 표준편차값에 기초하여 결정될 수 있다.In some embodiments of the present invention, the second statistical value may be determined based on the standard deviation value of the ratio information of each of the plurality of P frames or B frames of the training image data.

본 발명의 몇 실시예에서는, 상기 움직임프레임판단단계는, 각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하고, 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 관련 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단할 수 있다.In some embodiments of the present invention, the motion frame determination step is performed when the ratio information of each P frame or B frame is higher than a preset first threshold value, and the corresponding P frame or B frame is selected as a frame in which movement exists. , and if the standard deviation value of the ratio information of a plurality of P frames or B frame groups is higher than the preset second threshold value, the related P frame or B frame can be determined as a frame in which movement exists.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 메인 메모리를 포함하는 움직임이 존재하는 프레임의 검출장치로서, 영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출부; 상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인부; 상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출부; 및 상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단부;를 포함하는, 움직임이 존재하는 프레임의 검출장치를 제공한다.In order to solve the above problem, in one embodiment of the present invention, there is a detection device for frames in which movement is present, including one or more processors and a main memory that stores instructions executable by the processors, and detects P frames from image data. Or a frame extraction unit that extracts B frames; For the P frame or B frame, an intra mode confirmation unit that checks information on whether each of a plurality of coding units included in each frame is an intra mode; A ratio information calculation unit that calculates ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and a motion frame determination unit that determines that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist, based on the ratio information of the P frame or B frame. A frame detection device is provided.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은, 영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출단계; 상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인단계; 상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출단계; 및 상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단단계;를 포함하는 컴퓨터 프로그램을 제공한다.In order to solve the above problem, in one embodiment of the present invention, a computer program stored in a computer-readable medium including a plurality of instructions executed by one or more processors, the computer program A frame extraction step of extracting a P frame or B frame; For the P frame or B frame, an intra mode confirmation step of checking information about whether each of a plurality of coding units included in each frame is an intra mode; A ratio information calculation step of calculating ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and a motion frame determination step of determining that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist, based on the ratio information of the P frame or B frame. .

본 발명의 일 실시예에 따르면, 영상 디코딩 과정에서 도출되는 파라미터값에 기초하여 예비적으로 해당 프레임이 움직임이 존재하는 프레임인지 여부를 검출하여, 이를 영상분석에 참조함으로써, 보다 객체인식, 추적 등의 분석을 더욱 고속화할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, based on the parameter values derived from the video decoding process, it is preliminary detected whether the frame is a frame in which movement exists, and this is referred to for video analysis, thereby improving object recognition, tracking, etc. It can have the effect of further speeding up the analysis.

본 발명의 일 실시예에 따르면, 영상디코딩 전단계에서 CU 의 디코딩파라미터에 기초하여 해당 프레임에 움직임이 있는지 혹은 없는지 여부를 판단함으로써, 객체영역 검출의 대상이 되는 프레임을 고속으로 필터링할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, by determining whether there is movement or no movement in the frame based on the decoding parameters of the CU in the pre-video decoding stage, the effect of high-speed filtering of the frame that is the target of object area detection is achieved. It can be performed.

본 발명의 일 실시예에 따르면, 낮은 연산량임에도 불구하고 높은 정확도로 객체의 움직임이 있는 프레임을 고속으로 판별할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, despite a low computational amount, it is possible to achieve the effect of high-speed discrimination of frames containing object movement with high accuracy.

본 발명의 일 실시예에 따르면, 영상에 대한 디코딩 없이 CU의 신택스 정보에 포함된 모드에 대한 정보에 기초한 대수적 연산만으로도 프레임에 움직임이 존재하는 지 여부를 판단할 수 있다. According to an embodiment of the present invention, it is possible to determine whether there is motion in a frame only through an algebraic operation based on information about the mode included in the syntax information of the CU without decoding the image.

본 발명의 일 실시예에 따르면, 움직임이 존재하는 것으로 판단되는 프레임들에 대해서만 객체탐지, 객체분석 등을 수행함으로써, 연산량을 상당수준으로 감소시킬 수 있다. According to one embodiment of the present invention, the amount of computation can be reduced to a significant level by performing object detection, object analysis, etc. only on frames in which movement is determined to exist.

본 발명의 일 실시예에 따르면, 최근 CCTV 고화질 영상에 대한 상당한 연산부하가 요구되나, 움직임이 존재하는 프레임만으로 분석대상 영역을 상당수준으로 감소시킬 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, although a significant computational load is required for recent CCTV high-definition images, it is possible to achieve the effect of reducing the analysis target area to a significant level with only frames in which movement exists.

도 1은 본 발명의 일 실시예에 따른 움직임이 존재하는 프레임의 검출방법의 전체적인 단계들을 개략적으로 도시한다.
도 2 내지 도 7은 본 발명의 일 실시예에 따른 HEVC의 CTU, CU 에 대하여 개략적으로 도시한다.
도 8은 I프레임, B프레임, 및 P프레임을 포함하는 영상데이터를 예시적으로 도시한다.
도 9는 HEVC 표준에서의 코딩 유닛의 SYNTAX를 도시한다.
도 10은 본 발명의 일 실시예에 따른 학습영상데이터를 추출하는 과정을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 임계수치들을 추출하는 과정을 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 움직임프레임판단단계의 과정을 개략적으로 도시한다.
도 13은 예시적인 영상프레임에서의 비율정보를 예시적으로 도시한다.
도 14는 움직임이 있는 프레임과 움직임이 없는 프레임을 예시적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.
Figure 1 schematically shows the overall steps of a method for detecting a frame in which motion exists according to an embodiment of the present invention.
Figures 2 to 7 schematically show the CTU and CU of HEVC according to an embodiment of the present invention.
Figure 8 exemplarily shows video data including an I frame, a B frame, and a P frame.
Figure 9 shows the SYNTAX of a coding unit in the HEVC standard.
Figure 10 schematically shows the process of extracting learning video data according to an embodiment of the present invention.
Figure 11 schematically shows the process of extracting critical values according to an embodiment of the present invention.
Figure 12 schematically shows the process of the motion frame determination step according to an embodiment of the present invention.
Figure 13 exemplarily shows ratio information in an example video frame.
Figure 14 exemplarily shows a frame with movement and a frame without movement.
Figure 15 exemplarily shows the internal configuration of a computing device according to an embodiment of the present invention.

다양한 실시예들이 이제 도면을 참조하여 설명되며, 전체 도면에서 걸쳐 유사한 도면번호는 유사한 구성요소를 나타내기 위해서 사용된다. 본 명세서에서, 다양한 설명들이 본 발명의 이해를 제공하기 위해서 제시된다. 그러나 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다. 다른 예들에서, 공지된 구조 및 장치들은 실시예들의 설명을 용이하게 하기 위해서 블록 다이어그램 형태로 제공된다.Various embodiments are now described with reference to the drawings, in which like reference numbers are used to indicate like elements throughout the drawings. In this specification, various descriptions are presented to provide an understanding of the invention. However, it is clear that these embodiments may be practiced without these specific descriptions. In other instances, well-known structures and devices are presented in block diagram form to facilitate describing the embodiments.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템", “~부” 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정, 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있고, 일 컴포넌트는 하나의 컴퓨터As used herein, the terms "component", "module", "system", "part", etc. refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or an implementation of software. For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and the computing device can be a component. One or more components may reside within a processor and/or thread of execution, and a component may reside within a computer

내에 로컬화될 수 있고, 또는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 표준편차 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통한 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다. It can be localized within the computer, or distributed between two or more computers. Additionally, these components can execute from various computer-readable media having various data structures stored thereon. Components can transmit, for example, signals with one or more data packets (e.g., data and/or signals from one component interacting with other components in a local system, standard deviation system, to other systems and over a network such as the Internet). Data) may be communicated through local and/or remote processing.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, the terms "comprise" and/or "comprising" mean that the feature and/or element is present, but exclude the presence or addition of one or more other features, elements and/or groups thereof. It should be understood as not doing so.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Additionally, terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those skilled in the art to which the present invention pertains. It has the same meaning as Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the embodiments of the present invention, have an ideal or excessively formal meaning. It is not interpreted as

도 1은 본 발명의 일 실시예에 따른 움직임이 존재하는 프레임의 검출방법의 전체적인 단계들을 개략적으로 도시한다.Figure 1 schematically shows the overall steps of a method for detecting a frame in which motion exists according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 움직임이 존재하는 프레임의 검출방법은 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 메인 메모리를 포함하는 컴퓨팅 시스템에서 수행된다.The method of detecting a frame in which motion exists according to an embodiment of the present invention is performed in a computing system that includes one or more processors and a main memory that stores instructions executable by the processors.

이와 같은 움직임이 존재하는 프레임의 검출방법은 영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출단계(S100); 상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인단계(S200); 상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출단계(S300); 및 상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단단계(S400);를 포함한다.A method of detecting a frame in which such movement exists includes a frame extraction step (S100) of extracting a P frame or B frame from video data; For the P frame or B frame, an intra mode confirmation step (S200) of checking information about whether each of a plurality of coding units included in each frame is an intra mode; A ratio information calculation step (S300) of calculating ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and a motion frame determination step (S400) of determining that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist, based on the ratio information of the P frame or B frame.

본 발명의 일 실시예에서는, 상기 S100, S200, S300, 및 S400은 각각 프레임추출부(100), 인트라모드확인부(200), 및 비율정보산출부(300), 움직임프레임판단부(400)에 의하여 수행된다.In one embodiment of the present invention, S100, S200, S300, and S400 include a frame extraction unit 100, an intra mode confirmation unit 200, a ratio information calculation unit 300, and a motion frame determination unit 400, respectively. It is performed by.

바람직하게는, 상기 영상데이터는 HEVC 규약에 따라 인코딩된 영상데이터를 포함할 수 있다.Preferably, the video data may include video data encoded according to the HEVC standard.

도 2 내지 도 7은 본 발명의 일 실시예에 따른 HEVC의 CTU, CU 에 대하여 개략적으로 도시한다. Figures 2 to 7 schematically show the CTU and CU of HEVC according to an embodiment of the present invention.

먼저 HEVC의 가장 큰 특징인 계층적 부호화 구조에 있어서, HEVC의 CTU(Coding Tree Unit), CU(Coding Unit), CTB(Coding Tree Block), CB(Coding Block), PB(Prediction Block), TB(Transform Block)는 기존의 표준에서 매크로블록(Macro block)과 블록에 해당하는 개념이다. 큰 해상도의 영상을 효율적으로 부호화하기 위해서는 좀 더 큰 부호화 단위가 필요하다. First, in the hierarchical coding structure, which is the biggest feature of HEVC, HEVC's CTU (Coding Tree Unit), CU (Coding Unit), CTB (Coding Tree Block), CB (Coding Block), PB (Prediction Block), and TB ( Transform Block is a concept that corresponds to macro block and block in existing standards. In order to efficiently encode large-resolution images, a larger coding unit is required.

여기서 문제가 되는 것은 영상의 작은 디테일 또한 무시할 수 없으므로 4×4 크기와 같은 작은 크기의 블록 역시 필요하다는 점이다The problem here is that small details in the image cannot be ignored, so small-sized blocks such as 4×4 are also needed.

이러한 문제점을 해결하기 위해 HEVC는 유연하고 효과적인 계층적 부호화 구조를 사용한다. 부호화의 첫 단계로 한 장의 영상, 즉 프레임은 도 2와 같이 다수의 CTU로 분할된다. CTU의 가로와 세로 정보는 SPS(Sequence Parameter Set)를 통해 복호기로 전달되며 전체 영상에 대해 모든 CTU는 동일한 크기를 가진다. HEVC에서 사용 가능한 CTU의 크기는 64×64, 32×32, 또는 16×16이다.To solve these problems, HEVC uses a flexible and effective hierarchical coding structure. In the first step of encoding, one video, or frame, is divided into multiple CTUs as shown in FIG. 2. The horizontal and vertical information of the CTU is transmitted to the decoder through SPS (Sequence Parameter Set), and all CTUs have the same size for the entire image. The sizes of CTUs available in HEVC are 64×64, 32×32, or 16×16.

CTB를 설명하기에 앞서, HEVC 표준 내의 명칭에 대한 규정을 알아보자. HEVC표준의 계층적 부호화 구조 설명에서 사용하는 여러 용어 중 Unit이라 지칭하는 것들과 Block이라 지칭하는 것들이 있다. Before explaining CTB, let's look at the naming regulations in the HEVC standard. Among the various terms used in the description of the hierarchical coding structure of the HEVC standard, there are those referred to as Unit and those referred to as Block.

CTU 또는 CU와 같이 Unit이라 지칭하는 것들은 부호화 논리 단위(logical unit)로, 실제 비트스트림으로 부호화되는 정보이다. 반면에, CTB, CB, PB, 또는 TB와 같이 Block이라 지칭하는 것들은 비디오 프레임 버퍼를 의미한다.Units, such as CTU or CU, are coding logical units and are information that is encoded into an actual bitstream. On the other hand, those referred to as Block, such as CTB, CB, PB, or TB, refer to video frame buffers.

한편, 논리 단위 중 하나인 CTU는 도 3에서와 같이 같이 총 세 개의 CTB와 관련 구문 요소(Syntax Elements)로 나뉜다. 휘도(Luma) CTB는 16×16에서 64×64의 CTU와 동일한 크기를 가지며, 색차(Cb와 Cr) CTB는 색차 포맷에 따라 다른 크기를 가진다. Meanwhile, CTU, one of the logical units, is divided into a total of three CTBs and related syntax elements, as shown in FIG. 3. The luminance (Luma) CTB has the same size as the CTU of 16×16 to 64×64, and the chrominance (Cb and Cr) CTB has different sizes depending on the chrominance format.

CTB는 화면내 예측을 수행할지 화면간 예측을 수행할지를 결정하기에는 너무나 크다. 따라서 각 CTB는 다수의 CB들로 분할될 수 있으며, 사용 가능한 CB의 크기는 CTB의 크기에서부터 8×8까지 다양하다. 도 3은 64×64 CTB가 다수의 CB로 분할되는 방법을 보여준다. The CTB is too large to determine whether to perform intra- or inter-screen prediction. Therefore, each CTB can be divided into multiple CBs, and the size of the available CBs varies from the size of the CTB to 8×8. Figure 3 shows how a 64×64 CTB is divided into multiple CBs.

CB는 예측 트리와 변환 트리의 루트가 되는데, 화면내 예측(인트라모드)을 수행할지 화면간 예측(인터모드)을 수행할지를 알려주는 예측 유형(prediction type) 정보는 CU 레벨에 서 부호화된다. CB becomes the root of the prediction tree and transformation tree, and prediction type information that indicates whether to perform intra-screen prediction (intra mode) or inter-screen prediction (inter mode) is encoded at the CU level.

CU는 도 4와 같이 세 개의 CB와 관련 구문 요소로 구성된다. CB는 예측 유형을 결정하기에는 충분하지만, 화면간 예측에서의 움직임 벡터 또는 화면내 예측 모드를 결정하기에는 너무 크다. The CU consists of three CBs and related syntax elements, as shown in Figure 4. CB is sufficient to determine the prediction type, but is too large to determine the motion vector in inter-prediction or intra-prediction mode.

예를 들어 8×8 CB의 중간 부분에 눈과 같은 매우 작은 물체가 움직이고 있다면 8×8 CB에 대해 하나의 움직임 벡터(Motion Vector, MV)를 사용하는 것보다 CB를 좀 더 작게 나누어 각 부분에 대해 서로 다른 움직임 벡터를 사용하는 것이 더 나을 것이다. 그 결과로 사용되는 것이 바로 PB이다. 임의의 CB는 시/공간 적 예측 가능성에 따라 PB로 분할될 수 있다. For example, if a very small object, such as an eye, is moving in the middle part of an 8×8 CB, rather than using one motion vector (MV) for the 8×8 CB, divide the CB into smaller pieces for each part. It would be better to use different motion vectors for The result used is PB. Any CB can be divided into PBs according to temporal/temporal predictability.

도 5는 사용 가능한 PB 분할을 보여준다. 예측 후의 변환 부호화에서 사용하는 기본 단위는 TB이다. 앞에서 설명한 바와 같이, CB는 복잡한 고주파 부분과 편평한 저주파 부분을 모두 포함할 수 있기 때문에 CB 단위로 변환을 수행하는 것은 적합하지 않다. Figure 5 shows the available PB partitions. The basic unit used in conversion coding after prediction is TB. As explained previously, it is not appropriate to perform the conversion in CB units because CB can contain both complex high-frequency parts and flat low-frequency parts.

따라서 임의의 CB는 더 작은 변환 블록인 TB들로 분할된다. HEVC에서는 임의의 CB에 대해, TB와PB가 독립적으로 결정되므로 PB보다 큰 TB를 사용할 수 있다. Therefore, any CB is divided into smaller transform blocks, TBs. In HEVC, for any CB, TB and PB are determined independently, so a TB larger than PB can be used.

도 6은 하나의 CB가 TB로 분할되는 예를 보여준다.Figure 6 shows an example where one CB is divided into TB.

한편, 인트라 예측은 하나의 화면 내에서 인접한 화소간의 상관도를 이용해예측을 수행하는 방법이다. 일반적으로 참조할 수 있는 데이터의 양이 적어 화면간 예측보다 예측 효율이 높지 않지만, 독립적으로 부호화가 수행되고, 부호화 속도가 빠르다는 장점이 있다. H.264/MPEG-4AVC에서 최대 9개의 예측 모드를 사용한 것과는 달리, HEVC 화면내 부호화에서는 도 7 과 같이 DC 및 Planar 모드와 33가지 방향성을 갖는 예측 모드들을 사용한다.Meanwhile, intra prediction is a method of performing prediction using the correlation between adjacent pixels within one screen. In general, the prediction efficiency is not as high as inter-screen prediction due to the small amount of data that can be referenced, but it has the advantage that encoding is performed independently and the encoding speed is fast. Unlike H.264/MPEG-4AVC, which uses up to 9 prediction modes, HEVC intra-picture coding uses DC and Planar modes and 33 directional prediction modes, as shown in FIG. 7.

도 8은 I프레임, B프레임, 및 P프레임을 포함하는 영상데이터를 예시적으로 도시한다.Figure 8 exemplarily shows video data including an I frame, a B frame, and a P frame.

일반적인 동영상의 비디오 부분은 I 프레임( “I”로 도시한 프레임), P 프레임( “P”로 도시한 프레임), 및 B 프레임( “B”로 도시한 프레임)으로 구성된다.The video portion of a typical video consists of I frames (frames shown as “I”), P frames (frames shown as “P”), and B frames (frames shown as “B”).

I 프레임은 키 프레임으로써 전체 이미지를 모두 포함하고, 동영상 파일에 있어서 억세스 포인트로 기능할 수 있으며, 독립적으로 인코딩된 프레임에 해당하며 낮은 압축률을 가지고 있다. An I frame is a key frame that contains the entire image, can function as an access point in a video file, corresponds to an independently encoded frame, and has a low compression rate.

한편, P 프레임의 경우, 이전의 I 프레임 혹은 P 프레임을 참조하여 순방향 예측에 의하여 만들어지는 프레임으로서 독립적으로 인코딩된 프레임에 해당하지 않는다. 이와 같은 P 프레임은 I 프레임에 비해 높은 압축률을 가지고 있다. 여기서, “이전”의 프레임이라는 것은 바로 전 프레임뿐만 아니라 해당 프레임 전에 존재하는 복수의 프레임 중 하나를 의미하고, “이후”의 프레임이라는 것은 바로 다음 프레임뿐만 아니라 해당 프레임 다음에 존재하는 복수의 프레임 중 하나를 의미한다.Meanwhile, in the case of a P frame, it is a frame created by forward prediction with reference to a previous I frame or P frame, and does not correspond to an independently encoded frame. Such P frames have a higher compression rate than I frames. Here, the “previous” frame refers to not only the immediately preceding frame but also one of a plurality of frames that exist before the frame, and the “post” frame refers to not only the next frame but also one of the plurality of frames that exist after the frame. It means one.

한편, B 프레임의 경우, 이전의 프레임 및 이후의 프레임을 참조하여 순방향 및 역방향 예측에 의하여 만들어지는 프레임으로서 독립적으로 인코딩된 프레임에 해당하지 않는다. 이와 같은 B 프레임은 I, P 프레임에 비해 높은 압축률을 가지고 있다. 따라서, 상기 독립적으로 인코딩된 프레임은 I 프레임에 해당하고, 비독립적으로 인코딩된 프레임은 나머지 B 프레임 혹은 P 프레임에 해당할 수 있다.Meanwhile, in the case of the B frame, it is a frame created by forward and backward prediction with reference to the previous frame and the subsequent frame, and does not correspond to an independently encoded frame. Such B frames have a higher compression rate than I and P frames. Accordingly, the independently encoded frame may correspond to an I frame, and the non-independently encoded frame may correspond to the remaining B frame or P frame.

상기 B, P 프레임은 참조프레임에 해당하고, 바람직하게는, 상기 객체영역검출부는 이와 같은 참조프레임에 대하여 객체영역검출을 수행한다.The B and P frames correspond to reference frames, and preferably, the object area detection unit performs object area detection on these reference frames.

도 9는 HEVC 표준에서의 코딩 유닛의 SYNTAX를 도시한다.Figure 9 shows the SYNTAX of a coding unit in the HEVC standard.

HEVC표준문서인 “ITU-T H.265 TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU (11/2019) SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services - Coding of moving video High efficiency video coding”에 따르면 CU mode의 syntax가 각 CU의 시작 부분에 있다. 이와 같이 CU의 모드가 인트라모드 인지 혹은 인터모드인지는 비트스트림에 대한 디코딩 없이 확인할 수 있다. According to the HEVC standard document “ITU-T H.265 TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU (11/2019) SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services - Coding of moving video High efficiency video coding”, the syntax of CU mode is It's at the beginning of the CU. In this way, it is possible to check whether the CU mode is intra mode or inter mode without decoding the bitstream.

종래의 기술에서는 움직임이 없는 정적배경과 움직임이 있는 비디오 프레임을 판단 혹은 비교하기 위해서는 영상에 대한 디코딩 과정이 필요하고, 이에 따른 연산부하가 늘어난다는 문제점이 있다. In the conventional technology, a decoding process for the image is required to judge or compare a static background with no movement and a video frame with movement, and there is a problem in that the computational load increases accordingly.

이에 대해, 본 발명의 실시예들에 따른 움직임이 존재하는 프레임의 검출방법에서는 디코딩 없이 CU 데이터에서 CU의 모드를 지칭하는 부분의 정보로 해당 프레임이 움직임이 존재하는 프레임인지 여부를 결정할 수 있기 때문에, 연산부하를 대폭적으로 감소시킬 수 있는 효과를 발휘할 수 있다.In contrast, in the method for detecting a frame in which motion exists according to embodiments of the present invention, it is possible to determine whether the frame in question is a frame in which motion exists using information in the part of the CU data indicating the mode of the CU without decoding. , it can have the effect of significantly reducing the computational load.

상기 인트라모드확인다계는 상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인한다. 이 과정에서 전술한 바와 같이, 비트스트림에 대한 복호화가 되지 않은 상태에서 각각의 CU가 인트라모드인지 혹은 인터모드인지 여부를 판단한다.The intra mode confirmation multisystem checks information on whether each of the plurality of coding units included in each frame is an intra mode with respect to the P frame or B frame. In this process, as described above, it is determined whether each CU is intra mode or inter mode in a state where the bitstream has not been decoded.

이후, 상기 비율정보산출단계에서는 상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출한다.Thereafter, in the ratio information calculation step, ratio information of a coding unit corresponding to the intra mode among a plurality of coding units is calculated for each of the P frame or B frame.

바람직하게는, 각각의 프레임에 대하여, 전체 CU 중 인트라모드에 해당하는 CU의 비율이 상기 비율정보에 해당할 수 있다. 예를들어, 특정 프레임에 대하여 CU가 100개가 존재하고, 이중 30개의 CU가 인트라모드인 경우에는 상기 비율정보는 30% 혹은 0.3이 될 수 있다.Preferably, for each frame, the ratio of CUs corresponding to the intra mode among all CUs may correspond to the ratio information. For example, if there are 100 CUs for a specific frame, and 30 of them are in intra mode, the ratio information may be 30% or 0.3.

한편, 도 9의 (B)는 단일의 프레임에 대하여 복수의 CU가 존재하는 상태를 도시한다. 이와 같은 CU전체 중 인트라모드를 갖는 CU의 비율이 전술한 비율정보에 해당할 수 있다.Meanwhile, Figure 9(B) shows a state in which multiple CUs exist for a single frame. The ratio of CUs with intra mode among all CUs may correspond to the ratio information described above.

도 10은 본 발명의 일 실시예에 따른 학습영상데이터를 추출하는 과정을 개략적으로 도시한다.Figure 10 schematically shows the process of extracting learning video data according to an embodiment of the present invention.

본 발명에의 실시예들에서는 상기 움직임프레임판단단계에서는 기설정된 임계수치에 의하여 판단이 수행된다.In embodiments of the present invention, in the motion frame determination step, determination is performed based on a preset threshold value.

이와 같은 기설정된임계수치는 움직임이 있는 영상데이터와 움직임이 없는 영상데이터를 포함할 수 있는 학습영상데이터로부터 도출된다.This preset threshold value is derived from training image data, which may include image data with movement and image data without movement.

더욱 바람직하게는, 특정 지역에 설치된 CCTV에서 촬영된 영상데이터 중 움직임이 있는 프레임을 검출하려고 할 때, 학습영상데이터는 상기 특정 지역에 설치된 CCTV의 과거의 영상데이터를 포함한다. 이와 같은 방법은 각각의 촬영되는 영상의 특수성까지 고려되어, 움직임이 존재하는 프레임의 검출이 수행될 수 있다.More preferably, when trying to detect a frame with movement among video data captured by a CCTV installed in a specific area, the training video data includes past video data of the CCTV installed in the specific area. This method takes into account the specificity of each captured image and can detect frames in which movement exists.

도 10의 (A)의 상측에는 최초 상태의 학습영상데이터의 전체프레임이 도시되어 있다. 전체프레임 중 해칭된 부분이 움직임이 없는 프레임으로 라벨링된 프레임의 집단에 해당한다.The entire frame of the training image data in the initial state is shown in the upper part of Figure 10 (A). The hatched portion of the entire frame corresponds to a group of frames labeled as motionless frames.

여기서 최종적으로 임계수치를 결정하는 데 사용하는 학습영상데이터는 상기 최초 상태의 학습영상데이터에서 움직임이 없는 프레임 중 I프레임을 제외한 프레임이 그룹화되어 도출된다.Here, the training video data used to finally determine the threshold value is derived by grouping frames excluding the I frame among the frames without movement in the training video data in the initial state.

본 발명의 다른 실시예에서는 도 10의 (B)에 도시된 바와 같이, 최초 상태의 학습영상데이터의 전체프레임이 움직임이 없는 프레임에 해당하는 경우에는, 최초 상태의 학습영상데이터 중 I프레임을 제외한 프레임이 학습영상데이터로 도출된다.In another embodiment of the present invention, as shown in Figure 10 (B), when all frames of the training video data in the initial state correspond to frames without movement, all frames except the I frame among the training video data in the initial state are Frames are derived from training video data.

이와 같은 학습영상데이터에 기초하여, 상기 움직임프레임판단단계에서 사용되는 임계수치가 결정되고, 이와 같은 임계수치와 촬영된 판단대상 영상데이터의 도출값이 비교되어, 움직임이 존재하는 프레임인지 여부가 결정된다.Based on this training image data, a threshold value used in the motion frame judgment step is determined, and this threshold value is compared with the derived value of the captured judgment target image data to determine whether or not it is a frame in which movement exists. do.

도 11은 본 발명의 일 실시예에 따른 임계수치들을 추출하는 과정을 개략적으로 도시한다.Figure 11 schematically shows the process of extracting critical values according to an embodiment of the present invention.

상기 움직임프레임판단단계는, 각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단한다.In the motion frame determination step, when the ratio information of each P frame or B frame is higher than a preset first threshold value, the corresponding P frame or B frame is determined as a frame in which movement exists.

즉, 분석대상에 해당하는 영상데이터의 각각의 P프레임 혹은 B프레임에 포함된 CU 중 인트라모드에 해당하는 비율정보를 추출하고, 추출된 비율정보가 상기 제1임계수치보다 높은 경우에는 해당 프레임을 움직임이 존재하는 프레임으로 판단한다. 여기서, 상기 제1임계수치가 전술한 학습영상데이터로부터 도출이 될 수 있다.In other words, the ratio information corresponding to the intra mode is extracted from the CUs included in each P frame or B frame of the video data corresponding to the analysis target, and if the extracted ratio information is higher than the first threshold value, the corresponding frame is extracted. It is judged by the frame in which movement exists. Here, the first threshold value can be derived from the above-described training image data.

구체적으로, 상기 제1임계수치는 움직임이 없는 것으로 라벨링된 P프레임 혹은 B프레임을 포함하는 학습영상데이터의 각각의 프레임에 대하여 인트라모드에 해당하는 코딩 유닛의 비율정보를 산출하는 학습비율도출단계; 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보로부터 제1통계적정보를 도출하는 제1통계적수치도출단계; 및 상기 제1통계적정보에 기초하여 상기 제1임계수치를 결정하는 제1임계수치결정단계;에 의하여 결정된다.Specifically, the first threshold value includes a learning ratio derivation step of calculating ratio information of coding units corresponding to an intra mode for each frame of training video data including a P frame or B frame labeled as having no movement; A first statistical value derivation step of deriving first statistical information from the ratio information of each of the plurality of P frames or B frames of the learning video data; and a first critical value determination step of determining the first critical value based on the first statistical information.

상기 학습비율도출단계는 상기 도 10에서와 같이 추출된 학습영상데이터로부터 움직임이 없는 것으로 라벨링된 P프레임 혹은 B프레임을 포함하는 학습영상데이터의 각각의 프레임에 대하여 인트라모드에 해당하는 코딩 유닛의 비율정보를 산출한다.The learning ratio derivation step is the ratio of coding units corresponding to the intra mode for each frame of the training video data including the P frame or B frame labeled as having no movement from the training video data extracted as shown in FIG. 10. Calculate information.

도 11의 상측에 도시된 구성은 학습영상데이터의 각각의 프레임(B프레임 혹은 P프레임)에 해당한다. 이와 같은 프레임 각각은 도 11에 도시된 바와 같이 복수의 CU를 포함하고, 이와 같은 전체 CU에 대하여 인트라모드에 해당하는 CU의 비율을 도출한다.The configuration shown in the upper part of FIG. 11 corresponds to each frame (B frame or P frame) of training video data. Each of these frames includes a plurality of CUs as shown in FIG. 11, and the ratio of CUs corresponding to the intra mode to all CUs is derived.

이후, 상기 제1통계적수치도출단계는 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보로부터 제1통계적정보를 도출한다. 상기 제1통계적정보는 상기 학습영상데이터의 전체 P프레임 및 전체 B프레임에서의 상기 인트라모드의 비율정보의 평균값 및 표준편차값에 해당할 수 있다.Thereafter, the first statistical value derivation step derives first statistical information from the ratio information of each of the plurality of P frames or B frames of the learning video data. The first statistical information may correspond to the average value and standard deviation value of the ratio information of the intra mode in all P frames and all B frames of the learning video data.

상기 제1임계수치결정단계는 상기 제1통계적정보에 기초하여 상기 제1임계수치를 결정한다. The first critical value determination step determines the first critical value based on the first statistical information.

본 발명의 일 실시예에서는, 상기 제1임계수치는 상기 평균값 + M*표준편차값에 해당할 수 있다. 여기서 M은 자연수에 해당한다. 일 예로서는 하기의 식으로 제1임계수치가 결정될 수 있다. In one embodiment of the present invention, the first threshold value may correspond to the average value + M*standard deviation value. Here M corresponds to a natural number. As an example, the first critical value may be determined by the following equation.

제1임계수치 = 평균값 + 2 * 표준편차값 First critical value = average value + 2 * standard deviation value

즉, 상기 제1통계적수치는 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보의 평균값 및 표준편차값에 기초하여 결정되는, 움직임이 존재하는 프레임을 검출할 수 있다.That is, the first statistical value can detect a frame in which movement is determined based on the average value and standard deviation value of the ratio information of each of the plurality of P frames or B frames of the learning video data.

한편, 본 발명의 다른 실시예에서는, 상기 움직임프레임판단단계는, 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 관련 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단한다.Meanwhile, in another embodiment of the present invention, the motion frame determination step is performed when the standard deviation value of the ratio information of a plurality of P frames or B frame groups is higher than the preset second threshold value, the related P frame or B frame is determined. The frame is judged as a frame in which movement exists.

여기서, 제2임계수치 역시 상기 전술한 학습영상데이터로부터 도출된다.Here, the second threshold value is also derived from the above-described training image data.

바람직하게는, 상기 제2임계수치는, 움직임이 없는 것으로 라벨링된 P프레임 혹은 B프레임을 포함하는 학습영상데이터의 각각의 프레임에 대하여 인트라모드에 해당하는 코딩 유닛의 비율정보를 산출하는 학습비율도출단계; 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보로부터 제2통계적정보를 도출하는 제2통계적수치도출단계; 및 상기 제2통계적정보에 기초하여 상기 제2임계수치를 결정하는 제2임계수치결정단계;에 의하여 결정된다.Preferably, the second threshold value is a learning rate derivation method that calculates ratio information of coding units corresponding to the intra mode for each frame of training video data including P frames or B frames labeled as having no motion. step; A second statistical value derivation step of deriving second statistical information from the ratio information of each of the plurality of P frames or B frames of the learning video data; and a second critical value determination step of determining the second critical value based on the second statistical information.

상기 제2통계적수치는 상기 학습영상데이터의 복수의 P프레임 혹은 B프레임의 각각의 비율정보의 표준편차값에 기초하여 결정된다.The second statistical value is determined based on the standard deviation value of the ratio information of each of the plurality of P frames or B frames of the learning video data.

본 발명의 일 실시예에서는, 상기 제2통계적수치도출단계에서는 학습영상데이터의 전체 P프레임 및 B프레임의 비율정보의 표준편차값을 도출하여 이를 제2통계적정보로 도출하고, 상기 제2임계수치는 상기 표준편차값에 기초하여 도출된다.In one embodiment of the present invention, in the second statistical value derivation step, the standard deviation value of the ratio information of all P frames and B frames of the training video data is derived, and this is derived as second statistical information, and the second threshold value is derived. is derived based on the standard deviation value.

제2임계수치는 하기와 같은 식들에 의하여 결정될 수 있다.The second critical value can be determined by the following equations.

(1) 제2임계수치=표준편차값(1) Second critical value = standard deviation value

(2) 제2임계수치=표준편차값 + 상수1(2) Second critical value = standard deviation value + constant 1

(3) 제2임계수치=상수2*표준편차값 + 상수3 (3) Second critical value = constant 2 * standard deviation value + constant 3

바람직하게는, 본 발명의 일 실시예에서는, 상기 제2통계적수치도출단계에서는 학습영상데이터의 특정 구간별 P프레임 및 B프레임의 비율정보의 복수의 표준편차값을 도출하고, 도출된 복수의 표준편차값의 평균을 이를 제2통계적정보로 도출하고, 상기 제2임계수치는 상기 표준편차값의 평균에 기초하여 도출된다.Preferably, in one embodiment of the present invention, in the second statistical value derivation step, a plurality of standard deviation values of ratio information of P frames and B frames for each specific section of the training video data are derived, and the derived plurality of standards are derived. The average of the deviation values is derived as second statistical information, and the second threshold value is derived based on the average of the standard deviation values.

구체적으로, 학습영상데이터가 100개의 P프레임 혹은 B프레임으로 구성되어 있다고 하는 경우에, 1번째 프레임에서 10번째 프레임까지의 비율정보의 표준편차값을 표준편차값#1이라고 하고, 2번째 프레임에서 11번째 프레임까지의 비율정보의 표준편차값을 표준편차값#2라고 하는 경우에, 총 표준편차값#1 에서 표준편차값#91까지 91개의 표준편차값이 도출되고, 이와 같은 91개의 표준편차값의 평균이 전술한 상기 표준편차값의 평균에 해당할 수 있다.Specifically, if the training video data consists of 100 P frames or B frames, the standard deviation value of the ratio information from the 1st frame to the 10th frame is called standard deviation value #1, and in the 2nd frame, If the standard deviation value of the ratio information up to the 11th frame is called standard deviation value #2, 91 standard deviation values are derived from the total standard deviation value #1 to standard deviation value #91, and these 91 standard deviation values are derived. The average of the values may correspond to the average of the standard deviation values described above.

제2임계수치는 하기와 같은 식들에 의하여 결정될 수 있다.The second critical value can be determined by the following equations.

(1) 제2임계수치=표준편차값의 평균(1) Second critical value = average of standard deviation values

(2) 제2임계수치=표준편차값의 평균 + 상수1(2) Second critical value = average of standard deviation values + constant 1

(3) 제2임계수치=상수2*표준편차값의 평균 + 상수3 (3) Second critical value = constant 2 * average of standard deviation values + constant 3

본 발명의 일 실시예에서는, 움직임이 존재하는 프레임을 검출하고자 하는 영상데이터의 그룹화된 B프레임 및 P프레임의 CU모드 비율정보가 상기 제2임계수치보다 높은 경우, 해당 프레임을 움직임이 존재하는 프레임으로 결정한다.In one embodiment of the present invention, when the CU mode ratio information of grouped B frames and P frames of video data for which a frame with motion is to be detected is higher than the second threshold value, the frame is selected as a frame with motion. decide.

구체적으로, 상기 움직임프레임판단단계는, N번째 P프레임 혹은 B프레임이 움직임이 존재하는 프레임인지 여부를 판단하는 경우, N번째 P프레임 혹은 B프레임에서 N+M번째 P프레임 혹은 B프레임까지의 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, N번째 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단한다.Specifically, in the motion frame determination step, when determining whether the Nth P frame or B frame is a frame in which movement exists, a plurality of frames from the Nth P frame or B frame to the N+Mth P frame or B frame are used. If the standard deviation value of the ratio information of the P frame or B frame group is higher than the preset second threshold value, the Nth P frame or B frame is determined as a frame in which movement exists.

도 12는 본 발명의 일 실시예에 따른 움직임프레임판단단계의 과정을 개략적으로 도시한다.Figure 12 schematically shows the process of the motion frame determination step according to an embodiment of the present invention.

본 발명에서는 보다 높은 정확도로 누락없이 움직임이 존재하는 프레임을 검출하기 위하여, 전술한 바와 같이 검출대상 영상데이터의 개별 프레임의 CU의 인트라모드의 비율이 제1임계수치를 초과하는 지와 개별프레임과 관련된 복수의 프레임의 CU의 인트라모드의 표준편차가 제2임계수치를 초과하는 지를 동시에 고려하여, OR합으로 움직임이 존재하는 프레임을 검출할 수 있다.In the present invention, in order to detect frames in which movement exists without omission with higher accuracy, as described above, it is checked whether the ratio of the intra mode of the CU of the individual frame of the image data to be detected exceeds the first threshold value and the individual frame and By simultaneously considering whether the standard deviation of the intra mode of the CU of a plurality of related frames exceeds the second threshold value, a frame in which movement exists can be detected by OR sum.

구체적으로, 상기 움직임프레임판단단계는, 각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하고, 각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높지 않은 경우라도 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 관련 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단할 수 있다. Specifically, in the motion frame determination step, when the ratio information of each P frame or B frame is higher than a preset first threshold value, the corresponding P frame or B frame is judged as a frame in which movement exists, respectively. Even if the ratio information of the P frame or B frame is not higher than the preset first threshold value, if the standard deviation value of the ratio information of a plurality of P frames or B frame groups is higher than the preset second threshold value, The related P frame or B frame can be judged as a frame in which movement exists.

즉, 도 12의 상측에는 판단대상 영상데이터의 B프레임 혹은 P프레임에 해당한다. 이들 각각의 프레임으로부터 인트라모드 비율정보를 도출하고, 도출된 프레임들의 비율정보에 대하여 제1판단단계에서는 제1임계수치와의 비교를 수행하여, 제1임계수치를 초과하는 경우에 움직임이 있는 프레임으로 판단한다.That is, the upper part of FIG. 12 corresponds to the B frame or P frame of the video data to be judged. Intra-mode ratio information is derived from each of these frames, and in the first judgment step, the ratio information of the derived frames is compared with a first threshold value, and if the first threshold value is exceeded, a frame with movement is selected. It is judged by

이후 제2판단단계에서는 관련 복수의 프레임(예를들어 1번째 프레임의 경우, 1번째 프레임에서 1+N번째 프레임)의 표준편차와 제2임계수치와의 비교를 수행하여, 제2임계수치를 초과하는 경우에 움직임이 있는 프레임으로 판단한다.Afterwards, in the second judgment step, the standard deviation of a plurality of related frames (for example, in the case of the 1st frame, from the 1st frame to the 1+Nth frame) is compared with the second threshold value, and the second threshold value is determined. If it exceeds it, it is judged to be a frame with movement.

도 13은 예시적인 영상프레임에서의 비율정보를 예시적으로 도시한다.Figure 13 exemplarily shows ratio information in an example video frame.

도 13에서 가로축은 각각의 프레임을 지칭하고, 세로축은 각각의 프레임의 CU 중 인트라모드 CU의 비율을 도시한다.In FIG. 13, the horizontal axis indicates each frame, and the vertical axis indicates the ratio of intra-mode CUs among CUs of each frame.

도 13에 도시된 바와 같이, 움직임이 있는 프레임의 경우에는 인트라모드 CU의 비율이 전후에서 급격하게 증가함을 알 수 있다. 따라서, 도 12를 참조하여 설명한 실시예에서와 같이, 개별 인트라모드 CU 비율이 제1임계수치를 초과하는 지 여부뿐만 아니라, 해당 프레임에서 기설정된 범위 이후까지의 프레임들의 CU 비율의 표준편차가 제2임계수치를 초과하는 지 여부를 판단함으로써, 더욱 정확하게 움직임이 있는 프레임을 도출할 수 있다.As shown in Figure 13, in the case of a frame with movement, it can be seen that the ratio of intra-mode CUs increases rapidly from front to back. Therefore, as in the embodiment described with reference to FIG. 12, not only does the individual intra-mode CU ratio exceed the first threshold, but also the standard deviation of the CU ratio of the frames from the corresponding frame to after the preset range is determined. 2 By determining whether the threshold value is exceeded, a frame with movement can be derived more accurately.

즉, 본 발명의 실시예들에 따르면 영상에 대한 디코딩 없이 CU의 신택스 정보에 포함된 모드에 대한 정보에 기초한 대수적 연산만으로도 프레임에 움직임이 존재하는 지 여부를 판단할 수 있다. 이후, 움직임이 존재하는 것으로 판단되는 프레임들에 대해서만 객체탐지, 객체분석 등을 수행함으로써, 연산량을 상당수준으로 감소시킬 수 있다. 최근 CCTV 고화질 영상에 대한 상당한 연산부하가 요구되나, 본 발명에 따르면 움직임이 존재하는 프레임만으로 분석대상 영역을 상당수준으로 감소시킬 수 있는 효과를 발휘할 수 있다.That is, according to embodiments of the present invention, it is possible to determine whether motion exists in a frame only through algebraic operations based on information about the mode included in the syntax information of the CU without decoding the image. Afterwards, by performing object detection and object analysis only on frames in which movement is determined to exist, the amount of computation can be reduced to a significant level. Recently, a significant computational load is required for CCTV high-definition images, but according to the present invention, it is possible to reduce the analysis target area to a significant level with only frames in which movement exists.

도 14는 움직임이 있는 프레임과 움직임이 없는 프레임을 예시적으로 도시한다.Figure 14 exemplarily shows a frame with movement and a frame without movement.

도 15는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.Figure 15 exemplarily shows the internal configuration of a computing device according to an embodiment of the present invention.

도 13은 영상 데이터의 프레임들의 예들을 개략적으로 도시한 도면이다Figure 13 is a diagram schematically showing examples of frames of video data.

도 15는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다. 도 1에 도시된 구성요소 전체 혹은 일부는 후술하는 컴퓨팅장치의 구성요소를 포함할 수 있다.Figure 15 exemplarily shows the internal configuration of a computing device according to an embodiment of the present invention. All or part of the components shown in FIG. 1 may include components of a computing device described later.

도 15에 도시한 바와 같이, 컴퓨팅장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. As shown in FIG. 15, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600).

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. there is. The memory 11200 may include software modules, instruction sets, or various other data necessary for the operation of the computing device 11000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다. 상기 프로세서(11100)은 단일 혹은 복수로 구성될 수 있고, 연산처리속도 향상을 위하여 GPU 및 TPU 형태의 프로세서를 포함할 수 있다.At this time, access to the memory 11200 from other components such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100. The processor 11100 may be composed of a single processor or a plurality of processors, and may include GPU and TPU type processors to improve calculation processing speed.

주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface 11300 may couple input and/or output peripherals of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute a software module or set of instructions stored in the memory 11200 to perform various functions for the computing device 11000 and process data.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 can couple various input/output peripheral devices to the peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling peripheral devices such as a monitor, keyboard, mouse, printer, or, if necessary, a touch screen or sensor to the peripheral device interface 11300. According to another aspect, input/output peripheral devices may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.Power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or a power source. It may contain arbitrary other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may include an RF circuit to transmit and receive RF signals, also known as electromagnetic signals, to enable communication with other computing devices.

이러한 도 15의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)은 도 15에 도시된 일부 컴포넌트가 생략되거나, 도 15에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 15에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 15 is only an example of the computing device 11000, and the computing device 11000 omits some components shown in FIG. 15, further includes additional components not shown in FIG. 15, or 2. It may have a configuration or arrangement that combines more than one component. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or sensor in addition to the components shown in FIG. 15, and the communication circuit 1160 may be equipped with various communication methods (WiFi, 3G, LTE). , Bluetooth, NFC, Zigbee, etc.) may also include a circuit for RF communication. Components that can be included in the computing device 11000 may be implemented as hardware, software, or a combination of both hardware and software, including an integrated circuit specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable medium. In particular, the program according to this embodiment may be composed of a PC-based program or a mobile terminal-specific application. The application to which the present invention is applied can be installed on a user terminal through a file provided by a file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request from the user terminal.

본 발명의 일 실시예에 따르면, 인코딩된 영상데이터로부터 객체를 인식, 트레킹, 식별 등의 분석을 수행하는 경우에 미리 객체영역을 검출하여 검출된 객체영역에 대해서만 영상분석을 수행하기 때문에, 보다 빠른 속도로 영상을 처리할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, when performing analysis such as recognition, tracking, identification, etc. of an object from encoded image data, the object area is detected in advance and image analysis is performed only on the detected object area, so faster It can be effective in processing video at high speed.

본 발명의 일 실시예에 따르면, 영상분석 전 객체영역을 검출함에 있어서도 1차적으로 불필요한 매크로블록을 선별적으로 제거함으로써, 객체영역 검출에 대한 연산량을 감소시켜 시스템 전체적으로 연산속도를 높일 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, by selectively removing unnecessary macroblocks when detecting an object area before image analysis, the amount of computation for object area detection is reduced, which has the effect of increasing the computation speed of the system as a whole. It can be performed.

본 발명의 일 실시예에 따르면, 객체영역 검출에 있어서 최소의 연산량임에도 불구하고 상당히 높은 수준의 정확도로 객체가 존재할 수 있다고 판단되는 객체영역을 검출할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, despite the minimum amount of calculation in object area detection, it is possible to detect an object area in which an object may exist with a fairly high level of accuracy.

본 발명의 일 실시예에 따르면, 해당 영상데이터를 디코딩하기 위한 디코더부의 구성을 변경하지 않으면서, 해당 디코더부에서 디코딩 과정에서 생성되는 파라미터를 이용함으로써, 가변크기 블록을 이용한 코덱방식이라면 코덱이 변경되더라도, 용이하게 적용될 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, without changing the configuration of the decoder unit for decoding the video data, the codec is changed if it is a codec method using variable size blocks by using parameters generated during the decoding process in the decoder unit. Even so, it can have an effect that can be easily applied.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 표준편차되어서, 표준편차된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be stored or executed in a standardized manner on a networked computing device. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (12)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 메인 메모리를 포함하는 컴퓨팅 시스템에서 수행되는 움직임이 존재하는 프레임의 검출방법으로서,
영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출단계;
상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인단계;
상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출단계; 및
상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단단계;를 포함하는, 움직임이 존재하는 프레임의 검출방법.
A method of detecting a frame in which movement is performed in a computing system including one or more processors and a main memory storing instructions executable by the processors, comprising:
A frame extraction step of extracting a P frame or B frame from video data;
For the P frame or B frame, an intra mode confirmation step of checking information about whether each of a plurality of coding units included in each frame is an intra mode;
A ratio information calculation step of calculating ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and
Based on the ratio information of the P frame or B frame, a motion frame determination step of determining that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist; a frame in which motion exists, including; Detection method.
청구항 1에 있어서,
상기 영상데이터는 HEVC 규약에 따라 인코딩된 영상데이터를 포함하는, 움직임이 존재하는 프레임의 검출방법.
In claim 1,
A method of detecting a frame in which motion exists, wherein the video data includes video data encoded according to the HEVC protocol.
청구항 1에 있어서,
상기 움직임프레임판단단계는,
각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하는, 움직임이 존재하는 프레임의 검출방법.
In claim 1,
The motion frame judgment step is,
When the ratio information of each P frame or B frame is higher than a preset first threshold, a method of detecting a frame in which motion is present, determines that the P frame or B frame in question is a frame in which motion is present.
삭제delete 삭제delete 청구항 1에 있어서,
상기 움직임프레임판단단계는,
복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 관련 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하는, 움직임이 존재하는 프레임의 검출방법.
In claim 1,
The motion frame judgment step is,
When the standard deviation value of the ratio information of a plurality of P-frames or B-frame groups is higher than the preset second threshold, the relevant P-frame or B-frame is judged as a frame with motion, and the frame with motion is determined. Detection method.
청구항 6에 있어서,
상기 움직임프레임판단단계는,
N번째 P프레임 혹은 B프레임이 움직임이 존재하는 프레임인지 여부를 판단하는 경우, N번째 P프레임 혹은 B프레임에서 N+M번째 P프레임 혹은 B프레임까지의 복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, N번째 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하는, 움직임이 존재하는 프레임의 검출방법.
In claim 6,
The motion frame judgment step is,
When determining whether the Nth P frame or B frame is a frame in which movement exists, the above ratio of a plurality of P frames or B frame groups from the Nth P frame or B frame to the N+Mth P frame or B frame A method of detecting a frame with motion, where the Nth P frame or B frame is determined as a frame with motion when the standard deviation value of information is higher than a preset second threshold value.
삭제delete 삭제delete 청구항 1에 있어서,
상기 움직임프레임판단단계는,
각각의 P프레임 혹은 B프레임의 상기 비율정보가 기설정된 제1임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하고,
복수의 P프레임 혹은 B프레임 그룹의 상기 비율정보의 표준편차값이 기설정된 제2임계수치보다 높은 경우에, 해당 P프레임 혹은 B프레임을 움직임이 존재하는 프레임으로 판단하는, 움직임이 존재하는 프레임의 검출방법.
In claim 1,
The motion frame judgment step is,
If the ratio information of each P frame or B frame is higher than the preset first threshold value, the corresponding P frame or B frame is judged as a frame in which movement exists,
When the standard deviation value of the ratio information of a plurality of P-frames or B-frame groups is higher than the preset second threshold, the corresponding P-frame or B-frame is judged as a frame with motion, and the frame with motion is determined. Detection method.
하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 메인 메모리를 포함하는 움직임이 존재하는 프레임의 검출장치로서,
영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출부;
상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인부;
상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출부; 및
상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단부;를 포함하는, 움직임이 존재하는 프레임의 검출장치
A detection device for frames in which movement is present, comprising one or more processors and a main memory storing instructions executable by the processors,
A frame extraction unit that extracts P frames or B frames from video data;
For the P frame or B frame, an intra mode confirmation unit that checks information on whether each of a plurality of coding units included in each frame is an intra mode;
A ratio information calculation unit that calculates ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and
A frame in which movement exists, including a motion frame determination unit that determines that the P frame or B frame is a frame in which movement exists or a frame in which movement does not exist, based on the ratio information of the P frame or B frame. detection device
하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은,
영상데이터로부터 P프레임 혹은 B프레임을 추출하는 프레임추출단계;
상기 P프레임 혹은 B프레임에 대하여, 각각의 프레임에 포함된 복수의 코딩 유닛 각각이 인트라모드인 지에 대한 정보를 확인하는 인트라모드확인단계;
상기 P프레임 혹은 B프레임 각각에 대하여, 복수의 코딩 유닛 중 인트라모드에 해당하는 코딩 유닛의 비율정보을 산출하는 비율정보산출단계; 및
상기 P프레임 혹은 B프레임의 상기 비율정보에 기초하여, 상기 P프레임 혹은 B프레임이 움직임이 존재하는 프레임 혹은 움직임이 존재하지 않는 프레임으로 판단하는 움직임프레임판단단계;를 포함하는 컴퓨터 프로그램.
1. A computer program stored on a computer-readable medium comprising a plurality of instructions executed by one or more processors, comprising:
The computer program is,
A frame extraction step of extracting a P frame or B frame from video data;
For the P frame or B frame, an intra mode confirmation step of checking information about whether each of a plurality of coding units included in each frame is an intra mode;
A ratio information calculation step of calculating ratio information of a coding unit corresponding to an intra mode among a plurality of coding units for each of the P frame or B frame; and
A computer program comprising; a motion frame determination step of determining that the P frame or B frame is a frame in which motion exists or a frame in which motion does not exist, based on the ratio information of the P frame or B frame.
KR1020210078246A 2021-05-21 2021-06-16 Moving Frame Detecting Method, Device and Computer Program Thereof KR102592089B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210065484 2021-05-21
KR1020210065484 2021-05-21

Publications (2)

Publication Number Publication Date
KR20220157832A KR20220157832A (en) 2022-11-29
KR102592089B1 true KR102592089B1 (en) 2023-10-20

Family

ID=84235107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210078246A KR102592089B1 (en) 2021-05-21 2021-06-16 Moving Frame Detecting Method, Device and Computer Program Thereof

Country Status (1)

Country Link
KR (1) KR102592089B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232734A (en) 2009-03-25 2010-10-14 Panasonic Corp Image encoding apparatus, and image encoding method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101409826B1 (en) 2012-10-19 2014-06-24 한양대학교 산학협력단 Method for motion prediction using adaptive search range

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232734A (en) 2009-03-25 2010-10-14 Panasonic Corp Image encoding apparatus, and image encoding method

Also Published As

Publication number Publication date
KR20220157832A (en) 2022-11-29

Similar Documents

Publication Publication Date Title
KR102261669B1 (en) Artificial Neural Network Based Object Region Detection Method, Device and Computer Program Thereof
JP5555221B2 (en) Method and apparatus for adaptive color model parameter estimation of object of interest
US10373458B2 (en) Automatic threat detection based on video frame delta information in compressed video streams
WO2016180129A1 (en) Prediction mode selection method, apparatus and device
CN109104609A (en) A kind of lens boundary detection method merging HEVC compression domain and pixel domain
KR101149522B1 (en) Apparatus and method for detecting scene change
Jiang et al. Detection of double compressed HEVC videos using GOP-based PU type statistics
Uddin et al. Double compression detection in HEVC-coded video with the same coding parameters using picture partitioning information
Mao et al. Mobieye: An efficient cloud-based video detection system for real-time mobile applications
US20160350934A1 (en) Foreground motion detection in compressed video data
KR102132335B1 (en) Object Region Detection Method, Device and Computer Program Thereof
Laumer et al. Moving object detection in the H. 264/AVC compressed domain
KR102592089B1 (en) Moving Frame Detecting Method, Device and Computer Program Thereof
CN112070797A (en) Target detection method, system, acceleration device, medium and electronic equipment
KR102345258B1 (en) Object Region Detection Method, Device and Computer Program Thereof
Yin et al. A fast block partitioning algorithm based on SVM for HEVC intra coding
WO2018205781A1 (en) Method for use in achieving motion estimation and electronic device
KR20200067682A (en) syntax-based method of providing object classification in compressed video by use of neural network which is learned by cooperation with an external commercial classifier
KR102530635B1 (en) Object Region Detection Method, Device and Computer Program For Traffic Information and Pedestrian Information Thereof
KR102557904B1 (en) The Method of Detecting Section in which a Movement Frame Exists
CN110519597B (en) HEVC-based encoding method and device, computing equipment and medium
KR102637947B1 (en) The Method, Apparatus, and Computer-Readable Medium which Calculate Threshold for Detecting Static Section in Real-time Video
Pakdaman et al. BLINC: lightweight bimodal learning for low-complexity VVC intra-coding
KR102592088B1 (en) High Resolution Video Analyzing Method, Device, and Computer Program Using Streaming Module
KR20230040285A (en) Method and system for detecting an object region based on bitstream information of image information

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant