KR20230113012A - 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 - Google Patents

동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 Download PDF

Info

Publication number
KR20230113012A
KR20230113012A KR1020220009364A KR20220009364A KR20230113012A KR 20230113012 A KR20230113012 A KR 20230113012A KR 1020220009364 A KR1020220009364 A KR 1020220009364A KR 20220009364 A KR20220009364 A KR 20220009364A KR 20230113012 A KR20230113012 A KR 20230113012A
Authority
KR
South Korea
Prior art keywords
artificial intelligence
image
intelligence model
frame images
electronic device
Prior art date
Application number
KR1020220009364A
Other languages
English (en)
Inventor
백승렬
김동욱
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020220009364A priority Critical patent/KR20230113012A/ko
Publication of KR20230113012A publication Critical patent/KR20230113012A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 개시는 전자 장치가 딥페이크 영상을 검증하는 방법 및 이를 수행하는 전자 장치에 관한 것이다. 일 실시 예에 의하면, 전자 장치가 딥페이크 영상을 검증하는 방법은 검증 대상 영상을 획득하는 단계; 상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하는 단계; 상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하는 단계; 및 상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는 단계; 를 포함할 수 있다.

Description

동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 {METHOD AND APPARATUS FOR VERIFICATION OF FAKE VIDEO THROUGH ARTIFICIAL INTELLIGENCE MODEL}
본 개시는 딥페이크 비디오 또는 영상을 검증하는 방법 및 이를 수행하는 전자 장치에 관한 것이다. 보다 상세하게는 인공지능 모델을 이용하여 유명인에 대한 페이크 동영상 생성, 유포 및 제작을 검거하기 위한 딥페이크 영상 검증 방법에 관한 것이다.
인공 지능 기술이 영상 합성에 적용됨에 따라 유명인에 대한 페이크 동영상 생성, 유포 및 제작을 통해 유명인의 프라이버시가 침해되는 경우가 많아 지고 있다.
온라인을 통한 합성 영상 배포의 경우, 짧은 시간 내 광범위하게 퍼지는 경우가 많고, 한번 퍼진 합성 영상의 경우 네트워크 내 복수의 저장소를 통해 지속적으로 갱신될 수 있어 제거하기 어려운 경우가 많다.
따라서, 인공지능 기술을 활용하여 유명인에 대한 딥페이크 영상을 자동으로 탐지하고, 이를 확인하기 위한 기술 개발이 요구되고 있다.
한국등록특허 제2323650호
일 실시 예에 따르면, 인공 지능 모델을 이용하여 검증 대상 영상이 딥페이크 영상 인지 여부를 검증하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.
일 실시 예에 의하면, 검증 대상 영상 내 프레임 별 특징 벡터를 이용하여 검증 대상 영상이 딥페이크 영상인지 여부를 검증하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 실시 예에 따라, 전자 장치가 딥페이크 영상을 검증하는 방법에 있어서, 검증 대상 영상을 획득하는 단계; 상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하는 단계; 상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하는 단계; 및 상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는 단계; 를 포함하는, 방법이 제공될 수 있다.
상술한 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 의하면, 딥페이크 영상을 검증하는 전자 장치에 있어서, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 검증 대상 영상을 획득하고, 상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하고, 상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하고, 상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는, 전자 장치가 제공될 수 있다.
또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 전자 장치가 딥페이크 영상을 검증하는 방법에 있어서, 검증 대상 영상을 획득하는 단계; 상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하는 단계; 상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하는 단계; 및 상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.
도 1은 일 실시 예에 따라 전자 장치가 검증 대상 영상이 딥페이크 영상인지 여부를 검증하는 과정을 개략적으로 나타내는 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 이용하는 인공 지능 모델을 이용한 딥페이크 영상 검증 과정을 나타내는 도면이다.
도 3은 일 실시 예에 따른 전자 장치가 수행하는 딥페이크 영상을 검증하는 방법의 흐름도이다.
도 4는 일 실시 예에 따른 인공 지능 모델의 구조를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 인공 지능 모델의 구조를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 블록도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시 예에 따라 전자 장치가 검증 대상 영상이 딥페이크 영상인지 여부를 검증하는 과정을 개략적으로 나타내는 도면이다.
일 실시 예에 따른 전자 장치(1000)는 검증 대상 영상(101)을 획득하고, 획득된 검증 대상 영상(101)을 인공 지능 모델에 입력함으로써, 검증 대상 영상이 딥페이크 영상인지 여부를 나타내는 딥페이크 결과 정보(150)를 획득할 수 있다. 일 실시 예에 의하면, 딥페이크 영상은 유명인에 대한 얼굴 영상을 대상 영상 내 상기 유명인과 다른 사람의 얼굴 영상에 합성한 영상을 포함할 수 있다.
딥페이크 영상의 특징은 딥러닝 모델이 각 프레임 마다 가짜 사진을 생성하므로, 실제 동영상에 비해 프레임간의 얼굴이 비교적 많이 차이 나는 특징이 존재한다. 본 개시에 따른 전자 장치(1000)는 인공 지능 모델을 이용하여, 프레임 간의 이미지 특징의 차이를 탐지함으로써, 검증 대상 영상이 딥페이크 영상인지 여부를 결정할 수 있다.
본 개시에 따른 전자 장치(1000)는 검증 대상 영상(101)을 획득하고, 획득된 검증 대상 영상(101)을 미리 설정된 프레임 간격을 가지는 복수의 프레임 이미지들(102, 104)로 분리할 수 있다. 일 실시 예에 의하면, 검증 대상 영상(101)은 복수의 프레임 간격으로 마련되는 복수의 프레임 이미지들을 포함하는 시퀀스에 대응될 수 있다. 본 개시에 따른 전자 장치(1000)는 전자 장치와 연결된 서버상에서 유포, 배포되는 검증 대상 영상을 획득하고, 획득된 검증 대상 영상을 자동으로 분석함으로써, 검증 대상 영상이 딥페이크 영상인지 여부를 자동으로 결정할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 전자 장치와 연결된 서버 또는 다른 전자 장치와 데이터를 송수신하기 위한 네트워크 인터페이스를 더 포함할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)의 메모리에는 복수의 인공 지능 모델(120, 140)에 대한 정보들이 저장될 수 있고, 프로세서는 메모리에 저장된 복수의 인공 지능 모델에 대한 정보들을 실행함으로써, 검증 대상 영상에 대한 딥페이크 검증 방법을 수행할 수 있다.
도 2는 일 실시 예에 따른 전자 장치가 이용하는 인공 지능 모델을 이용한 딥페이크 영상 검증 과정을 나타내는 도면이다.
도 2를 참조하여 전자 장치(1000)가 인공 지능 모델을 이용하여 딥페이크 영상을 검증하는 과정을 설명하기로 한다. 전자 장치(1000)는 검증 대상 영상을 획득하고, 획득된 검증 대상 영상을 소정의 프레임 간격을 가지는 프레임 이미지들(202, 204)로 분할할 수 있다. 전자 장치(1000)는 획득된 프레임 이미지들(202, 204)을 합성곱 기반 딥러닝 모델(212)에 입력하고, 합성곱 기반 딥러닝 모델로부터 각 프레임 이미지들 각각에 대한 특징 벡터(214)를 획득할 수 있다. 전자 장치(1000)는 특징 벡터들은 각 프레임 이미지들 간의 시계열 적 순서에 기초하여 RNN 신경망 모델(216)로 입력될 수 있다. 전자 장치(1000)는 RNN 신경망 모델(216)로부터 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보(232)를 획득할 수 있다.
일 실시 예에 의하면, 합성곱 기반 딥러닝 모델은 VGG 16 모델로 마련될 수 있다. 일 실시 예에 의하면 합성곱 기반 딥러닝 모델은 3*3 크기의 합성곱 필터를 이용한 연산을 반복적으로 수행할 수 있고, 모델의 초반부에는 합성곱 연산으로 영상의 특징점을 찾아내고, 이를 1d 벡터로 변환하여 표현할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 합성곱 기반 딥러닝 모델로부터 출력되는 복수의 특징 벡터들 사이의 코사인 유사도를 식별하고, 식별된 코사인 유사도값에 기초하여, 검증 대상 영상이 딥페이크 영상인지 여부를 확인할 수 있다.
영상을 벡터로 표현하는 방법에는 다층 퍼셉트론(ML0), 합성곱 기반 딥러닝 모델(CNN)이 있고, 다층 퍼셉트론은 합성곱 기반에 비해 대체로 많은 연산이 필요한 경향이 있다. 합성곱 기반 딥러닝의 경우 영상에서 인접한 영역의 특징을 참조하여 연산을 수행하는 장점이 있어, MLP에 비해 연산량이 많이 필요하지 않은 장점이 있다.
특히, VGG 16 이전의 네트워크는 합성곱 연산의 필터 크기가 크다는 특징이 있었는데, 큰 필터로 합성곱 연산을 하는 것 보다, 작은 크기(3*3)크기의 필터로 합성곱 연산을 더 많은 횟수로 반복하는 것이 더 효율적이기 때문에, 본 개시에 따른 전자 장치(1000)는 검증 대상 영상을 분석함에 있어, VGG 16 합성곱 기반 인공 지능 모델을 이용함으로써, 적은 연산량으로 검증 대상 영상을 처리할 수 있는 장점이 있다.
도 3은 일 실시 예에 따른 전자 장치가 수행하는 딥페이크 영상을 검증하는 방법의 흐름도이다.
S310에서, 전자 장치(1000)는 검증 대상 영상을 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치와 연결된 서버에 액세스함으로써 인터넷, SNS 상에 업로드된 검증 대상 영상을 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 모니터링 대상 타겟이 되는 사람의 영상 또는 이미지 정보를 획득하고, 획득된 타겟의 영상 또는 이미지 정보에 기초하여, 서버상에서 검증 대상 영상을 자동으로 검색할 수도 있다.
S320에서, 전자 장치(1000)는 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 검증 대상 영상을 상기 소정의 프레임 간격을 가지는 프레임 이미지들로 분할함으로써 프레임 이미지들을 획득할 수 있다.
S330에서, 전자 장치(1000)는 프레임 이미지들이 입력되면 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에, 프레임 이미지들을 입력함으로써, 제1 인공 지능 모델로부터 프레임 이미지들 각각에 대한 특징 벡터들을 획득할 수 있다. 일 실시 예에 의하면, 제1 인공 지능 모델은 합성곱 기반 신경망 모델일 수 있다.
일 실시 예에 의하면, 제1 인공 지능 모델은 전자 장치 내 프로세서의 제어에 의해, 상기 검증 대상 영상에 포함된 복수의 프레임 이미지들에서 인접한 영역의 특징을 참조하고, 합성곱 연산, 최대값 풀링 연산, 다층퍼셉트론 연산 및 드롭 아웃 연산을 수행할 수 있다.
또한, 일 실시 예에 의하면, 제1 인공 지능 모델은, 전자 장치 내 프로세서의 제어에 의해, 상기 합성곱 연산 중간에 최대값 풀링을 이용하여 검증 대상 영상의 해상도를 낮추어 연산량을 줄이고, 상기 검증 대상 영상의 해상도가 소정의 임계 해상도보다 낮아지면 상기 다층퍼셉트론 연산을 수행하는 다층 퍼셉트론 네트워크를 이용해 특징을 추출할 수 있다.
일 실시 예에 의하면, 제1 인공 지능 모델은 합성곱 연산 중간에 최대값 풀링을 이용하여 검증 대상 영상의 해상도를 낮추어 연산량을 줄이고, 검증 대상 영상의 해상도가 소정의 임계 해상도보다 낮아지면 다층 퍼셉트론 연산을 수행하는 다층 퍼셉트론 네트워크를 이용해 특징을 추출할 수 있다. 또한, 일 실시 예에 의하면, 제1 인공 지능 모델은 학습 과정에서 발생하는 오버 피팅을 최소화 하기 위해 드롭 아웃 연산을 수행하는 드롭 아웃 네트워크가 다층 퍼셉트론 네트워크 사이에 추가될 수 있다.
S340에서, 전자 장치(1000)는 특징 벡터들이 입력되면, 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 특징 벡터들을 입력함으로써, 제2 인공 지능 모델로부터 결과 정보를 획득할 수 있다. 일 실시 예에 의하면, 제2 인공 지능 모델은 순환 신경망 모델일 수 있다. 또한, 일 실시 예에 의하면, 결과 정보를 획득하는 단계는 검증 대상 영상이 미리 설정된 사람 객체에 대한 이미지를 합성함으로써 생성되는 딥페이크 영상인지 여부를 결과 정보로 획득하는 단계를 포함할 수 있다.
일 실시 예에 의하면, 제2 인공 지능 모델의 입출력 값의 길이는 검증 대상 영상 내 프레임의 수에 기초하여 결정될 수 있고, 본 개시에 따른 제2 인공 지능 모델은 입출력 길이에 따라 다양하게 설정될 수 있다. 본 개시에 따른 제2 인공 지능 모델은 RNN 신경망 모델로, 순서가 있는 데이터를 모델링함에 있어 강점이 있으며, 검증 대상 영상 내 프레임들로부터 나타나는 시계열 정보에 기초하여 의미론적인 특징 및 사람이 지각하는 특징을 모델링할 수 있다.
사전학습된 딥러닝 구조는 영상에서 의미론적인 특징과 사람이 지각하는 특징을 모델링하게 되고, 딥러닝 구조에서 추출된 특징으로 영상을 비교하면 합성된 것과 원본 영상과의 차이가 원본 영상끼리의 차이 보다 더 두드러지게 나타나는 특징이 있다. 따라서, 본 개시에 따른 전자 장치(1000)는 이러한 딥러닝 구조에서 추출된 영상의 특성의 기초하여, 딥 페이크를 효과적으로 탐지할 수 있다.
도 4는 일 실시 예에 따른 인공 지능 모델의 구조를 설명하기 위한 도면이다.
도 4를 참조하면, 인공 지능 모델 내 합성곱 연산 및 최대값(맥스)풀링 연산, 드롭아웃 연산, 다층 퍼셉트론 연산을 수행하기 위한 네트워크 레이어들과, 각 레이어들의 입출력 쉐입이 도시된다.
도 5는 일 실시 예에 따른 인공 지능 모델의 구조를 설명하기 위한 도면이다.
그림 (510)을 참조하면, 일 실시 예에 따른 인공 지능 모델의 예로 RNN 신경망이 도시된다. 일 실시 예에 의하면, RNN 신경망 모델은 도 5에 도시된 바와 같이, 순서가 있는 데이터를 입출력 길이를 다양하게 하여 획득할 수 있으며, 은틱층이 이전 데이터를 참조하도록 서로 연결된 특징이 있다.
도 5에 도시된 수학식과 같이, 입력값 xt는 ht라는 결과 값을 출력과 동시에 다음 출력 값 ht+1에 영향을 미치게 되고 이전 데이터가 현재 데이터에 영향을 미치는 과정을 수식으로 표현하면 y=WhyhN과 같이 나타날 수 있다. RNN 신경망은 state 값이라 불리는 ht 값은 시간을 기준으로 현재를 나타내는 상태값이고, ht-1은 이전 상태 값을 나타낼 수 있다. 제2 인공 지능 모델은 ht 값을 계산하기 위해 ht-1 값을 항상 참조하며, y는 ht 값에 가중치 Why를 곱한 값으로 마련될 수 있다.
도 6은 일 실시 예에 따른 전자 장치의 블록도이다.
일 실시 예에 의하면, 전자 장치(1000)는 프로세서(1300), 네트워크 인터페이스(1500) 및 메모리(1700)를 포함할 수 있다. 일 실시 예에 의하면, 프로세서(1300)는 메모리(1700)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 딥페이크 영상을 검증하는 방법을 수행할 수 있다. 일 실시 예에 의하면, 메모리(1700)는 하나 이상의 인공 지능 모델에 대한 정보를 저장할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델은, 인공 지능 학습 알고리즘에 따라 학습되는 기계 학습 모델, 인공 신경망 모델을 포함할 수 있다. 일 실시 예에 의하면, 인공 신경망 모델은 인공 신경망(Artificial Neural Network)으로써, 생물학적 신경망에 착안된 컴퓨팅 시스템을 지칭할 수 있다. 인공 신경망 모델은 미리 정의된 조건에 따라 작업을 수행하는 고전적인 알고리즘과 달리, 다수의 샘플들을 고려함으로써 작업을 수행하는 것을 학습할 수 있다.
인공 신경망 모델은 인공 뉴런(neuron)들이 연결된 구조를 가질 수 있고, 뉴런들 간의 연결은 시냅스(synapse)로 지칭될 수 있다. 뉴런은 수신된 신호를 처리할 수 있고, 처리된 신호를 시냅스를 통해서 다른 뉴런에 전송할 수 있다. 뉴런의 출력은 액티베이션(activation)으로 지칭될 수 있고, 뉴런 및/또는 시냅스는 변동될 수 있는 가중치(weight)를 가질 수 있고, 가중치에 따라 뉴런에 의해 처리된 신호의 영향력이 증가하거나 감소할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 인공 지능 모델(예컨대 신경망 모델)에서 획득한 손실(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 수정 및 갱신될 수 있다. 본 개시에 따른 인공 신경망 모델은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
일 실시 예에 의하면, 도 6에는 도시되지 않았지만, 전자 장치(1000)는 디스플레이 및 사용자 입력 인터페이스를 더 포함할 수도 있다. 일 실시 예에 의하면, 사용자 입력 인터페이스(미도시)는, 사용자가 전자 장치(1000)를 제어하기 위한 시퀀스를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 인터페이스(미도시)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 사용자 입력 인터페이스(미도시)는 전자 장치(1000)가 디스플레이 상에 출력한 화면에 대한 사용자의 입력 시퀀스를 수신할 수 있다. 또한, 사용자 입력 인터페이스(미도시)는 디스플레이를 터치하는 사용자의 터치 입력 또는 디스플레이상 그래픽 사용자 인터페이스를 통한 키 입력을 수신할 수도 있다. 디스플레이(미도시)는 딥페이크 영상 정보, 검증 대상 영상, 검증 결과로써 딥페이크 영상인지 여부에 대한 정보를 출력할 수 있다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력 인터페이스(미도시), 디스플레이 (미도시), 네트워크 인터페이스(1500)를 전반적으로 제어할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 상기 하나 이상의 인스트럭션을 실행함으로써, 검증 대상 영상을 획득하고, 상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하고, 상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하고, 상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 상기 검증 대상 영상이 미리 설정된 사람 객체에 대한 이미지를 합성함으로써 생성되는 딥페이크 영상인지 여부를 상기 결과 정보로 획득할 수 있다.
일 실시 예에 의하면, 프로세서(1300)는 메모리에 저장된 제1 인공 지능 모델을 이용하여, 상기 검증 대상 영상에 포함된 복수의 프레임 이미지들에서 인접한 영역의 특징을 참조하고, 합성곱 연산, 최대값 풀링 연산, 다층퍼셉트론 연산 및 드롭 아웃 연산을 수행할 수 있다.
또한, 프로세서(1300)는 제1 인공 지능 모델로 하여금 상기 합성곱 연산 중간에 최대값 풀링을 이용하여 검증 대상 영상의 해상도를 낮추어 연산량을 줄이고, 상기 검증 대상 영상의 해상도가 소정의 임계 해상도보다 낮아지면 상기 다층퍼셉트론 연산을 수행하는 다층 퍼셉트론 네트워크를 이용해 특징을 추출하도록 제어할 수 있다.
또한, 일 실시 예에 의하면, 프로세서(1300)는 메모리에 저장된 제2 인공 지능 모델로 하여금, 상기 검증 대상 영상 내 프레임들로부터 나타나는 시계열 정보에 기초하여 의미론적인 특징 및 사람이 지각하는 특징을 모델링하도록 제어할 수 있다.
네트워크 인터페이스(1500)는 전자 장치와 연결된 서버 또는 다른 전자 장치와의 사이에 데이터를 송수신할 수 있다. 일 실시 예에 의하면, 네트워크 인터페이스(1500)는 다른 전자 장치 또는 서버로부터 검증 대상 영상을 획득할 수 있고, 딥페이크 검증 결과에 대한 결과 정보를 서버 또는 다른 전자 장치로 전송할 수도 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치(1000)가 외부 디바이스로부터 획득한 검증 대상 영상, 딥페이크 검증 결과 정보, 인공 지능 모델에 대한 정보를 더 저장할 수 있다.
또한, 일 실시 예에 의하면, 메모리(1700)는 전자 장치(1000)가 이용하는 인공 지능 모델에 대한 정보 외에, 상기 인공 지능 모델을 학습시키기 위한 각종 인공 지능 학습 알고리즘에 대한 인스트럭션을 더 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치가 이용하는 인공 지능 모델이 인공 신경망 모델인 경우, 인공 신경망 모델을 구성하는 레이어들 및 레이어들 간의 가중치에 관한 정보를 더 저장할 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
또한, 상기 일 실시 예에 다른 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 개시의 실시예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.

Claims (15)

  1. 전자 장치가 딥페이크 영상을 검증하는 방법에 있어서,
    검증 대상 영상을 획득하는 단계;
    상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하는 단계;
    상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하는 단계; 및
    상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는 단계; 를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 제1 인공 지능 모델은 합성곱 기반 신경망 모델이고,
    상기 제2 인공 지능 모델은 순환 신경망 모델인 것을 특징으로 하는, 방법.
  3. 제1항에 있어서, 상기 결과 정보를 획득하는 단계는
    상기 검증 대상 영상이 미리 설정된 사람 객체에 대한 이미지를 합성함으로써 생성되는 딥페이크 영상인지 여부를 상기 결과 정보로 획득하는 단계; 를 포함하는, 방법.
  4. 제2항에 있어서, 상기 제1 인공 지능 모델은
    상기 검증 대상 영상에 포함된 복수의 프레임 이미지들에서 인접한 영역의 특징을 참조하고,
    합성곱 연산, 최대값 풀링 연산, 다층퍼셉트론 연산 및 드롭 아웃 연산을 수행하는 것을 특징으로 하는, 방법.
  5. 제4항에 있어서, 상기 제1 인공 지능 모델은
    상기 합성곱 연산 중간에 최대값 풀링을 이용하여 검증 대상 영상의 해상도를 낮추어 연산량을 줄이고,
    상기 검증 대상 영상의 해상도가 소정의 임계 해상도보다 낮아지면 상기 다층퍼셉트론 연산을 수행하는 다층 퍼셉트론 네트워크를 이용해 특징을 추출하는 것을 특징으로 하는, 방법.
  6. 제5항에 있어서, 상기 제1 인공 지능 모델은
    학습 과정에서 발생하는 오버 피팅을 최소화하기 위해 상기 드롭 아웃 연산을 수행하는 드롭 아웃 네트워크가 상기 다층 퍼셉트론 네트워크 사이에 추가되는 것을 특징으로 하는, 방법.
  7. 제5항에 있어서,
    상기 제2 인공 지능 모델의 입출력 값의 길이는
    상기 검증 대상 영상 내 프레임의 수에 기초하여 결정되고,
    상기 검증 대상 영상 내 프레임들로부터 나타나는 시계열 정보에 기초하여 의미론적인 특징 및 사람이 지각하는 특징을 모델링하는 것을 특징으로 하는, 방법.
  8. 딥페이크 영상을 검증하는 전자 장치에 있어서,
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    검증 대상 영상을 획득하고,
    상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하고,
    상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하고,
    상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는, 전자 장치.
  9. 제8항에 있어서,
    상기 제1 인공 지능 모델은 합성곱 기반 신경망 모델이고,
    상기 제2 인공 지능 모델은 순환 신경망 모델인 것을 특징으로 하는, 전자 장치.
  10. 제8항에 있어서, 상기 적어도 하나의 프로세서는
    상기 검증 대상 영상이 미리 설정된 사람 객체에 대한 이미지를 합성함으로써 생성되는 딥페이크 영상인지 여부를 상기 결과 정보로 획득하는, 전자 장치.
  11. 제9항에 있어서, 상기 제1 인공 지능 모델은
    상기 검증 대상 영상에 포함된 복수의 프레임 이미지들에서 인접한 영역의 특징을 참조하고,
    합성곱 연산, 최대값 풀링 연산, 다층퍼셉트론 연산 및 드롭 아웃 연산을 수행하는 것을 특징으로 하는, 전자 장치.
  12. 제11항에 있어서, 상기 제1 인공 지능 모델은
    상기 합성곱 연산 중간에 최대값 풀링을 이용하여 검증 대상 영상의 해상도를 낮추어 연산량을 줄이고,
    상기 검증 대상 영상의 해상도가 소정의 임계 해상도보다 낮아지면 상기 다층퍼셉트론 연산을 수행하는 다층 퍼셉트론 네트워크를 이용해 특징을 추출하는 것을 특징으로 하는, 전자 장치.
  13. 제12항에 있어서, 상기 제1 인공 지능 모델은
    학습 과정에서 발생하는 오버 피팅을 최소화하기 위해 상기 드롭 아웃 연산을 수행하는 드롭 아웃 네트워크가 상기 다층 퍼셉트론 네트워크 사이에 추가되는 것을 특징으로 하는, 전자 장치.
  14. 제12항에 있어서,
    상기 제2 인공 지능 모델의 입출력 값의 길이는
    상기 검증 대상 영상 내 프레임의 수에 기초하여 결정되고,
    상기 검증 대상 영상 내 프레임들로부터 나타나는 시계열 정보에 기초하여 의미론적인 특징 및 사람이 지각하는 특징을 모델링하는 것을 특징으로 하는, 전자 장치.
  15. 전자 장치가 딥페이크 영상을 검증하는 방법에 있어서,
    검증 대상 영상을 획득하는 단계;
    상기 획득된 검증 대상 영상 내 소정의 프레임 간격을 가지는 프레임 이미지들을 획득하는 단계;
    상기 획득된 프레임 이미지들이 입력되면, 상기 프레임 이미지들에 대한 특징 벡터를 출력하는 제1 인공 지능 모델에 상기 프레임 이미지들을 입력함으로써, 상기 제1 인공 지능 모델로부터 상기 프레임 이미지들 각각에 대한 특징 벡터들을 획득하는 단계; 및
    상기 획득된 특징 벡터들이 입력되면 상기 검증 대상 영상이 딥페이크 영상인지 여부에 대한 결과 정보를 출력하는 제2 인공 지능 모델에, 상기 특징 벡터들을 입력함으로써 상기 제2 인공 지능 모델로부터 상기 결과 정보를 획득하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020220009364A 2022-01-21 2022-01-21 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 KR20230113012A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220009364A KR20230113012A (ko) 2022-01-21 2022-01-21 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220009364A KR20230113012A (ko) 2022-01-21 2022-01-21 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20230113012A true KR20230113012A (ko) 2023-07-28

Family

ID=87427352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009364A KR20230113012A (ko) 2022-01-21 2022-01-21 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치

Country Status (1)

Country Link
KR (1) KR20230113012A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102323650B1 (ko) 2021-04-07 2021-11-09 김원국 영상/음성의 생성 이력과 연관된 메타데이터를 포함한 원본 영상/음성 파일 또는 딥페이크 변조 파일을 생성하는 영상/음성획득 또는 편집 장치, 원본 영상/음성 파일 또는 딥페이크 변조 파일 관련 해시값을 수신 및 저장하는 해시뱅크 서버, 원본 영상/음성 파일 또는 딥페이크 변조 파일을 수신 및 처리하는 서버 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102323650B1 (ko) 2021-04-07 2021-11-09 김원국 영상/음성의 생성 이력과 연관된 메타데이터를 포함한 원본 영상/음성 파일 또는 딥페이크 변조 파일을 생성하는 영상/음성획득 또는 편집 장치, 원본 영상/음성 파일 또는 딥페이크 변조 파일 관련 해시값을 수신 및 저장하는 해시뱅크 서버, 원본 영상/음성 파일 또는 딥페이크 변조 파일을 수신 및 처리하는 서버 및 방법

Similar Documents

Publication Publication Date Title
US11769056B2 (en) Synthetic data for neural network training using vectors
US10885317B2 (en) Apparatuses and methods for recognizing object and facial expression robust against change in facial expression, and apparatuses and methods for training
KR102532749B1 (ko) 약한 지도 학습에 기초한 뉴럴 네트워크의 계층적 학습 방법 및 장치
KR102548732B1 (ko) 신경망 학습 방법 및 이를 적용한 장치
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
KR20190113119A (ko) 합성곱 신경망을 위한 주의집중 값 계산 방법
KR20200022739A (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
KR20180057096A (ko) 표정 인식과 트레이닝을 수행하는 방법 및 장치
KR20190111278A (ko) 인공지능 모델을 이용하여 사용자 음성을 변조하기 위한 전자 장치 및 이의 제어 방법
KR20220107302A (ko) 순환 신경망에서의 거리 메트릭 및 클러스터링
US20210397954A1 (en) Training device and training method
KR20190066076A (ko) 시간차 모델을 위한 비지도 학습 기법
KR20200071990A (ko) 전자 장치 및 그의 3d 이미지 표시 방법
US11327320B2 (en) Electronic device and method of controlling the same
CN111183455A (zh) 图像数据处理系统与方法
US20230419721A1 (en) Electronic device for improving quality of image and method for improving quality of image by using same
KR20230113012A (ko) 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치
KR20210089038A (ko) 전자 장치 및 그 제어 방법
Doulamis Vision based fall detector exploiting deep learning
KR102676153B1 (ko) 인공지능 알고리즘 기반의 실시간 유해 컨텐츠 차단 장치 및 방법
KR102598077B1 (ko) 인공지능 알고리즘에 기초하여 저작권을 보호하는 방법 및 장치
KR102607063B1 (ko) 인공지능 모델을 활용한 영상 처리 기반 영상 편집자동화 솔루션 제공 방법, 장치 및 시스템
EP4287078A1 (en) Device for building model for estimating action interval, method for building model for estimating action interval, and program for building model for estimating action interval
US20230377374A1 (en) Action series determination device, method, and non-transitory recording medium
CN113516670B (zh) 一种反馈注意力增强的非模式图像分割方法及装置