KR102536362B1 - 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치 - Google Patents

비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치 Download PDF

Info

Publication number
KR102536362B1
KR102536362B1 KR1020200176658A KR20200176658A KR102536362B1 KR 102536362 B1 KR102536362 B1 KR 102536362B1 KR 1020200176658 A KR1020200176658 A KR 1020200176658A KR 20200176658 A KR20200176658 A KR 20200176658A KR 102536362 B1 KR102536362 B1 KR 102536362B1
Authority
KR
South Korea
Prior art keywords
information
word
image
probability distribution
importance
Prior art date
Application number
KR1020200176658A
Other languages
English (en)
Other versions
KR102536362B9 (ko
KR20220086318A (ko
Inventor
이수원
김희찬
Original Assignee
숭실대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교 산학협력단 filed Critical 숭실대학교 산학협력단
Priority to KR1020200176658A priority Critical patent/KR102536362B1/ko
Publication of KR20220086318A publication Critical patent/KR20220086318A/ko
Application granted granted Critical
Publication of KR102536362B1 publication Critical patent/KR102536362B1/ko
Publication of KR102536362B9 publication Critical patent/KR102536362B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은, 인코더의 CNN(Convolutional Neural Network)으로부터 영상 특징을 추출하는 단계; 상기 인코더의 RNN(Recurrent Neural Network)으로부터 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습하는 단계; LSTM(Long Shot Term Memory)를 통해 상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습하는 단계; 상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하는 단계; 추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성하는 단계; 및 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성하는 단계;를 포함한다. 이에 따라, 동일한 개체에 대한 설명이 단일 단어가 아닌 다수의 단어로 이루어진 경우에도 효과적으로 모델링 할 수 있다.

Description

비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치{VISUAL-TEXTUAL REPRESENTATION SWITCHING METHOD FOR VIDEO CAPTIONING, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}
본 발명은 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 영상에서 하나의 객체나 행동이 한 단어나 여러 단어로 표현되는 경우 이러한 특성을 모델에 명시적으로 반영하기 위한 정보 선택의 스위칭 기술에 관한 것이다.
비디오 캡셔닝은 주어진 영상에 대하여 자연어 문장을 생성하는 문제로, 영상 처리와 자연어처리 연구가 통합된 연구 분야 중 하나이다. 이 문제는 영상을 요약하는 문제로 볼 수 있다. 과거에는 이미지 분류와 같은 영상 컴퓨터 비전과 자동 요약과 같은 자연어 처리 연구가 별도로 연구되어왔다.
현대에는 영상과 자연어가 동시에 존재하는 multi Modal 데이터와 그 분석 수요의 증가로, automatic video subtitling, video surveillance 등과 같이 컴퓨터 비전과 자연어처리가 융합된 연구가 활발히 진행되고 있다. 세부적으로, 비디오 캡셔닝은 주어진 영상에 대한 설명의 밀도(Density)에 따라 세분화될 수 있다.
비디오 캡셔닝은 기존의 이미지 캡셔닝에 비하여 보다 어려운 문제이다. 이 것은 영상 내의 여러 프레임에 나뉘어 존재하는 객체와 그 속성 및 행동에 대한 정보를 추출해야 하기 때문이다. 이 문제를 해결하기 위하여, 영상의 순차 구조를 학습하기 위한 여러 연구들이 제안되었다.
기존 연구들은 Video 특성을 추출하는 방법에 대한 연구이다. 기존 모델들은 동일한 개체에 대한 설명이 단일 단어가 아닌 다수의 단어로 이루어진 경우를 효과적으로 모델링하기 어려운 문제점이 존재한다.
예를 들어, 작은 개에 대한 영상일 때, 이 하나의 객체에 대한 설명으로 'a little dog'나 'a puppy' 등이 가능하다. 이와 같이 하나의 개체나 하나의 액션을 여러 단어로 표현하는 현상을 효과적으로 모델링하기 위한 비디오 캡셔닝 모델을 필요하다.
관련 연구를 살펴보면, 현대의 비디오 캡셔닝 task 에서는 영상과 텍스트 쌍을 End-to-end manner로 학습하는 모델들이 연구되었다. Venugopalan et al. 은 자동요약과 같은 자연어 처리 분야에서 널리 사용되는 sequence-to-sequence 구조와 인코더에 convolution neural network 를 결합한 모델을 제안하였다[Ven15b]. 이 구조는 매 프레임의 정보를 디코딩할 단어에 대한 중요도에 따라 선별할 수 없다는 문제점이 존재한다.
이를 완화하기 위하여, Yao et al.은 프레임별 중요도를 평가하는 temporal attention mechanism 을 적용한 모델을 제안하였다[Yao15]. 보다 자세한 영상 표현을 생성하기 위하여, Ballas et al.은 여러 블럭의 CNN 에서 추출된 표현 마다 각각 RNN 의 일종인 Gated recurrent unit[Cho14]으로 영상 정보를 추상화하는 모델을 제안하였다[Ballas16].
영상은 다른 시점으로 촬영된 작은 영상 클립들의 집합으로 볼 수 있다. 이러한 영상의 특성을 모델링하기 위하여, Baraldi et al. 은 두 층의 recurrent neural network 로 영상의 장면의 분할을 인식시키는 모델을 제안하였다[Baraldi17]. 이것과 유사하게, 영상의 description 에 대하여 문장과 문단의 의미를 계층적으로 모델링할 수 있도록, Yu et al. 은 문장을 위한 RNN 의 상위에 paragraph 를 위한 RNN 구조를 별도로 추가한 모델을 제안하였다[Yu16]. Yang et al.은 비디오 캡셔닝을 위한 Generative adversarial network 모델을 제안하였다[Yang18].
KR 10-1855597 B1 US 10,699,129 B1 US 2020/0342236 A1
[Ven15a] S. Venugopalan, H. Xu, J. Donahue, M. Rohrbach, R. Mooney, and K. Saenko, "Translating Videos to Natural Language using Deep Recurrent Neural Networks", in Proceedings of Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Denver, Colorado, USA, 2015, pp. 1494-1504. [Ven15b] S. Venugopalan, M. Rohrbach, J. Donahue, R. Mooney, T. Darrell, and K. Saenko, "Sequence to Sequence - Video to Text", in Proceedings of IEEE International Conference on Computer Vision, Santiago, Chile, 2015, pp. 4534-4542. [Yang18] Y. Yang, J. Zhou, J. Ai, Y. Bin, A. Hanjalic, H. T. Shen, and Y. Ji, "Video Captioning by Adversarial LSTM", IEEE Transactions on Image Processing, 27(11), 2018, pp. 5600-5611. [Yao15] L. Yao, A. Torabi, K. Cho, N. Ballas, C. Pal, H. Larochelle, and A. Courville, "Describing Videos by Exploiting Temporal Structure", in Proceedings of IEEE International Conference on Computer Vision, Santiago, Chile, 2015, pp. 4507-4515. [Ballas16] N. Ballas, L. Yao, C. Pal, and A. Courville. "Delving Deeper into Convolutional Networks for Learning Video Representations", in Proceedings of International Conference on Learning Representations, San Juan, Puerto Rico, 2016. [Yu16] H. Yu, J. Wang, Z. Huang, Y. Yang, and W. Xu, "Video Paragraph Captioning using Hierarchical Recurrent Neural Networks", in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Las Vegas, Nevada, USA, 2016, pp.4584-4593.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.
본 발명의 또 다른 목적은 상기 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법을 수행하기 위한 장치를 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은, 인코더의 CNN(Convolutional Neural Network)으로부터 영상 특징을 추출하는 단계; 상기 인코더의 RNN(Recurrent Neural Network)으로부터 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습하는 단계; LSTM(Long Shot Term Memory)를 통해 상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습하는 단계; 상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하는 단계; 추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성하는 단계; 및 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성하는 단계;를 포함한다.
본 발명의 실시예에서, 상기 최종 단어 확률 분포를 생성하는 단계는, 영상 정보 기반 로짓과 텍스트 정보 기반 로짓의 가중합으로 최종 단어 확률 분포를 계산할 수 있다.
본 발명의 실시예에서, 상기 최종 단어 확률 분포를 생성하는 단계는, 영상 정보에 따른 단어와 단어 정보에 따른 단어를 각각 선택하여 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링할 수 있다.
본 발명의 실시예에서, 상기 최종 단어 확률 분포를 생성하는 단계는, 영상으로부터 정보를 이용할 것인지 여부에 대해 선택하는 스위칭 단계;를 포함할 수 있다.
본 발명의 실시예에서, 상기 영상 특징을 추출하는 단계는, 영상의 각 프레임을 고정 벡터로 표현할 수 있다.
본 발명의 실시예에서, 상기 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하는 단계는, 시간적 정보(temporal information)에 대한 중요도를 측정하는 단계; 및 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하는 단계;를 포함할 수 있다.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 상기 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다.
상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치는, 영상 특징을 추출하는 인코더의 CNN(Convolutional Neural Network)부; 상기 CNN부에서 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습하는 인코더의 RNN(Recurrent Neural Network)부; 상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습하는 디코더의 LSTM(Long Shot Term Memory)부; 상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하고, 추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성하는 디코더의 주의 메커니즘(attention mechanisms)부; 및 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성하는 디코더의 완전 접속망(fully connected network)부;를 포함한다.
본 발명의 실시예에서, 상기 완전 접속망은, 영상 정보 기반 로짓과 텍스트 정보 기반 로짓의 가중합으로 최종 단어 확률 분포를 계산할 수 있다.
본 발명의 실시예에서, 상기 완전 접속망은, 영상 정보에 따른 단어와 단어 정보에 따른 단어를 각각 선택하여 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링할 수 있다.
본 발명의 실시예에서, 상기 완전 접속망은, 영상으로부터 정보를 이용할 것인지 여부에 대해 선택할 수 있다.
본 발명의 실시예에서, 상기 CNN부는, 영상의 각 프레임을 고정 벡터로 표현할 수 있다.
본 발명의 실시예에서, 상기 주의 메커니즘부는, 시간적 정보(temporal information)에 대한 중요도 및 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정할 수 있다.
이와 같은 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법에 따르면, 하나의 개체나 하나의 액션을 여러 단어로 표현하는 현상을 효과적으로 모델링하기 위한 스위칭 방법을 제안한다. 본 발명에 따른 스위칭 방법은 영상 정보를 이용한 단어 로짓과 텍스트 정보를 이용한 단어 로짓의 가중합으로 구현되었다. MSVD를 이용한 모델 평가 결과, 본 발명의 제안 모델은 기존 모델들에 비하여 좋은 성능을 보였으며, 스위칭 방법은 다양한 형태로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치의 블록도이다.
도 2는 도 1의 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치의 동작을 설명하기 위한 개념도이다.
도 3은 본 발명과 종래기술의 MSVD 데이터셋을 이용하여 평가한 결과를 보여주는 도표이다.
도 4는 본 발명의 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법의 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치의 블록도이다. 도 2는 도 1의 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치의 동작을 설명하기 위한 개념도이다.
본 발명에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치(10, 이하 장치)는 영상에 대한 설명으로 자연어 문장을 생성하는 모델로서, 수 초에서 십 수초의 짧은 비디오 클립에 대한 개괄적인 설명을 생성하는 비디오 캡셔닝 기술이다.
도 1 및 도 2를 참조하면, 본 발명에 따른 장치(10)는 인코더(100)-디코더(300) 구조를 가진다.
상기 인코더(100)는 이미지 처리에 강점을 보이는 CNN부(110)와 순차 학습을 위한 RNN부(130)로 구성된다. 여러 CNN 구조를 사용할 수 있으나, 본 발명의 일 실시예에서는 비교적 적은 파라미터의 수로도 좋은 성능을 보인 MobilenetV2[San18]
Figure 112020136937702-pat00001
를 사용한다.
영상과 그 프레임
Figure 112020136937702-pat00002
을 입력으로, 추상화된 video representation은 마지막 출력 층
Figure 112020136937702-pat00003
과 mean pooling 전의 층
Figure 112020136937702-pat00004
이다. 이를 수식으로 표현하면 아래의 수학식 1과 같다.
[수학식 1]
Figure 112020136937702-pat00005
본 발명은 CNN부(110)로부터 추출된 특징을 기반으로 RNN부(130)로 영상의 순차 정보를 학습한다. 영상의 순차 정보를 학습시키기 위하여, CNN(130)으로부터 추출된 특징을 LSTM(Long short term memory network)
Figure 112020136937702-pat00006
를 이용하여 학습시킨다. 상기 인코더(100)의 은닉 상태
Figure 112020136937702-pat00007
는 다음의 수학식 2와 같이 정의된다. 여기서,
Figure 112020136937702-pat00008
의 mean pooling 이다.
[수학식 2]
Figure 112020136937702-pat00009
본 발명의 디코더(300)는 LSTM(Long Shot Term Memory)부(310), 주의 메커니즘(attention mechanisms)부(330) 및 완전 접속망(fully connected network)부(350)의 세 가지 구성요소로 구성된다.
상기 LSTM(310)는 RNN의 일례로 단어 서열 학습을 위한 요소이다. 상기 LSTM(310)는 상기 인코더(100)에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습한다.
상기 주의 메커니즘부(330)는 하나는 영상 정보를 추려내기 위한 세 가지의 attention mechanisms을 수행한다. 상기 주의 메커니즘부(330)는 상기 인코더(100)의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하고, 추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성한다.
상기 완전 접속망(fully connected network)부(350)는 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 계산한다.
상기 디코더(300)의 LSTM(310)는 추상화된 영상 표현을 입력으로 LSTM
Figure 112020136937702-pat00010
을 이용하여 다음 생성할 단어 확률을 학습한다. 상기 디코더(300)의 은닉 상태
Figure 112020136937702-pat00011
는 다음의 수학식 3과 같이 정의된다.
[수학식 3]
Figure 112020136937702-pat00012
수학식 3에서,
Figure 112020136937702-pat00013
는 영상에 대한 각 프레임 표현
Figure 112020136937702-pat00014
의 평균이다.
Figure 112020136937702-pat00015
는 해당 단어의 임베딩 벡터를 나타낸다. 상기 디코더(300)는 영상의 전체 정보
Figure 112020136937702-pat00016
와 이전 단어 정보만을 이용하여 학습하기 때문에, 단어 생성 시 중요한 프레임 정보를 참조할 필요가 존재한다.
이를 위하여 본 발명에서는 attention mechanism을 사용하여 인코더의 정보를 참조한다. 상기 인코더(100)에서 추상화된 영상 표현이 총 세 가지 이므로, 이 각 세가지에 대한 컨텍스트 정보들은 다음의 수학식 4와 같이 정의된다.
[수학식 4]
Figure 112020136937702-pat00017
수학식 4에서, 시간적 정보(temporal information)에 대한 중요도를 측정하는 attention mechanism은
Figure 112020136937702-pat00018
로, 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하는 attention mecanism은
Figure 112020136937702-pat00019
로 표현되었다.
하나의 개체나 하나의 액션을 여러 단어로 표현하는 경우를 효과적으로 모델링하기 위하여 본 발명은 이번 디코딩 단계에서 영상 정보를 사용할지, 텍스트 정보를 사용할지 판단하는 스위칭 방법을 제안한다.
본 발명에서 제안된 스위칭 방법이 적용된 최종 단어 확률 분포
Figure 112020136937702-pat00020
는 영상 정보 기반 로짓
Figure 112020136937702-pat00021
과 텍스트 정보 기반 로짓 -
Figure 112020136937702-pat00022
의 가중합으로 다음의 수학식 5와 같이 정의된다. -
[수학식 5]
Figure 112020136937702-pat00023
수학식 5에서,
Figure 112020136937702-pat00024
는 소프트 맥스 함수를 나타내고,
Figure 112020136937702-pat00025
는 시그모이드 함수를 나타낸다.
Figure 112020136937702-pat00026
는 활성 함수를 나타내고,
Figure 112020136937702-pat00027
는 단어 사전의 수이다. 이 스위칭 방법에 따라, 디코더(300)는 영상 정보에 따른 단어와 단어 정보에 따른 단어를 따로 선택할 수 있다. 이를 통하여 본 발명은 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링할 수 있다.
모델 학습을 위한 로스 함수는 목표 단어
Figure 112020136937702-pat00028
에 대한 음의 로그 우도 함수로 다음의 수학식 6과 같이 정의된다.
[수학식 6]
Figure 112020136937702-pat00029
이하에서는, 본 발명의 객관적인 성능 평가를 위하여, MSVD 데이터셋을 이용하여 평가한 결과를 기술한다. 기존 연구들과 동일하게 데이터의 분할은 학습에 1200 개의 영상, 검증에 100 개, 평가에는 나머지 670 개를 사용하였다. 영상은 첫 240 frames 중에서 균등한 간격으로 30 frames 이 샘플링되고, 각 프레임은 center crop 후 가로 세로 224 pixel 로 resize 되었다.
전이 학습을 위하여 기존 Image captioning에 사용된 MSCOCO와 Flickr30k의 이미지 데이터를 사용하였다. 이미지 또한 center cropped된 후 resize 되었다.
본 발명의 인코더(100)에서 사용한 CNN은 여러 Imagenet으로 pretrained된 MobilenetV2[San18]를 사용하였다. 최적화 알고리즘은 Adam을 사용하였고, 학습률은 0.00005 로 설정되었다. 이미지를 이용한 사전 학습은 10 epoch 까지 진행되었으며, 10 epoch 의 가중치로부터 MSVD 학습 데이터를 이용하여 재 학습되었다.
최적 모델은 MSVD의 검증 데이터를 이용하여 선택되었다. 인코더(100)의 최대 입력 프레임 수는 30으로 설정되었다. 텍스트는 space tokenized 되었고, lowercase로 전환되었다. 그 이외의 전처리는 수행되지 않았다. 단어 사전의 수는 이미지 데이터와 MSVD의 학습 데이터에 존재하는 단어들의 수로 39,056 개로 설정되었다.
인코더와 디코더의 은닉 차원의 수는 128 로 설정되었다. 평가 척도로 기존 연구들과 마찬가지로 BLEU-4 (B-4) [Ref], METEOR (M) [Ref], CIDEr (C) [Ref]을 사용하였다. BLEU는 정답 caption과 동일한 ngram이 얼마나 존재하는지 Precision의 측면에서 측정하는 척도이다. METEOR는 유의어까지 확장하여 측정하는 척도이며, CIDEr는 TF-IDF 를 이용하여 적은 빈도의 단어를 맞추는 경우 보다 가중치를 적용하는 척도이다. 실험 결과는 도 3과 같다.
도 3을 참조하면, 본 발명은 기존 방법들에 비하여 CIDEr 척도는 좋은 성능을 보였다. 그 이외의 BLEU-4 나 METEOR 척도에서도 제안 방법은 그에 준하는 성능을 보였다.
본 발명은 하나의 개체나 하나의 액션을 여러 단어로 표현하는 현상을 효과적으로 모델링하기 위한 스위칭 방법을 제안하였다. 이 스위칭 방법은 영상 정보를 이용한 단어 로짓과 텍스트 정보를 이용한 단어 로짓의 가중합으로 구현되었다. MSVD 를 이용한 모델 평가 결과, 제안 모델은 기존 모델들에 비하여 좋은 성능을 보였다. 스위칭 방법은 다양한 형태로 구현될 수 있다.
도 4는 본 발명의 일 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법의 흐름도이다.
본 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.
또한, 본 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경을 수행하기 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.
본 발명은 영상에 대한 설명으로 자연어 문장을 생성하는 모델로서, 수 초에서 십 수초의 짧은 비디오 클립에 대한 개괄적인 설명을 생성하는 비디오 캡셔닝 기술이다.
도 4를 참조하면, 본 실시예에 따른 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은, 인코더의 CNN(Convolutional Neural Network)으로부터 영상 특징을 추출한다(단계 S10). 이 단계에서는 영상의 각 프레임을 고정 벡터로 표현한다.
상기 인코더의 RNN(Recurrent Neural Network)으로부터 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습한다(단계 S20).
LSTM(Long Shot Term Memory)를 통해 상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습한다(단계 S30).
상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출한다(단계 S40). 이 경우, 시간적 정보(temporal information)에 대한 중요도 및 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정할 수 있다.
추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성한다(단계 S50).
영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성한다(단계 S60).
상기 최종 단어 확률 분포를 생성하는 단계(단계 S60)는, 영상 정보 기반 로짓과 텍스트 정보 기반 로짓의 가중합으로 최종 단어 확률 분포를 계산할 수 있다.
상기 최종 단어 확률 분포를 생성하는 단계(단계 S60)는, 영상 정보에 따른 단어와 단어 정보에 따른 단어를 각각 선택하여 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링한다. 즉. 영상으로부터 정보를 이용할 것인지 여부에 대해 선택할 수 있다.
이와 같은 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법에 따르면, 하나의 개체나 하나의 액션을 여러 단어로 표현하는 현상을 효과적으로 모델링하기 위한 스위칭 방법을 제안한다. 본 발명에 따른 스위칭 방법은 영상 정보를 이용한 단어 로짓과 텍스트 정보를 이용한 단어 로짓의 가중합으로 구현되었다. MSVD를 이용한 모델 평가 결과, 본 발명의 제안 모델은 기존 모델들에 비하여 좋은 성능을 보였으며, 스위칭 방법은 다양한 형태로 구현될 수 있다.
이와 같은, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
본 발명은 널리 알려진 벤치마크 데이터에 대하여, 기존 방법에 비하여 좋은 성능을 보였다. 또한, 본 발명은 단어 확률 분포 생성 방법에 대한 발명이므로, 현대의 보다 많은 매개변수를 사용하는 GPT나 BERT와 같은 딥러닝 모델에 적용할 경우 더 높은 성능을 지닌 모델로 용이하게 확장 이용이 가능하다.
10: 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치
100: 인코더
110: CNN부
130: RNN부
300: 디코더
310: LSTM부
330: 주의 메커니즘부
350: 완전 접속망부

Claims (13)

  1. 인코더의 CNN(Convolutional Neural Network)으로부터 영상 특징을 추출하는 단계;
    상기 인코더의 RNN(Recurrent Neural Network)에서 상기 CNN으로부터 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습하는 단계;
    디코더의 LSTM(Long Shot Term Memory)를 통해 상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습하는 단계;
    상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하는 단계;
    추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성하는 단계; 및
    영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성하는 단계;를 포함하고,
    상기 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하는 단계는,
    시간적 정보(temporal information)에 대한 중요도를 측정하는 단계; 및
    매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하는 단계;를 포함하고,
    상기 문맥 정보는,
    하기 [수학식 4]에 따라 상기 추상화된 영상 정보에 대한 문맥 정보로 정의되는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법.
    [수학식4]
    Figure 112023501032875-pat00034

    여기서,
    Figure 112023501032875-pat00035
    ,
    Figure 112023501032875-pat00036
    ,
    Figure 112023501032875-pat00037
    는 문맥정보를 의미하고,
    Figure 112023501032875-pat00038
    는 추상화된 video representation을,
    Figure 112023501032875-pat00039
    은 mean pooling 전의 층을,
    Figure 112023501032875-pat00040
    는 인코더의 은닉상태를,
    Figure 112023501032875-pat00041
    는 디코더의 은닉상태를,
    Figure 112023501032875-pat00042
    는 시간적 정보(temporal information)에 대한 중요도를 측정하는 attention mechanism을,
    Figure 112023501032875-pat00043
    는 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하는 attention mecanism을 나타낸다.

  2. 제1항에 있어서, 상기 최종 단어 확률 분포를 생성하는 단계는,
    영상 정보 기반 로짓과 텍스트 정보 기반 로짓의 가중합으로 최종 단어 확률 분포를 계산하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법.
  3. 제1항에 있어서, 상기 최종 단어 확률 분포를 생성하는 단계는,
    영상 정보에 따른 단어와 단어 정보에 따른 단어를 각각 선택하여 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법.
  4. 제1항에 있어서, 상기 최종 단어 확률 분포를 생성하는 단계는,
    영상으로부터 정보를 이용할 것인지 여부에 대해 선택하는 스위칭 단계;를 포함하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법.
  5. 제1항에 있어서, 상기 영상 특징을 추출하는 단계는,
    영상의 각 프레임을 고정 벡터로 표현하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법.
  6. 삭제
  7. 제1항에 따른 상기 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체.
  8. 영상 특징을 추출하는 인코더의 CNN(Convolutional Neural Network)부;
    상기 CNN부에서 추출된 영상 특징을 기반으로 영상의 순차 정보를 학습하는 인코더의 RNN(Recurrent Neural Network)부;
    상기 인코더에서 추상화된 영상 정보를 입력으로 하여 다음으로 생성할 단어 확률을 학습하는 디코더의 LSTM(Long Shot Term Memory)부;
    상기 인코더의 추상화된 영상 정보 및 다음으로 생성할 단어 정보를 이용하여 중요도에 따른 영상 정보인 문맥(context) 정보를 추출하고, 추출된 문맥 정보를 기초로 영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포를 각각 생성하는 디코더의 주의 메커니즘(attention mechanisms)부; 및
    영상 정보만을 이용한 단어 확률 분포와 단어 정보만을 이용한 단어 확률 분포의 중요도에 따른 스위칭을 통해 최종 단어 확률 분포를 생성하는 디코더의 완전 접속망(fully connected network)부;를 포함하고,
    상기 주의 메커니즘부는,
    영상으로부터 정보를 이용할 것인지 여부에 대해 선택하고,
    시간적 정보(temporal information)에 대한 중요도 및 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하고,
    상기 문맥 정보는,
    하기 [수학식 4]에 따라 상기 추상화된 영상 정보에 대한 문맥 정보로 정의되는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치.
    [수학식4]
    Figure 112023501032875-pat00044

    여기서,
    Figure 112023501032875-pat00045
    ,
    Figure 112023501032875-pat00046
    ,
    Figure 112023501032875-pat00047
    는 문맥정보를 의미하고,
    Figure 112023501032875-pat00048
    는 추상화된 video representation을,
    Figure 112023501032875-pat00049
    은 mean pooling 전의 층을,
    Figure 112023501032875-pat00050
    는 인코더의 은닉상태를,
    Figure 112023501032875-pat00051
    는 디코더의 은닉상태를,
    Figure 112023501032875-pat00052
    는 시간적 정보(temporal information)에 대한 중요도를 측정하는 attention mechanism을,
    Figure 112023501032875-pat00053
    는 매 프레임의 공간적 정보(spatio information)에 대한 중요도를 측정하는 attention mecanism을 나타낸다.
  9. 제8항에 있어서, 상기 완전 접속망은,
    영상 정보 기반 로짓과 텍스트 정보 기반 로짓의 가중합으로 최종 단어 확률 분포를 계산하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치.
  10. 제8항에 있어서, 상기 완전 접속망은,
    영상 정보에 따른 단어와 단어 정보에 따른 단어를 각각 선택하여 하나의 객체 또는 액션이 여러 단어로 표현되는 것을 모델링하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치.
  11. 제8항에 있어서, 상기 완전 접속망은,
    영상으로부터 정보를 이용할 것인지 여부에 대해 선택하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치.
  12. 제8항에 있어서, 상기 CNN부는,
    영상의 각 프레임을 고정 벡터로 표현하는, 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 장치.
  13. 삭제
KR1020200176658A 2020-12-16 2020-12-16 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치 KR102536362B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200176658A KR102536362B1 (ko) 2020-12-16 2020-12-16 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200176658A KR102536362B1 (ko) 2020-12-16 2020-12-16 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치

Publications (3)

Publication Number Publication Date
KR20220086318A KR20220086318A (ko) 2022-06-23
KR102536362B1 true KR102536362B1 (ko) 2023-05-23
KR102536362B9 KR102536362B9 (ko) 2024-02-08

Family

ID=82221840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200176658A KR102536362B1 (ko) 2020-12-16 2020-12-16 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치

Country Status (1)

Country Link
KR (1) KR102536362B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855597B1 (ko) * 2015-10-29 2018-05-08 바이두 유에스에이 엘엘씨 계층적 회귀 신경망을 이용하여 비디오 문절을 캡셔닝하기 위한 시스템 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140504A (ko) * 2018-05-25 2019-12-20 창원대학교 산학협력단 강화학습을 이용한 이미지 캡션 생성 방법 및 시스템
KR20200065832A (ko) * 2018-11-30 2020-06-09 소프트온넷(주) 문서 데이터내 사진 이미지의 캡셔닝 자동 생성 시스템 및 방법
US10885345B2 (en) 2019-04-29 2021-01-05 Tencent America LLC End-to-end video captioning with multi-task reinforcement learning
US10699129B1 (en) 2019-11-15 2020-06-30 Fudan University System and method for video captioning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855597B1 (ko) * 2015-10-29 2018-05-08 바이두 유에스에이 엘엘씨 계층적 회귀 신경망을 이용하여 비디오 문절을 캡셔닝하기 위한 시스템 및 방법
US10395118B2 (en) 2015-10-29 2019-08-27 Baidu Usa Llc Systems and methods for video paragraph captioning using hierarchical recurrent neural networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kim and Lee. "A Video Captioning Method Based on Multi-Representation Switching for Sustainable Computing." Sustainability 13.4 (2021): 2250.
Venugopalan et al. "Sequence to sequence-video to text." Proceedings of the IEEE international conference on computer vision. 2015.*

Also Published As

Publication number Publication date
KR102536362B9 (ko) 2024-02-08
KR20220086318A (ko) 2022-06-23

Similar Documents

Publication Publication Date Title
CN107979764B (zh) 基于语义分割和多层注意力框架的视频字幕生成方法
Mukhoti et al. Evaluating bayesian deep learning methods for semantic segmentation
CN111581961B (zh) 一种中文视觉词汇表构建的图像内容自动描述方法
CN108986186B (zh) 文字转化视频的方法和系统
CN111079532B (zh) 一种基于文本自编码器的视频内容描述方法
CN109543820B (zh) 基于架构短句约束向量和双重视觉关注机制的图像描述生成方法
Guo et al. Attention-based LSTM with semantic consistency for videos captioning
KR20210114074A (ko) 멀티미디어 데이터의 캡셔닝 정보를 생성하는 방법, 장치, 디바이스 및 매체
CN110334589B (zh) 一种基于空洞卷积的高时序3d神经网络的动作识别方法
CN111159454A (zh) 基于Actor-Critic生成式对抗网络的图片描述生成方法及系统
CN111079601A (zh) 基于多模态注意力机制的视频内容描述方法、系统、装置
CN111309971A (zh) 一种基于多级编码的文本到视频的跨模态检索方法
Mathur et al. Camera2Caption: a real-time image caption generator
JP2023549579A (ja) ビデオ行動認識のための時間ボトルネック・アテンション・アーキテクチャ
CN109168003B (zh) 一种生成用于视频预测的神经网络模型的方法
Bilkhu et al. Attention is all you need for videos: Self-attention based video summarization using universal transformers
Li et al. Primary video object segmentation via complementary cnns and neighborhood reversible flow
WO2022205416A1 (zh) 一种基于生成式对抗网络的人脸表情生成方法
CN113378919B (zh) 融合视觉常识和增强多层全局特征的图像描述生成方法
CN111639594B (zh) 图像描述模型的训练方法及装置
Elons et al. Facial expressions recognition for arabic sign language translation
Raj et al. Deep learning based video captioning in bengali
Zheng et al. Action recognition based on the modified twostream CNN
CN110942463B (zh) 一种基于生成对抗网络的视频目标分割方法
KR102536362B1 (ko) 비디오 캡셔닝을 위한 시각적-문자적 표현의 변경 방법, 이를 수행하기 위한 기록 매체 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
G170 Re-publication after modification of scope of protection [patent]