KR102301916B1 - 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법 - Google Patents

사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR102301916B1
KR102301916B1 KR1020200042313A KR20200042313A KR102301916B1 KR 102301916 B1 KR102301916 B1 KR 102301916B1 KR 1020200042313 A KR1020200042313 A KR 1020200042313A KR 20200042313 A KR20200042313 A KR 20200042313A KR 102301916 B1 KR102301916 B1 KR 102301916B1
Authority
KR
South Korea
Prior art keywords
subtitle
time
processor
slider
display
Prior art date
Application number
KR1020200042313A
Other languages
English (en)
Inventor
동이레
이지원
서명원
김보현
백유림
최승연
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020200042313A priority Critical patent/KR102301916B1/ko
Application granted granted Critical
Publication of KR102301916B1 publication Critical patent/KR102301916B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예들에 따른 전자 장치 및 그의 동작 방법은, 영상에 삽입하기 위한 적어도 하나의 자막을 생성하고, 사용자 인터페이스에 기반하여, 영상의 재생 시간 내에서 자막의 표시 구간을 설정하고, 영상을 재생하면서, 표시 구간 동안 상기 자막을 표시하도록 구성될 수 있다. 다양한 실시예들에 따르면, 사용자 인터페이스는, 영상을 재생하면서, 자막을 표시하기 위한 제 1 영역, 재생 시간을 나타내는 진행 바 및 진행 바 상에서 이동 가능한 탐색 포인터를 포함하는 제 2 영역, 및 재생 시간을 나타내는 구간 설정 바 및 구간 설정 바 상에서 각각 이동 가능한 제 1 슬라이더와 제 2 슬라이더를 포함하는 제 3 영역을 포함할 수 있다.

Description

사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법{ELECTRONIC DEVICE FOR CONTROLLING VIDEO SUBTITLE SETTING BASED ON USER INTERFACE AND OPERATING METHOD THEREOF}
다양한 실시예들은 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법에 관한 것이다.
기술의 발전과 더불어, 전자 장치는 다양한 기능을 수행하여, 다양한 서비스를 제공한다. 최근에, 전자 장치는 동영상을 생성하고 편집하는 기능을 제공하고 있다. 이를 통해, 사용자는 전자 장치를 통해, 복수 개의 부분 영상들을 연결하여 동영상을 생성할 수 있다. 또는, 사용자는 전자 장치를 통해, 부분 영상들 중 적어도 어느 하나를 제거하거나 적어도 하나의 다른 부분 영상을 추가하여 동영상을 편집할 수 있다.
그런데, 상기와 같은 전자 장치는, 사용자가 동영상에 자막을 삽입하는 데 어려움이 있다. 즉 사용자가 동영상이 재생되는 중에 자막이 표시될 시간 구간을 설정하는 것이 용이하지 않다. 이는, 동영상에 삽입하고자 하는 자막들의 개수가 많을수록, 심각해진다. 이로 인해, 사용자가 전자 장치를 통해, 동영상을 편집하는 데 있어서, 편의성이 저하될 수 있다. 나아가, 전자 장치에 대한 사용자의 이용 효율성이 저하될 수 있다.
다양한 실시예들은, 사용자 인터페이스를 통해 동영상에 적어도 하나의 자막을 용이하게 삽입할 수 있는 전자 장치 및 그의 동작 방법을 제공한다.
다양한 실시예들은, 사용자 인터페이스를 통해 동영상의 재생 시간 내에서 각 자막의 표시 구간을 용이하게 설정할 수 있는 전자 장치 및 그의 동작 방법을 제공한다.
다양한 실시예들에 따른 전자 장치의 동작 방법은, 영상에 삽입하기 위한 적어도 하나의 자막을 생성하는 단계, 사용자 인터페이스에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 설정하는 단계, 및 상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막을 표시하는 단계를 포함할 수 있다.
다양한 실시예들에 따른 컴퓨터 프로그램은, 상기 동작 방법을 상기 전자 장치에 실행시키기 위해 비-일시적인 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다.
다양한 실시예들에 따른 기록 매체는, 상기 동작 방법을 상기 전자 장치에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독 가능하게 구성될 수 있다.
다양한 실시예들에 따른 전자 장치는, 메모리, 및 상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서를 포함하고, 상기 프로세서는, 영상에 삽입하기 위한 적어도 하나의 자막을 생성하고, 사용자 인터페이스에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 설정하고, 상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막을 표시하도록 구성될 수 있다.
다양한 실시예들에 따르면, 전자 장치는 사용자 인터페이스에 기반하여 동영상에 적어도 하나의 자막을 용이하게 삽입할 수 있다. 이 때 전자 장치는 사용자 인터페이스를 통해 동영상의 재생 시간 내에서 각 자막의 표시 구간을 용이하게 설정할 수 있다. 즉 전자 장치는 동영상 내 각 부분 영상의 재생 시간을 나타내는 구간 설정 바 상에서 슬라이더를 이동함으로써, 표시 구간을 변경할 수 있다. 이 때 전자 장치는 사용자의 간단한 입력 만으로도, 구간 설정 바 상에서 슬라이더를 이동할 수 있다. 이에 따라, 사용자가 전자 장치를 통해, 자막의 표시 구간을 설정하는 데 있어서, 편의성이 향상될 수 있다. 나아가, 사용자가 전자 장치를 통해, 동영상을 편집하는 데 있어서, 편의성이 향상될 수 있다. 아울러, 전자 장치에 대한 사용자의 이용 효율성이 향상될 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치를 도시하는 도면이다.
도 2는 다양한 실시예들에 따른 전자 장치의 동작 방법을 도시하는 도면이다.
도 3은 도 2의 자막 생성 단계를 도시하는 도면이다.
도 4는 도 2의 표시 구간 설정 단계를 도시하는 도면이다.
도 5는 도 2의 표시 구간 설정 단계를 도시하는 도면이다.
도 6, 도 7, 도 8a, 도 8b, 도 9, 도 10, 도 11, 도 12, 도 13, 도 14a 및 도 14b는 다양한 실시예들에 따른 전자 장치의 동작 방법을 예시적으로 설명하기 위한 도면들이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.
도 1은 다양한 실시예들에 따른 전자 장치(100)를 도시하는 도면이다.
도 1을 참조하면, 다양한 실시예들에 따른 전자 장치(100)는 카메라 모듈(110), 연결 단자(120), 통신 모듈(130), 입력 모듈(140), 표시 모듈(150), 오디오 모듈(160), 메모리(170) 또는 프로세서(180) 중 적어도 어느 하나를 포함할 수 있다. 어떤 실시예에서, 전자 장치(100)의 구성 요소들 중 적어도 어느 하나가 생략될 수 있으며, 적어도 하나의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서, 전자 장치(100)의 구성 요소들 중 적어도 어느 두 개가 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 전자 장치(100)는 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, 또는 로봇(robot) 중 적어도 어느 하나를 포함할 수 있다.
카메라 모듈(110)은 전자 장치(100)에서 영상을 촬영할 수 있다. 이 때 카메라 모듈(110)은 전자 장치(100)의 미리 정해진 위치에 설치되어, 영상을 촬영할 수 있다. 그리고, 카메라 모듈(110)은 영상 데이터를 생성할 수 있다. 예를 들면, 카메라 모듈(110)은 렌즈, 적어도 하나의 이미지 센서, 이미지 시그널 프로세서 또는 플래시 중 적어도 어느 하나를 포함할 수 있다.
연결 단자(120)는 전자 장치(100)에서 외부 장치(102)와 물리적으로 연결될 수 있다. 예를 들면, 외부 장치(102)는 다른 전자 장치를 포함할 수 있다. 이를 위해, 연결 단자(120)는 적어도 하나의 커넥터를 포함할 수 있다. 예를 들면, 커넥터는 HDMI 커넥터, USB 커넥터, SD 카드 커넥터 또는 오디오 커넥터 중 적어도 어느 하나를 포함할 수 있다.
통신 모듈(130)은 전자 장치(100)에서 외부 장치(102, 104)와 통신을 수행할 수 있다. 통신 모듈(130)은 전자 장치(100)와 외부 장치(102, 104) 간 통신 채널을 수립하고, 통신 채널을 통해, 외부 장치(102, 104)와 통신을 수행할 수 있다. 여기서, 외부 장치(102, 104)는 위성, 기지국, 서버 또는 다른 전자 장치 중 적어도 어느 하나를 포함할 수 있다. 통신 모듈(130)은 유선 통신 모듈 또는 무선 통신 모듈 중 적어도 어느 하나를 포함할 수 있다. 유선 통신 모듈은 연결 단자(102)를 통해, 외부 장치(102)와 유선으로 연결되어, 유선으로 통신할 수 있다. 무선 통신 모듈은 근거리 통신 모듈 또는 원거리 통신 모듈 중 적어도 어느 하나를 포함할 수 있다. 근거리 통신 모듈은 외부 장치(102)와 근거리 통신 방식으로 통신할 수 있다. 예를 들면, 근거리 통신 방식은, 블루투스(Bluetooth), 와이파이 다이렉트(WiFi direct), 또는 적외선 통신(IrDA; infrared data association) 중 적어도 어느 하나를 포함할 수 있다. 원거리 통신 모듈은 외부 장치(104)와 원거리 통신 방식으로 통신할 수 있다. 여기서, 원거리 통신 모듈은 네트워크(190)를 통해 외부 장치(104)와 통신할 수 있다. 예를 들면, 네트워크(190)는 셀룰러 네트워크, 인터넷, 또는 LAN(local area network)이나 WAN(wide area network)과 같은 컴퓨터 네트워크 중 적어도 어느 하나를 포함할 수 있다.
입력 모듈(140)은 전자 장치(100)의 적어도 하나의 구성 요소에 사용될 신호를 입력할 수 있다. 입력 모듈(140)은, 사용자가 전자 장치(100)에 직접적으로 신호를 입력하도록 구성되는 입력 장치 또는 주변 환경을 감지하여 신호를 발생하도록 구성되는 센서 장치 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 입력 장치는 마이크로폰(microphone), 마우스(mouse) 또는 키보드(keyboard) 중 적어도 어느 하나를 포함할 수 있다. 어떤 실시예에서, 센서 장치는 터치를 감지하도록 설정된 터치 회로(touch circuitry) 또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로 중 적어도 어느 하나를 포함할 수 있다.
표시 모듈(150)은 전자 장치(100)의 시각적으로 정보를 표시할 수 있다. 예를 들면, 표시 모듈(150)은 디스플레이, 홀로그램 장치 또는 프로젝터 중 적어도 어느 하나를 포함할 수 있다. 일 예로, 표시 모듈(150)은 입력 모듈(140)의 터치 회로 또는 센서 회로 중 적어도 어느 하나와 조립되어, 터치 스크린으로 구현될 수 있다.
오디오 모듈(160)은 전자 장치(100)에서 오디오 신호를 처리할 수 있다. 오디오 모듈(160)은 오디오 입력 모듈 또는 오디오 출력 모듈 중 적어도 어느 하나를 포함할 수 있다. 오디오 입력 모듈은 입력 모듈(140)을 통해 입력되는 소리로부터 오디오 신호를 획득할 수 있다. 오디오 출력 모듈은 오디오 신호를 소리로 출력할 수 있다. 예를 들면, 오디오 출력 장치는 스피커 또는 리시버 중 적어도 어느 하나를 포함할 수 있다.
메모리(170)는 전자 장치(100)의 적어도 하나의 구성 요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들면, 메모리(170)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 어느 하나를 포함할 수 있다. 데이터는 적어도 하나의 프로그램 및 이와 관련된 입력 데이터 또는 출력 데이터를 포함할 수 있다. 프로그램은 메모리(170)에 적어도 하나의 명령을 포함하는 소프트웨어로서 저장될 수 있으며, 예컨대 운영 체제, 미들 웨어 또는 어플리케이션 중 적어도 어느 하나를 포함할 수 있다.
프로세서(180)는 메모리(170)의 프로그램을 실행하여, 전자 장치(100)의 적어도 하나의 구성 요소를 제어할 수 있다. 이를 통해, 프로세서(180)는 데이터 처리 또는 연산을 수행할 수 있다. 이 때 프로세서(160)는 메모리(170)에 저장된 명령을 실행할 수 있다. 프로세서(180)는 적어도 하나의 부분 영상을 이용하여, 동영상을 생성할 수 있다. 예를 들면, 각 부분 영상은 정지 영상 또는 동영상일 수 있다. 여기서, 각 부분 영상은 영상 클립이라고 지칭될 수도 있다. 여기서, 프로세서(180)는 복수 개의 부분 영상들을 연결하여, 동영상을 생성할 수 있다. 그리고, 프로세서(180)는 동영상을 편집할 수 있다. 일 실시예에 따르면, 동영상이 편집 대상일 수 있다. 다른 실시예에 따르면, 각 부분 영상이 편집 대상일 수 있다. 즉 프로세서(180)는 동영상에서 각 부분 영상을 편집할 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 사용자 인터페이스에 기반하여, 동영상에 삽입하기 위한 적어도 하나의 자막을 생성할 수 있다. 이 때 프로세서(180)는 각 부분 영상에 대해, 적어도 하나의 자막을 생성할 수 있다. 여기서, 자막은 적어도 하나의 문자(character)로 이루어지며, 예컨대 텍스트(text), 숫자, 구두점 또는 기타 기호 중 적어도 어느 하나를 포함할 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 사용자 인터페이스에 기반하여, 각 자막의 표시 구간을 설정할 수 있다. 프로세서(180)는 각 부분 영상에 대해, 각 자막(810)의 표시 구간을 설정할 수 있다. 각 자막의 표시 구간은 부분 영상의 재생 시간 중 적어도 일부로 설정될 수 있다. 일 예로, 각 자막의 표시 구간은 부분 영상의 재생 시간 중 일부로 설정될 수 있다. 다른 예로, 각 자막의 표시 구간은 부분 영상의 재생 시간 전체로 설정될 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 동영상을 재생하면서, 적어도 하나의 자막을 표시할 수 있다. 프로세서(180)는 표시 모듈(150)을 통해 동영상을 재생하면서, 각 부분 영상의 재생 시간 내에서 각 자막(810)의 표시 구간 동안 각 자막을 표시할 수 있다. 그리고, 프로세서(180)는 오디오 모듈(160)을 통해 영상과 관련된 오디오 신호를 출력할 수 있다.
도 2는 다양한 실시예들에 따른 전자 장치(100)의 동작 방법을 도시하는 도면이다. 도 3, 도 4 및 도 5는 다양한 실시예들에 따른 전자 장치(100)의 세부 단계들을 각각 도시하는 도면들이다. 도 6, 도 7, 도 8a, 도 8b, 도 9, 도 10, 도 11, 도 12, 도 13, 도 14a 및 도 14b는 다양한 실시예들에 따른 전자 장치(100)의 동작 방법을 예시적으로 설명하기 위한 도면들이다.
도 2를 참조하면, 전자 장치(100)는 210 단계에서 영상에 삽입하기 위한 적어도 하나의 자막(810)을 생성할 수 있다. 프로세서(180)는 사용자 인터페이스(600)에 기반하여, 영상에 삽입하기 위한 적어도 하나의 자막(810)을 생성할 수 있다. 영상은 적어도 하나의 부분 영상으로 이루어지는 동영상을 나타낼 수 있다. 여기서, 각 부분 영상은 정지 영상 또는 동영상일 수 있다. 이 때 프로세서(180)는 각 부분 영상에 대해, 적어도 하나의 자막(810)을 생성할 수 있다. 여기서, 자막(810)은 적어도 하나의 문자(character)로 이루어지며, 예컨대 텍스트(text), 숫자, 구두점 또는 기타 기호 중 적어도 어느 하나를 포함할 수 있다. 이에 대해, 도 3을 참조하여, 보다 상세하게 후술될 것이다.
도 3은 도 2의 자막(810) 생성 단계를 도시하는 도면이다.
도 3을 참조하면, 전자 장치(100)는 310 단계에서 동영상 편집을 위한 사용자 인터페이스(600)를 제공할 수 있다. 프로세서(180)는 동영상 편집 기능을 실행하면서, 동영상 편집을 위한 사용자 인터페이스(600), 즉 제 1 사용자 인터페이스(600)를 제공할 수 있다. 이 때 프로세서(180)는, 도 6에 도시된 바와 같이 제 1 사용자 인터페이스(600)를 제공할 수 있다. 제 1 사용자 인터페이스(600)는 영상 영역(610) 및 부분 영역(620)을 포함할 수 있다.
프로세서(180)는 표시 모듈(150)을 통해 영상 영역(610) 상에서 적어도 하나의 부분 영상으로 이루어지는 동영상을 재생할 수 있다. 이 때 프로세서(180)는 각 부분 영상을 재생할 수 있다. 여기서, 프로세서(180)는 동영상 내에서 각 부분 영상의 순서에 따라, 각 부분 영상을 재생할 수 있다. 예를 들면, 동영상이 복수 개의 부분 영상들로 이루어진 경우, 프로세서(180)는 부분 영상들 중 어느 하나를 재생한 다음, 부분 영상들 중 다른 하나를 재생할 수 있다. 그리고, 영상 영역(610)은 동영상의 재생을 제어하기 위한 제어 버튼(611), 동영상의 진행 바(613) 및 자막을 생성하기 위한 자막 버튼(615)을 포함할 수 있다. 동영상을 재생하는 중에 입력 모듈(140)을 통해 제어 버튼(611)이 선택되면, 프로세서(160)는 동영상의 재생을 정지시킬 수 있다. 한편, 동영상의 재생이 정지된 중에 입력 모듈(140)을 통해 제어 버튼(611)이 선택되면, 프로세서(160)는 동영상을 다시 재생할 수 있다. 진행 바(613)는 동영상의 총 재생 시간을 나타내며, 프로세서(180)는 진행 바(613)를 통해 현재 표시 시점을 나타낼 수 있다.
프로세서(180)는 표시 모듈(150)을 통해 부분 영역(620) 내에 동영상을 구성하는 적어도 하나의 부분 영상에 대한 아이템을 표시할 수 있다. 여기서, 프로세서(180)는 동영상 내에서 각 부분 영상의 순서에 따라, 부분 영역(620) 내에 아이템을 배열할 수 있다. 부분 영역(620)은 추가 버튼(621)을 포함할 수 있다. 입력 모듈(140)을 통해 추가 버튼(621)이 선택되면, 프로세서(180)는 적어도 하나의 다른 부분 영상을 검색할 수 있다. 이를 통해, 프로세서(180)는 동영상에 다른 부분 영상을 추가할 수 있다. 그리고, 부분 영역(620)에 다른 부분 영상에 대한 아이템을 추가할 수 있다.
전자 장치(100)는 320 단계에서 적어도 하나의 자막(810)을 생성할 수 있다. 프로세서(180)는 제 1 사용자 인터페이스(600)에 기반하여, 동영상에 삽입하기 위한 적어도 하나의 자막(810)을 생성할 수 있다. 이 때 프로세서(180)는, 도 7에 도시된 바와 같은 제 1 사용자 인터페이스(600)에 기반하여, 각 부분 영상에 대해, 적어도 하나의 자막(810)을 생성할 수 있다. 표시 모듈(150)을 통해 제 1 사용자 인터페이스(600)를 제공하는 중에, 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 적어도 하나의 자막(810)을 생성할 수 있다. 이 때 프로세서(180)는 표시 모듈(150)을 통해 재생되고 있는 부분 영상에 대해, 자막(810)을 생성할 수 있다. 여기서, 자막(810)의 표시 구간이 해당 부분 영상의 재생 시간 전체로 설정될 수 있다. 예를 들면, 프로세서(180)는, 도 8a에 도시된 바와 같이 하나의 자막(810)을 생성할 수 있으며, 도 8b에 도시된 바와 같이 복수 개의 자막(810)들을 생성할 수도 있다.
일 실시예에 따르면, 입력 모듈(140)을 통해 자막 버튼(615)이 선택되면, 프로세서(180)는, 도 7에 도시된 바와 같이 표시 모듈(150)을 통해 제 1 사용자 인터페이스(600)와 함께 키패드(700)를 제공할 수 있다. 여기서, 영상 영역(610)의 적어도 일부가 노출될 수 있다. 그리고, 프로세서(180)는, 도 7에 도시된 바와 같이 표시 모듈(150)을 통해 영상 영역(610) 상에 커서(710)를 표시할 수 있다. 이 때 프로세서(180)는 영상 영역(610) 상에서 재생되고 있는 부분 영상 내에 커서(710)를 표시할 수 있다. 예를 들면, 프로세서(180)는 영상 영역(610) 상에서 미리 설정된 위치에 커서(710)를 표시하고, 사용자의 입력을 기반으로 영상 영역(610) 상에서 커서(710)를 이동시킬 수 있다. 이를 통해, 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 도 8a에 도시된 바와 같이 영상 영역(610) 상에서 재생되고 있는 부분 영상 내에 자막(810)을 생성할 수 있다. 이와 유사하게, 입력 모듈(140)을 통해 자막 버튼(615)이 선택되면, 프로세서(180)는 도 8b에 도시된 바와 같이 영상 영역(610) 상에서 재생되고 있는 부분 영상 내에 적어도 하나의 다른 자막(810)을 더 생성할 수 있다.
전자 장치(100)는 330 단계에서 동영상의 진행 바(613)에 각 자막(810)의 지시자(813)를 추가할 수 있다. 프로세서(180)는 제 1 사용자 인터페이스(600)에 기반하여, 동영상의 진행 바(613)에 각 자막(810)의 지시자(813)를 추가할 수 있다. 이 때 프로세서(180)는, 도 8a 또는 도 8b에 도시된 바와 같은 제 1 사용자 인터페이스(600)에 기반하여, 각 부분 영상에 대해, 각 자막(810)의 지시자(813)를 추가할 수 있다. 여기서, 프로세서(180)는 표시 모듈(150)을 통해 동영상의 진행 바(613)에서 각 부분 영상의 시작 시점에, 각 자막(810)의 지시자(813)를 표시할 수 있다. 예를 들면, 지시자(813)는 다양한 형상들을 가질 수 있다. 일 예로, 지시자(813)는 도트(dot) 형상을 가질 수 있다. 하나의 자막(810)이 생성되면, 프로세서(180)는, 도 8a에 도시된 바와 같이 동영상의 진행 바(613)에서 해당 부분 영상의 시작 시점에, 하나의 지시자(813)를 표시할 수 있다. 한편, 복수 개의 자막(810)들이 생성되면, 프로세서(180)는, 도 8b에 도시된 바와 같이 동영상의 진행 바(613)에서 해당 부분 영상의 시작 시점에, 복수 개의 지시자(813)들을 표시할 수 있다. 예를 들면, 프로세서(180)는 동영상의 진행 바(613)에 수직한 축 상에 지시자(813)들을 나란하게 배열할 수 있다.
이 후 전자 장치(100)는 도 2로 리턴하여, 220 단계로 진행할 수 있다.
다시 도 2를 참조하면, 전자 장치(100)는 220 단계에서 영상의 재생 시간 내에서 각 자막(810)의 표시 구간을 설정할 수 있다. 프로세서(180)는 사용자 인터페이스(900)에 기반하여, 각 자막(810)의 표시 구간을 설정할 수 있다. 각 자막(810)의 표시 구간은 영상의 재생 시간 중 적어도 일부로 설정될 수 있다. 일 예로, 각 자막(810)의 표시 구간은 영상의 재생 시간 중 일부로 설정될 수 있다. 다른 예로, 각 자막(810)의 표시 구간은 영상의 재생 시간 전체로 설정될 수 있다. 이 때 프로세서(180)는 각 부분 영상에 대해, 각 자막(810)의 표시 구간을 설정할 수 있다. 이에 대해, 도 4 및 도 5를 참조하여, 보다 상세하게 후술될 것이다.
도 4는 도 2의 표시 구간 설정 단계를 도시하는 도면이다.
도 4를 참조하면, 전자 장치(100)는 410 단계에서 자막(810) 관련 설정을 위한 인터페이스(900)를 제공할 수 있다. 프로세서(180)는 자막(810) 설정 기능을 실행하면, 자막(810) 관련 설정을 위한 사용자 인터페이스(900), 즉 제 2 사용자 인터페이스(900)를 제공할 수 있다. 이 때 프로세서(180)는, 도 9에 도시된 바와 같이 제 2 사용자 인터페이스(900)를 제공할 수 있다. 예를 들면, 입력 모듈(140)을 통해 제 1 사용자 인터페이스(600)의 자막(810)이 선택되면, 프로세서(180)는 제 2 사용자 인터페이스(900)를 제공할 수 있다. 제 2 사용자 인터페이스(900)는 제 1 영역(910), 제 2 영역(920) 및 제 3 영역(930)을 포함할 수 있다.
프로세서(180)는 표시 모듈(150)을 통해 제 1 영역(910) 상에서 부분 영상을 재생할 수 있다. 이 때 프로세서(180)는 부분 영상에 대한 프리뷰 영상들을 표시할 수 있다. 여기서, 프로세서(180)는 부분 영상의 재생 시간 내에서 프리뷰 영상들을 순차적으로 전환할 수 있다. 그리고, 프로세서(180)는 표시 모듈(150)을 통해 제 1 영역(910) 상에서 자막(810)을 함께 표시할 수 있다. 제 1 영역(910)은 제 2 사용자 인터페이스(900)를 종료하기 위한 적어도 하나의 종료 버튼(911, 913)을 포함할 수 있다. 일 예로, 입력 모듈(140)을 통해 종료 버튼(911)이 선택되면, 프로세서(180)는 자막(810)의 미리 설정된 표시 구간을 유지하면서, 제 2 사용자 인터페이스(900)를 종료할 수 있다. 다른 예로, 입력 모듈(140)을 통해 종료 버튼(913)이 선택되면, 프로세서(180)는 제 2 사용자 인터페이스(900)를 기반으로 자막(810)의 미리 설정된 표시 구간을 변경한 후에, 제 2 사용자 인터페이스(900)를 종료할 수 있다.
프로세서(180)는 표시 모듈(150)을 통해 제 2 영역(920) 상에서 부분 영상의 재생을 제어하기 위한 요소들을 표시할 수 있다. 제 2 영역(920)은 제어 버튼(921), 진행 바(923), 또는 탐색 포인터(925) 중 적어도 어느 하나를 포함할 수 있다. 동영상을 재생하는 중에 입력 모듈(140)을 통해 제어 버튼(921)이 선택되면, 프로세서(160)는 부분 영상의 재생을 정지시킬 수 있다. 한편, 부분 영상의 재생이 정지된 중에 입력 모듈(140)을 통해 제어 버튼(921)이 선택되면, 프로세서(160)는 부분 영상을 다시 재생할 수 있다. 진행 바(923)는 부분 영상의 재생 시간을 나타낼 수 있다. 탐색 포인터(925)는 진행 바(923) 상에서 이동 가능하며, 부분 영상의 재생 시간 내에서 제 1 영역(910)에 표시되는 프리뷰 영상의 표시 시점을 나타낼 수 있다.
프로세서(180)는 표시 모듈(150)을 통해 제 3 영역(930) 상에서 자막(810)의 표시 구간을 설정하기 위한 요소들을 표시할 수 있다. 제 3 영역(930)은 자막(810) 관련 설정 메뉴(931), 구간 설정 바(933), 제 1 슬라이더(935)와 제 2 슬라이더(937), 또는 적어도 하나의 퀵 버튼(939) 중 적어도 어느 하나를 포함할 수 있다. 설정 메뉴(931)는 자막(810)을 편집하기 위한 적어도 하나의 아이템을 포함할 수 있다. 입력 모듈(140)을 통해 설정 메뉴(931)의 아이템이 선택되면, 프로세서(180)는 자막(810)에서 적어도 하나의 문자를 편집하거나, 자막(810)에 특수 효과를 적용하거나, 제 1 슬라이더(935)와 제 2 슬라이더(937)를 이동 가능한 상태로 활성화시킬 수 있다. 구간 설정 바(933)는 부분 영상의 재생 시간을 나타낼 수 있다. 제 1 슬라이더(935)와 제 2 슬라이더(937)는 구간 설정 바(933) 상에서 각각 이동 가능하며, 자막(810)의 표시 구간을 나타낼 수 있다. 여기서, 프로세서(180)는 자막(810)의 미리 설정된 표시 구간을 기반으로, 제 1 슬라이더(935)와 제 2 슬라이더(937)는 구간 설정 바(933) 상에 위치시킬 수 있다. 제 1 슬라이더(935)의 위치는 부분 영상의 재생 시간 내에서 자막(810)의 시작 시점을 나타내고, 제 2 슬라이더(937)의 위치는 부분 영상의 재생 시간 내에서 자막(810)의 종료 시점을 나타낼 수 있다. 퀵 버튼(939)은 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 미리 설정된 시간 만큼 이동하기 위한 것으로, 각 퀵 버튼(939)에는 미리 설정된 시간 간격이 각각 부여될 수 있다. 여기서, 제 1 슬라이더(935)의 위치로부터 부분 영상의 종료 시점 까지의 시간이 설정된 시간 간격 보다 짧으면, 각 퀵 버튼(939)은 비활성화될 수 있다.
전자 장치(100)는 420 단계에서 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 이동할 수 있다. 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 이동할 수 있다. 이 때 입력 모듈(140)을 통해 퀵 버튼(939)이 선택되면, 프로세서(180)는 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 선택된 퀵 버튼(939)의 설정된 시간 간격 만큼 이동할 수 있다. 또는, 입력 모듈(140)을 통해 제 1 슬라이더(935)가 선택되면, 프로세서(180)는 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 이동할 수 있다. 일 예로, 표시 모듈(150)이 입력 모듈(140)과 결합되어, 터치 스크린이 구현된 경우, 프로세서(180)는 제 1 슬라이더(935)에 대한 일련의 터치, 드래그 및 드롭 입력에 기반하여, 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 이동할 수 있다. 예를 들면, 프로세서(180)는, 도 10에 도시된 바와 같이 구간 설정 바(933) 상에서 제 1 슬라이더(935)를 이동할 수 있다.
420 단계에서 제 1 슬라이더(935)를 이동한 다음, 전자 장치(100)는 440 단계에서 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 구간 설정 바(933) 상에서 제 1 슬라이더(935)가 이동되면, 프로세서(180)는 구간 설정 바(933) 상에서의 제 1 슬라이더(935)의 위치를 기반으로, 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 이 때 프로세서(180)는 구간 설정 바(933) 상에서의 제 1 슬라이더(935)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 자막(810)의 시작 시점을 검출할 수 있다. 그리고, 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 부분 영상의 재생 시간 내에서 자막(810)의 시작 시점으로 이동할 수 있다. 예를 들면, 프로세서(180)는, 도 10에 도시된 바와 같이 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다.
전자 장치(100)는 450 단계에서 부분 영상의 표시 시점을 전환할 수 있다. 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 표시 시점을 전환할 수 있다. 즉 프로세서(180)는 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 이 때 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 부분 영상의 표시 시점을 검출할 수 있다. 그리고, 프로세서(180)는 부분 영상의 표시 시점을 전환하여, 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 예를 들면, 프로세서(180)는, 도 10에 도시된 바와 같이 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 아울러, 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 함께 표시할 수 있다.
한편, 전자 장치(100)는 430 단계에서 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다. 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다. 이 때 입력 모듈(140)을 통해 제 2 슬라이더(937)가 선택되면, 프로세서(180)는 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다. 일 예로, 표시 모듈(150)이 입력 모듈(140)과 결합되어, 터치 스크린이 구현된 경우, 프로세서(180)는 제 2 슬라이더(937)에 대한 일련의 터치, 드래그 및 드롭 입력에 기반하여, 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다. 예를 들면, 프로세서(180)는, 도 11에 도시된 바와 같이 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다.
430 단계에서 제 2 슬라이더(937)를 이동한 다음, 전자 장치(100)는 440 단계에서 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 구간 설정 바(933) 상에서 제 2 슬라이더(937)가 이동되면, 프로세서(180)는 구간 설정 바(933) 상에서의 제 2 슬라이더(937)의 위치를 기반으로, 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 이 때 프로세서(180)는 구간 설정 바(933) 상에서의 제 2 슬라이더(937)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 자막(810)의 종료 시점을 검출할 수 있다. 그리고, 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 부분 영상의 재생 시간 내에서 자막(810)의 종료 시점으로 이동할 수 있다. 예를 들면, 프로세서(180)는, 도 11에 도시된 바와 같이 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다.
전자 장치(100)는 450 단계에서 부분 영상의 표시 시점을 전환할 수 있다. 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 표시 시점을 전환할 수 있다. 즉 프로세서(180)는 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 이 때 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 부분 영상의 표시 시점을 검출할 수 있다. 그리고, 프로세서(180)는 부분 영상의 표시 시점을 전환하여, 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 예를 들면, 프로세서(180)는, 도 11에 도시된 바와 같이 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 아울러, 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 제거할 수 있다. 즉 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 더 이상 표시하지 않을 수 있다.
한편, 전자 장치(100)는 460 단계에서 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 이 때 입력 모듈(140)을 통해 탐색 포인터(925)가 선택되면, 프로세서(180)는 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 일 예로, 표시 모듈(150)이 입력 모듈(140)과 결합되어, 터치 스크린이 구현된 경우, 프로세서(180)는 탐색 포인터(925)에 대한 일련의 터치, 드래그 및 드롭 입력에 기반하여, 진행 바(923) 상에서 탐색 포인터(925)를 이동할 수 있다. 예를 들면, 프로세서(180)는, 도 12에 도시된 바와 같이 구간 설정 바(933) 상에서 제 2 슬라이더(937)를 이동할 수 있다. 여기서, 프로세서(180)는 진행 바(923) 상에서 탐색 포인터(925)를 이동할 뿐, 구간 설정 바(933) 상에서 제 1 슬라이더(935)와 제 2 슬라이더(937)를 이동하지 않을 수 있다.
전자 장치(100)는 470 단계에서 부분 영상의 표시 시점을 전환할 수 있다. 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 표시 시점을 전환할 수 있다. 즉 프로세서(180)는 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 이 때 프로세서(180)는 진행 바(923) 상에서의 탐색 포인터(925)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 부분 영상의 표시 시점을 검출할 수 있다. 그리고, 프로세서(180)는 부분 영상의 표시 시점을 전환하여, 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 예를 들면, 프로세서(180)는, 도 12에 도시된 바와 같이 제 1 영역(910)에서 표시되는 프리뷰 영상을 전환할 수 있다. 여기서, 부분 영상의 표시 시점이 자막(810)의 시작 시점 이후이고, 자막(810)의 종료 시점 이전이면, 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 함께 표시할 수 있다. 한편, 부분 영상의 표시 시점이 자막(810)의 시작 시점 이전이거나, 자막(810)의 종료 시점 이후이면, 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 표시하지 않을 수 있다.
전자 장치(100)는 480 단계에서 제 2 사용자 인터페이스(900)를 종료할 지의 여부를 판단할 수 있다. 프로세서(180)는 입력 모듈(140)을 통해 사용자의 입력을 감지하고, 사용자의 입력을 기반으로 제 2 사용자 인터페이스(900)를 종료할 지의 여부를 판단할 수 있다. 예를 들면, 입력 모듈(140)을 통해 제 1 영역(910)의 종료 버튼(911, 913)이 선택되면, 프로세서(180)는 제 2 사용자 인터페이스(900)를 종료해야 하는 것으로 판단할 수 있다.
480 단계에서 제 2 사용자 인터페이스(900)를 종료하지 않아도 되는 것으로 판단되면, 전자 장치(100)는 420 단계로 복귀하여, 420 단계 내지480 단계 중 적어도 일부를 반복하여 수행할 수 있다. 이 때 프로세서(180)는 구간 설정 바(933) 상에서 제 1 슬라이더(935) 또는 제 2 슬라이더(937)를 이동할 수 있다. 일 예로, 도 13에 도시된 바와 같이 제 2 슬라이더(937)가 이미 이동되어 있을 때, 프로세서(180)는 제 1 슬라이더(935)를 추가로 이동할 수 있다. 이에 대응하여, 프로세서(180)는 진행 바(923) 상에서 탐색 포인터(925)를 이동하고, 부분 영상의 표시 시점을 전환할 수 있다. 아울러, 프로세서(180)는 제 1 영역(910) 상에서 표시되는 프리뷰 영상과 함께 자막(810)을 표시할 수 있다. 다른 예로, 도시되지는 않았으나, 제 1 슬라이더(935)가 이미 이동되어 있을 때, 프로세서(180)는 제 2 슬라이더(937)를 추가로 이동할 수 있다. 이에 대응하여, 프로세서(180)는 진행 바(923) 상에서 탐색 포인터(925)를 이동하고, 부분 영상의 표시 시점을 전환할 수 있다. 아울러, 프로세서(180)는 제 1 영역(910) 상에서 자막(810)을 제거할 수 있다.
한편, 480 단계에서 제 2 사용자 인터페이스(900)를 종료해야 하는 것으로 판단되면, 전자 장치(100)는 490 단계에서 제 1 슬라이더(935) 및 제 2 슬라이더(937)를 기반으로 자막(810)의 표시 구간을 설정할 수 있다. 프로세서(180)는 구간 설정 바(933) 상에서의 제 1 슬라이더(935)와 제 2 슬라이더(937)의 위치들을 기반으로, 부분 영상의 재생 시간 내에서 자막(810)의 표시 구간을 설정할 수 있다. 일 예로, 입력 모듈(140)을 통해 종료 버튼(911)이 선택되면, 프로세서(180)는 자막(810)의 미리 설정된 표시 구간을 유지할 수 있다. 다른 예로, 입력 모듈(140)을 통해 종료 버튼(913)이 선택되면, 프로세서(180)는 제 2 사용자 인터페이스(900)를 기반으로 자막(810)의 미리 설정된 표시 구간을 변경할 수 있다. 이 때 프로세서(180)는 구간 설정 바(933) 상에서의 제 1 슬라이더(935)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 자막(810)의 시작 시점을 검출할 수 있다. 그리고, 프로세서(180)는 구간 설정 바(933) 상에서의 제 2 슬라이더(937)의 위치를 기반으로, 부분 영상의 재생 시간 내에서 자막(810)의 종료 시점을 검출할 수 있다. 이를 통해, 프로세서(180)는 부분 영상의 재생 시간 내에서 자막(810)의 시작 시점과 종료 시점 사이의 시간을 표시 구간으로 설정할 수 있다.
이 후 전자 장치(100)는 도 2로 리턴하여, 230 단계로 진행할 수 있다. 즉 전자 장치(100)는 제 2 사용자 인터페이스(900)를 종료하고, 도 2의 220 단계로 진행할 수 있다.
도 5는 도 2의 표시 구간 설정 단계를 도시하는 도면이다.
도 5를 참조하면, 전자 장치(100)는 510 단계에서 자막(810)의 표시 구간을 설정할 수 있다. 이 때 전자 장치(100)는 도 4를 참조하여 전술된 바와 같이, 자막(810)의 표시 구간을 설정할 수 있다. 프로세서(180)는 제 2 사용자 인터페이스(900)에 기반하여, 자막(810)의 표시 구간을 설정할 수 있다. 자막(810)의 표시 구간은 영상의 재생 시간 중 적어도 일부로 설정될 수 있다. 일 예로, 자막(810)의 표시 구간은 영상의 재생 시간 중 일부로 설정될 수 있다. 다른 예로, 자막(810)의 표시 구간은 영상의 재생 시간 전체로 설정될 수 있다.
전자 장치(100)는, 520 단계에서 자막(810)의 시작 시점이 변경되었는 지의 여부를 판단할 수 있다. 프로세서(180)는 자막(810)의 표시 구간을 기반으로, 자막(810)의 시작 시점이 변경되었는 지의 여부를 판단할 수 있다. 즉 프로세서(180)는 자막(810)의 표시 구간을 설정하는 것에 의해, 자막(810)의 시작 시점이 변경되었는 지의 여부를 판단할 수 있다.
520 단계에서 자막(810)의 시작 시점이 변경된 것으로 판단되면, 전자 장치(100)는 530 단계에서 동영상의 진행 바(613)에서 자막(810)의 지시자(813)를 이동할 수 있다. 프로세서(180)는 제 1 사용자 인터페이스(600)에 기반하여, 동영상의 진행 바(613)에서 자막(810)의 지시자(813)를 이동할 수 있다. 프로세서(180)는 자막(810)의 표시 구간을 설정한 다음, 제 2 사용자 인터페이스(900)를 종료할 수 있다. 그리고, 프로세서(180)는 제 1 사용자 인터페이스(600)로 복귀하여, 표시 모듈(150)을 통해 동영상의 진행 바(613)에서 자막(810)의 지시자(813)를 이동할 수 있다. 여기서, 프로세서(180)는 동영상의 진행 바(613)에서 자막(810)의 표시 구간의 시작 시점에 자막(810)의 지시자(813)를 표시할 수 있다. 예를 들면, 프로세서(180)는, 도 14a 또는 도 14b에 도시된 바와 같이 동영상의 진행 바(613)에서 자막(813)의 표시 구간의 시작 시점에 자막(810)의 지시자(813)를 표시할 수 있다.
이 후 전자 장치(100)는 도 2로 리턴하여, 230 단계로 진행할 수 있다.
다시 도 2를 참조하면, 전자 장치(100)는 230 단계에서 영상을 재생하면서, 적어도 하나의 자막(810)을 표시할 수 있다. 프로세서(180)는 표시 모듈(150)을 통해 영상을 재생하면서, 영상의 재생 시간 내에서 각 자막(810)의 표시 구간을 기반으로 각 자막(810)을 표시할 수 있다. 이 때 프로세서(180)는 각 부분 영상에 대해, 각 자막(810)의 표시 구간 동안 각 자막(810)을 표시할 수 있다. 그리고, 프로세서(180)는 오디오 모듈(160)을 통해 영상과 관련된 오디오 신호를 출력할 수 있다.
다양한 실시예들에 따른 전자 장치(100)의 동작 방법은, 영상에 삽입하기 위한 적어도 하나의 자막(810)을 생성하는 단계, 사용자 인터페이스(900)에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막(810)의 표시 구간을 설정하는 단계, 및 상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막(810)을 표시하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 사용자 인터페이스(900)는, 상기 영상을 재생하면서, 상기 자막(810)을 표시하기 위한 제 1 영역(910), 상기 재생 시간을 나타내는 진행 바(923) 및 상기 진행 바(923) 상에서 이동 가능한 탐색 포인터(925)를 포함하는 제 2 영역(920), 및 상기 재생 시간을 나타내는 구간 설정 바(933) 및 상기 구간 설정 바(933) 상에서 각각 이동 가능한 제 1 슬라이더(935)와 제 2 슬라이더(937)를 포함하는 제 3 영역(930)을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표시 구간을 설정하는 단계는, 사용자의 입력에 기반하여, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935) 또는 상기 제 2 슬라이더(937) 중 적어도 어느 하나를 이동하는 단계, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935)와 상기 제 2 슬라이더(937)의 위치들을 기반으로, 상기 재생 시간 내에서 상기 자막(810)의 시작 시점과 종료 시점을 검출하는 단계, 및 상기 시작 시점과 상기 종료 시점 사이의 시간을 상기 표시 구간으로 설정하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표시 구간을 설정하는 단계는, 상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 재생 바 상에서 상기 탐색 포인터(925)를 이동하는 단계, 및 상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 제 1 영역(910)에 표시되는 영상을 전환하는 단계를 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 3 영역(930)은 미리 설정된 시간 간격이 각각 부여된 적어도 하나의 버튼(939)을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 슬라이더(935) 또는 상기 제 2 슬라이더(937) 중 적어도 어느 하나를 이동하는 단계는, 상기 버튼(939)에 대한 상기 사용자의 입력에 기반하여, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935)를 상기 설정된 시간 간격 만큼 이동하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표시 구간을 설정하는 단계는, 상기 종료 시점을 기반으로, 상기 표시되는 영상을 전환하면서, 상기 제 1 영역(910)에서 상기 자막(810)을 제거하는 단계를 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 자막(810)을 표시하는 단계는, 상기 영상과 관련된 총 재생 시간을 나타내는 진행 바(613), 및 상기 진행 바(613) 상에서 상기 표시 구간의 시작 시점에 상기 자막(810)에 대응하는 지시자(813)를 표시하는 단계, 및 상기 영상을 재생하면서, 상기 시작 시점으로부터 상기 표시 구간 동안 상기 자막(810)을 표시하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표시 구간을 설정하는 단계는, 복수 개의 자막(810)들이 생성되면, 상기 자막(810)들 각각에 대해 수행될 수 있다.
다양한 실시예들에 따르면, 상기 지시자(813)를 표시하는 단계는, 상기 진행 바(613) 상에 상기 자막(810)들에 각각 대응하는 지시자(813)들을 각각 표시하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 영상은 복수 개의 부분 영상들이 결합된 동영상이고, 상기 부분 영상들은 정지 영상 또는 동영상 중 적어도 어느 하나를 각각 포함할 수 있다.
다양한 실시예들에 따르면, 상기 자막(810)을 생성하는 단계 및 상기 표시 구간을 설정하는 단계는, 상기 부분 영상들 각각에 대해, 수행될 수 있다.
다양한 실시예들에 따르면, 상기 자막(810)을 생성하는 단계는, 상기 부분 영상들 중 어느 하나에 대해 상기 자막(810)을 생성하는 단계, 및 상기 영상의 재생 시간 내에서 상기 자막(810)의 표시 구간을 상기 부분 영상들 중 어느 하나의 전체 재생 시간으로 설정하는 단계를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표시 구간을 설정하는 단계는, 상기 사용자 인터페이스에 기반하여, 상기 표시 구간을 상기 전체 재생 시간으로부터 변경하는 단계를 포함할 수 있다.
다양한 실시예들에 따른 전자 장치(100)는, 메모리(170), 및 상기 메모리(170)와 연결되고, 상기 메모리(170)에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서(180)를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 영상에 삽입하기 위한 적어도 하나의 자막(810)을 생성하고, 사용자 인터페이스(900)에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막(810)의 표시 구간을 설정하고, 상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막(810)을 표시하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 사용자 인터페이스(900)는, 상기 영상을 재생하면서, 상기 자막(810)을 표시하기 위한 제 1 영역(910), 상기 재생 시간을 나타내는 진행 바(923) 및 상기 진행 바(923) 상에서 이동 가능한 탐색 포인터(925)를 포함하는 제 2 영역(920), 및 상기 재생 시간을 나타내는 구간 설정 바(933) 및 상기 구간 설정 바(933) 상에서 각각 이동 가능한 제 1 슬라이더(935)와 제 2 슬라이더(937)를 포함하는 제 3 영역(930)을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 사용자의 입력에 기반하여, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935) 또는 상기 제 2 슬라이더(937) 중 적어도 어느 하나를 이동하고, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935)와 상기 제 2 슬라이더(937)의 위치들을 기반으로, 상기 재생 시간 내에서 상기 자막(810)의 시작 시점과 종료 시점을 검출하고, 상기 시작 시점과 상기 종료 시점 사이의 시간을 상기 표시 구간으로 설정하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 재생 바 상에서 상기 탐색 포인터(925)를 이동하고, 상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 제 1 영역(910)에 표시되는 영상을 전환하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 제 3 영역(930)은 미리 설정된 시간 간격이 각각 부여된 적어도 하나의 버튼(939)을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 버튼(939)에 대한 상기 사용자의 입력에 기반하여, 상기 구간 설정 바(933) 상에서 상기 제 1 슬라이더(935)를 상기 설정된 시간 간격 만큼 이동하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 종료 시점을 기반으로, 상기 표시되는 영상을 전환하면서, 상기 제 1 영역(910)에서 상기 자막(810)을 제거하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 영상과 관련된 총 재생 시간을 나타내는 진행 바(613), 및 상기 진행 바(613) 상에서 상기 표시 구간의 시작 시점에 상기 자막(810)에 대응하는 지시자(813)를 표시하고, 상기 영상을 재생하면서, 상기 시작 시점으로부터 상기 표시 구간 동안 상기 자막(810)을 표시하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 복수 개의 자막(810)들이 생성되면, 상기 자막(810)들에 대해 표시 구간들을 각각 설정하고, 상기 진행 바(613) 상에 상기 자막(810)들에 각각 대응하는 지시자(813)들을 각각 표시하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 영상은 복수 개의 부분 영상들이 결합된 동영상이고, 상기 부분 영상들은 정지 영상 또는 동영상 중 적어도 어느 하나를 각각 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 부분 영상들 각각에 대해, 상기 자막(810)을 생성하고, 상기 표시 구간을 설정하도록 구성될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(180)는, 상기 부분 영상들 중 어느 하나에 대해 상기 자막(810)을 생성하고, 상기 영상의 재생 시간 내에서 상기 자막(810)의 표시 구간을 상기 부분 영상들 중 어느 하나의 전체 재생 시간으로 설정하고, 상기 사용자 인터페이스(900)에 기반하여, 상기 표시 구간을 상기 전체 재생 시간으로부터 변경하도록 구성될 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 사용자 인터페이스(600, 900)에 기반하여 동영상에 적어도 하나의 자막(810)을 용이하게 삽입할 수 있다. 이 때 전자 장치(100)는 사용자 인터페이스(900)를 통해 동영상의 재생 시간 내에서 각 자막(810)의 표시 구간을 용이하게 설정할 수 있다. 즉 전자 장치(100)는 동영상 내 각 부분 영상의 재생 시간을 나타내는 구간 설정 바(933) 상에서 슬라이더(935, 937)를 이동함으로써, 표시 구간을 변경할 수 있다. 이 때 전자 장치(100)는 사용자의 간단한 입력 만으로도, 구간 설정 바(933) 상에서 슬라이더(935, 937)를 이동할 수 있다. 이에 따라, 사용자가 전자 장치(100)를 통해, 자막(810)의 표시 구간을 설정하는 데 있어서, 편의성이 향상될 수 있다. 나아가, 사용자가 전자 장치(100)를 통해, 동영상을 편집하는 데 있어서, 편의성이 향상될 수 있다. 아울러, 전자 장치(100)에 대한 사용자의 이용 효율성이 향상될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성 요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성 요소를 다른 구성 요소와 구분하기 위해 사용될 뿐 해당 구성 요소들을 한정하지 않는다. 어떤(예: 제 1) 구성 요소가 다른(예: 제 2) 구성 요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로 연결되거나, 다른 구성 요소(예: 제 3 구성 요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
다양한 실시예들에 따르면, 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 단계들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 단계들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 통합 이전에 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 단계들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 단계들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 단계들이 추가될 수 있다.

Claims (22)

  1. 전자 장치의 동작 방법에 있어서,
    영상에 삽입하기 위한 적어도 하나의 자막을 생성하는 단계;
    사용자 인터페이스에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 설정하는 단계; 및
    상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막을 표시하는 단계를 포함하고,
    상기 사용자 인터페이스는,
    상기 영상을 재생하면서, 상기 자막을 표시하기 위한 제 1 영역,
    상기 재생 시간을 나타내는 진행 바 및 상기 진행 바 상에서 이동 가능한 탐색 포인터를 포함하는 제 2 영역, 및
    상기 재생 시간을 나타내는 구간 설정 바 및 상기 구간 설정 바 상에서 각각 이동 가능한 제 1 슬라이더와 제 2 슬라이더를 포함하는 제 3 영역을 포함하는 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 표시 구간을 설정하는 단계는,
    사용자의 입력에 기반하여, 상기 구간 설정 바 상에서 상기 제 1 슬라이더 또는 상기 제 2 슬라이더 중 적어도 어느 하나를 이동하는 단계;
    상기 구간 설정 바 상에서 상기 제 1 슬라이더와 상기 제 2 슬라이더의 위치들을 기반으로, 상기 재생 시간 내에서 상기 자막의 시작 시점과 종료 시점을 검출하는 단계; 및
    상기 시작 시점과 상기 종료 시점 사이의 시간을 상기 표시 구간으로 설정하는 단계를 포함하는 방법.
  4. 제 3 항에 있어서,
    상기 표시 구간을 설정하는 단계는,
    상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 진행 바 상에서 상기 탐색 포인터를 이동하는 단계; 및
    상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 제 1 영역에 표시되는 영상을 전환하는 단계를 더 포함하는 방법.
  5. 제 3 항에 있어서,
    상기 제 3 영역은 미리 설정된 시간 간격이 각각 부여된 적어도 하나의 버튼을 더 포함하고,
    상기 제 1 슬라이더 또는 상기 제 2 슬라이더 중 적어도 어느 하나를 이동하는 단계는,
    상기 버튼에 대한 상기 사용자의 입력에 기반하여, 상기 구간 설정 바 상에서 상기 제 1 슬라이더를 상기 설정된 시간 간격 만큼 이동하는 단계를 포함하는 방법.
  6. 제 4 항에 있어서,
    상기 표시 구간을 설정하는 단계는,
    상기 종료 시점을 기반으로, 상기 표시되는 영상을 전환하면서, 상기 제 1 영역에서 상기 자막을 제거하는 단계를 더 포함하는 방법.
  7. 제 1 항에 있어서,
    상기 자막을 표시하는 단계는,
    상기 영상과 관련된 총 재생 시간을 나타내는 다른 진행 바, 및 상기 다른 진행 바 상에서 상기 표시 구간의 시작 시점에 상기 자막에 대응하는 지시자를 표시하는 단계; 및
    상기 영상을 재생하면서, 상기 시작 시점으로부터 상기 표시 구간 동안 상기 자막을 표시하는 단계를 포함하는 방법.
  8. 제 7 항에 있어서,
    상기 표시 구간을 설정하는 단계는,
    복수 개의 자막들이 생성되면, 상기 자막들 각각에 대해 수행되며,
    상기 지시자를 표시하는 단계는,
    상기 다른 진행 바 상에 상기 자막들에 각각 대응하는 지시자들을 각각 표시하는 단계를 포함하는 방법.
  9. 제 1 항에 있어서,
    상기 영상은 복수 개의 부분 영상들이 결합된 동영상이고,
    상기 부분 영상들은 정지 영상 또는 동영상 중 적어도 어느 하나를 각각 포함하며,
    상기 자막을 생성하는 단계 및 상기 표시 구간을 설정하는 단계는,
    상기 부분 영상들 각각에 대해, 수행되는 방법.
  10. 제 9 항에 있어서,
    상기 자막을 생성하는 단계는,
    상기 부분 영상들 중 어느 하나에 대해 상기 자막을 생성하는 단계; 및
    상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 상기 부분 영상들 중 어느 하나의 전체 재생 시간으로 설정하는 단계를 포함하고,
    상기 표시 구간을 설정하는 단계는,
    상기 사용자 인터페이스에 기반하여, 상기 표시 구간을 상기 전체 재생 시간으로부터 변경하는 단계를 포함하는 방법.
  11. 제 1 항, 또는 제 3 항 내지 제 10 항 중 어느 한 항의 동작 방법을 상기 전자 장치에 실행시키기 위해 비-일시적인 컴퓨터 판독 가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  12. 제 1 항, 또는 제 3 항 내지 제 10 항 중 어느 한 항의 동작 방법을 상기 전자 장치에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독 가능한 기록 매체.
  13. 전자 장치에 있어서,
    메모리; 및
    상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성된 프로세서를 포함하고,
    상기 프로세서는,
    영상에 삽입하기 위한 적어도 하나의 자막을 생성하고,
    사용자 인터페이스에 기반하여, 상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 설정하고,
    상기 영상을 재생하면서, 상기 표시 구간 동안 상기 자막을 표시하도록 구성되고,
    상기 사용자 인터페이스는,
    상기 영상을 재생하면서, 상기 자막을 표시하기 위한 제 1 영역,
    상기 재생 시간을 나타내는 진행 바 및 상기 진행 바 상에서 이동 가능한 탐색 포인터를 포함하는 제 2 영역, 및
    상기 재생 시간을 나타내는 구간 설정 바 및 상기 구간 설정 바 상에서 각각 이동 가능한 제 1 슬라이더와 제 2 슬라이더를 포함하는 제 3 영역을 포함하는 장치.
  14. 삭제
  15. 제 13 항에 있어서,
    상기 프로세서는,
    사용자의 입력에 기반하여, 상기 구간 설정 바 상에서 상기 제 1 슬라이더 또는 상기 제 2 슬라이더 중 적어도 어느 하나를 이동하고,
    상기 구간 설정 바 상에서 상기 제 1 슬라이더와 상기 제 2 슬라이더의 위치들을 기반으로, 상기 재생 시간 내에서 상기 자막의 시작 시점과 종료 시점을 검출하고,
    상기 시작 시점과 상기 종료 시점 사이의 시간을 상기 표시 구간으로 설정하도록 구성되는 장치.
  16. 제 15 항에 있어서,
    상기 프로세서는,
    상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 진행 바 상에서 상기 탐색 포인터를 이동하고,
    상기 재생 시간 내에서 상기 시작 시점 또는 상기 종료 시점을 기반으로, 상기 제 1 영역에 표시되는 영상을 전환하도록 구성되는 장치.
  17. 제 15 항에 있어서,
    상기 제 3 영역은 미리 설정된 시간 간격이 각각 부여된 적어도 하나의 버튼을 더 포함하고,
    상기 프로세서는,
    상기 버튼에 대한 상기 사용자의 입력에 기반하여, 상기 구간 설정 바 상에서 상기 제 1 슬라이더를 상기 설정된 시간 간격 만큼 이동하도록 구성되는 장치.
  18. 제 16 항에 있어서,
    상기 프로세서는,
    상기 종료 시점을 기반으로, 상기 표시되는 영상을 전환하면서, 상기 제 1 영역에서 상기 자막을 제거하도록 구성되는 장치.
  19. 제 13 항에 있어서,
    상기 프로세서는,
    상기 영상과 관련된 총 재생 시간을 나타내는 다른 진행 바, 및 상기 다른 진행 바 상에서 상기 표시 구간의 시작 시점에 상기 자막에 대응하는 지시자를 표시하고,
    상기 영상을 재생하면서, 상기 시작 시점으로부터 상기 표시 구간 동안 상기 자막을 표시하도록 구성되는 장치.
  20. 제 19 항에 있어서,
    상기 프로세서는,
    복수 개의 자막들이 생성되면, 상기 자막들에 대해 표시 구간들을 각각 설정하고,
    상기 다른 진행 바 상에 상기 자막들에 각각 대응하는 지시자들을 각각 표시하도록 구성되는 장치.
  21. 제 13 항에 있어서,
    상기 영상은 복수 개의 부분 영상들이 결합된 동영상이고,
    상기 부분 영상들은 정지 영상 또는 동영상 중 적어도 어느 하나를 각각 포함하며,
    상기 프로세서는,
    상기 부분 영상들 각각에 대해, 상기 자막을 생성하고, 상기 표시 구간을 설정하도록 구성되는 장치.
  22. 제 21 항에 있어서,
    상기 프로세서는,
    상기 부분 영상들 중 어느 하나에 대해 상기 자막을 생성하고,
    상기 영상의 재생 시간 내에서 상기 자막의 표시 구간을 상기 부분 영상들 중 어느 하나의 전체 재생 시간으로 설정하고,
    상기 사용자 인터페이스에 기반하여, 상기 표시 구간을 상기 전체 재생 시간으로부터 변경하도록 구성되는 장치.
KR1020200042313A 2020-04-07 2020-04-07 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법 KR102301916B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200042313A KR102301916B1 (ko) 2020-04-07 2020-04-07 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200042313A KR102301916B1 (ko) 2020-04-07 2020-04-07 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법

Publications (1)

Publication Number Publication Date
KR102301916B1 true KR102301916B1 (ko) 2021-09-14

Family

ID=77774309

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200042313A KR102301916B1 (ko) 2020-04-07 2020-04-07 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법

Country Status (1)

Country Link
KR (1) KR102301916B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224773A (ja) * 2002-01-28 2003-08-08 Telecommunication Advancement Organization Of Japan タイムライン上に配置した字幕の境界移動による字幕編集支援システム
KR20040048247A (ko) * 2002-12-02 2004-06-07 삼성전자주식회사 비선형 동영상 편집시스템에서의 자막 편집 방법
KR101665579B1 (ko) * 2015-07-10 2016-10-13 (주) 프람트 동영상콘텐츠의 구조를 직관적으로 파악하기 위한 사용자 인터페이스 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224773A (ja) * 2002-01-28 2003-08-08 Telecommunication Advancement Organization Of Japan タイムライン上に配置した字幕の境界移動による字幕編集支援システム
KR20040048247A (ko) * 2002-12-02 2004-06-07 삼성전자주식회사 비선형 동영상 편집시스템에서의 자막 편집 방법
KR101665579B1 (ko) * 2015-07-10 2016-10-13 (주) 프람트 동영상콘텐츠의 구조를 직관적으로 파악하기 위한 사용자 인터페이스 장치 및 그 방법

Similar Documents

Publication Publication Date Title
US10200634B2 (en) Video generation method, apparatus and terminal
KR102131322B1 (ko) 동영상을 처리하는 컴퓨팅 장치, 방법 및 컴퓨터 프로그램
KR20110071349A (ko) 휴대단말의 외부 출력 제어 방법 및 장치
CN108363534B (zh) 可编辑对象的全局预览方法、装置及电子设备
KR20140042427A (ko) 애니메이션 이모티콘을 생성하는 장치 및 그 방법
KR20190021016A (ko) 전자 장치 및 그 제어 방법
CN103809895A (zh) 一种可动态生成按键的移动终端及方法
KR20160094754A (ko) 디스플레이 장치 및 그 제어 방법
US9542098B2 (en) Display control apparatus and method of controlling display control apparatus
KR20160142184A (ko) 디스플레이 장치 및 이의 제어 방법.
KR102301916B1 (ko) 사용자 인터페이스 기반 동영상 자막 설정 제어를 위한 전자 장치 및 그의 동작 방법
JP3244476B2 (ja) ゲーム装置、ゲーム装置の制御方法及びコンピュータ読取可能な記録媒体
US10637905B2 (en) Method for processing data and electronic apparatus
KR101447283B1 (ko) 화면 출력을 제어하는 방법, 단말기 및 기록매체
US10613622B2 (en) Method and device for controlling virtual reality helmets
KR20180032906A (ko) 전자 장치 및 이의 제어 방법
CN114071011B (zh) 显示控制设备、用于控制其的控制方法和记录介质
JP2012190081A (ja) 電子機器、オブジェクトの表示方法及びオブジェクトの表示プログラム。
KR102368203B1 (ko) 사용자 인터페이스 기반 동영상 인덱스 생성을 위한 전자 장치 및 그의 동작 방법
JP6289324B2 (ja) 携帯端末及び表示制御方法
KR101811344B1 (ko) 디스플레이 제어 방법, 장치 및 컴퓨터프로그램
KR20170093466A (ko) 컨텐츠 제공 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램, 방법 및 장치
KR101604815B1 (ko) 이동 단말기 및 그의 플렉서블 디스플레이를 이용한 동영상 제어방법
KR102303286B1 (ko) 단말기 및 그의 동작 방법
KR101701838B1 (ko) 멀티미디어 재생 장치 및 그 재생 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant