KR20150025214A - 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치 - Google Patents

동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치 Download PDF

Info

Publication number
KR20150025214A
KR20150025214A KR20130102563A KR20130102563A KR20150025214A KR 20150025214 A KR20150025214 A KR 20150025214A KR 20130102563 A KR20130102563 A KR 20130102563A KR 20130102563 A KR20130102563 A KR 20130102563A KR 20150025214 A KR20150025214 A KR 20150025214A
Authority
KR
South Korea
Prior art keywords
visual
visual object
visual effect
effect area
moving picture
Prior art date
Application number
KR20130102563A
Other languages
English (en)
Inventor
이호영
김규철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130102563A priority Critical patent/KR20150025214A/ko
Priority to US14/308,115 priority patent/US20150063785A1/en
Publication of KR20150025214A publication Critical patent/KR20150025214A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법은, 동영상의 일 부분에 비주얼 효과 영역을 설정하는 과정과; 상기 비주얼 효과 영역에 미리 설정된 비주얼 효과를 적용하는 과정과; 상기 비주얼 효과가 적용된 상기 비주얼 효과 영역에 비주얼 객체를 중첩 표시하는 과정을 포함한다.

Description

동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치{METHOD FOR DISPLAYING VISUAL OBJECT ON VIDEO, MACHINE-READABLE STORAGE MEDIUM AND ELECTRONIC DEVICE}
본 발명은 동영상 표시 방법에 관한 것이다.
사용자에 의해 직접 제어되는 전자 장치는 표시부를 구비하며, 사용자는 표시부를 통해 해당 전자 장치의 각종 동작 상태나 어플리케이션 동작을 지켜 보면서 입력 장치를 통해 전자 장치를 제어할 수 있다. 특히, 휴대폰 등과 같이, 사용자에 의해 소지 가능하도록 제조되는 전자 장치는 그 제한된 크기로 인하여 상하좌우 이동을 위한 사방향 버튼 등을 구비하지 않고, 사용자의 스크린 터치 입력이 가능한 표시부를 통해 사용자 인터페이스를 제공하는 방식을 보편적으로 채택하고 있다.
스마트폰, 타블렛 등의 전자 장치가 보편화되면서 이를 이용해 동영상 컨텐츠를 제공 또는 수신하고자 하는 요구가 증가하였다. 예를 들어, 사용자는 전자 장치를 통해 다양한 서비스의 동영상을 보게 되고, 서비스 제공자도 동영상을 통해 정보를 제공하거나 광고를 한다.
사용자가 전자 장치를 통해 동영상을 보는 경우에, 메시지 착신을 알리는 컨텐츠, 동영상 서비스 제공자의 요구에 의한 광고 컨텐츠 등이 동영상에 중첩되어 표시되는 경우가 있다. 이러한 상황에서, 동영상으로부터 컨텐츠를 식별하기 어려운 경우가 종종 발생한다. 컨텐츠의 식별을 위해 비주얼 효과를 제공하는 경우에도, 스마트폰과 같은 휴대용 전자 장치의 제한된 자원으로 인해 동영상의 정상 재생에 문제를 일으키거나, 과도한 비주얼 효과로 인하여 동영상 시청에 불편을 주는 문제가 있다.
본 발명의 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.
본 발명의 일 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법은, 동영상의 일 부분에 비주얼 효과 영역을 설정하는 과정과; 상기 비주얼 효과 영역에 미리 설정된 비주얼 효과를 적용하는 과정과; 상기 비주얼 효과가 적용된 상기 비주얼 효과 영역에 비주얼 객체를 중첩 표시하는 과정을 포함한다.
본 발명의 다른 예에 따른 전자 장치는, 동영상을 표시하는 표시부와; 상기 동영상의 일 부분에 비주얼 효과 영역을 설정하고, 상기 표시부를 통해 상기 비주얼 효과 영역에 미리 설정된 비주얼 효과를 적용하고, 상기 표시부를 통해 상기 비주얼 효과가 적용된 상기 비주얼 효과 영역에 비주얼 객체를 중첩 표시하는 제어부를 포함한다.
본 발명의 다양한 실시 예에 따르면, 동영상을 재생하는 동안에, 동영상에 중첩하여 표시될 텍스트, 이미지 등과 같은 비주얼 객체의 속성을 인식하고, 비주얼 객체의 속성에 따라 동영상의 속성을 제어함으로써, 비주얼 객체를 동영상과 차별화하여 비주얼 객체의 시인성 및 디자인 심미성을 높여 준다.
본 발명의 다양한 실시 예에 따르면, 비주얼 객체의 위치 및 크기를 고려하여 동영상의 일 부분에 비주얼 객체의 용이한 식별을 위한 비주얼 효과를 적용함으로써, 제어부의 연상량, 저장부의 메모리 공간 등의 자원을 최소로 사용할 수 있도록 하고, 부분적 비주얼 효과로 인하여 동영상 시청에 불편을 주지 않는다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 흐름도이다.
도 3 및 4는 비주얼 객체의 위치 및 비주얼 효과 영역의 위치 사이의 관계를 설명하기 위한 도면이다.
도 5 및 6은 본 발명의 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면들이다.
도 7은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 8은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 8은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 10은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 11은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 12는 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
도 13은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 과정, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 과정, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에서 전자 장치는 임의의 장치일 수 있으며, 전자 장치는 단말, 휴대 단말, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말, 디스플레이 장치 등으로 칭할 수 있다.
예를 들어, 전자 장치는 스마트폰, 휴대폰, 내비게이션 장치, 게임기, TV, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 전자 장치는 무선 통신 기능을 갖는 포켓 사이즈의 휴대용 통신 단말로서 구현될 수도 있다. 또한, 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
전자 장치는 서버 등의 외부 전자 장치와 통신하거나, 외부 전자 장치와의 연동을 통해 작업을 수행할 수 있다. 예를 들어, 전자 장치는 카메라에 의해 촬영된 이미지 및/또는 센서부에 의해 검출된 위치 정보를 네트워크를 통해 서버로 전송할 수 있다. 네트워크는, 이에 한정되지 않지만, 이동 또는 셀룰러 통신망, 근거리 통신망(Local Area Network: LAN), 무선 근거리 통신망(Wireless Local Area Network: WLAN), 광역 통신망(Wide Area Network: WAN), 인터넷, 소지역 통신망(Small Area Network: SAN) 등일 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타낸다. 도 1은 전자 장치의 대표적인 구성을 나타내며, 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다.
전자 장치(100)는 입/출력 모듈(110), 저장부(120), 센서부(130), 카메라(140), 통신부(150), 표시부(160) 및 제어부(170)를 포함할 수 있다.
입/출력 모듈(110)은 사용자 입력을 수신하거나 사용자에게 정보를 알리기 위한 수단으로서, 복수의 버튼, 마이크, 스피커, 진동 모터, 커넥터, 키패드, 마우스, 트랙볼(trackball), 조이스틱, 커서 방향 키들, 또는 커서 컨트롤(cursor control) 등을 포함할 수 있다.
버튼은 전자 장치(100)의 전면, 측면 및/또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button), 또는 검색 버튼 등을 포함할 수 있다.
마이크는 제어부(170)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받아 전기적인 신호를 생성한다.
스피커는 제어부(170)의 제어에 따라 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 전자 장치(100)의 외부로 출력할 수 있다. 스피커는 전자 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커는 전자 장치(100)의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 모터는 제어부(170)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치(100)가 다른 전자 장치(도시되지 아니함)로부터 음성 통화를 수신하는 경우, 진동 모터가 동작한다. 진동 모터는 전자 장치(100) 내에 하나 또는 복수로 형성될 수 있다. 진동 모터는 표시부(160)를 터치하는 사용자의 터치 동작 및 표시부(160) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터는 전자 장치(100)와 서버, 외부 전자 장치 또는 전원 소스를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(170)의 제어에 따라 커넥터에 연결된 유선 케이블을 통해 전자 장치(100)의 저장부(120)에 저장된 데이터를 외부 장치로 전송하거나 또는 외부 장치로부터 데이터를 수신할 수 있다. 커넥터에 연결된 유선 케이블을 통해 전원 소스로부터 전원이 입력되거나 배터리가 충전될 수 있다.
키패드는 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드는 전자 장치(100)에 형성되는 물리적인 키패드, 또는 표시부(160)에 표시되는 가상의 키패드 등을 포함할 수 있다.
저장부(120)는 음성 인식 어플리케이션, 스케줄 관리 어플리케이션, 문서 작성 어플리케이션, 뮤직 어플리케이션, 인터넷 어플리케이션, 지도 어플리케이션, 카메라 어플리케이션, 이메일 어플리케이션, 이미지 편집 어플리케이션, 검색 어플리케이션, 파일 탐색 어플리케이션, 비디오 어플리케이션, 게임 어플리케이션, SNS 어플리케이션, 전화 어플리케이션, 메시지 어플리케이션 등의 하나 또는 복수의 어플리케이션의 구동을 위한 데이터를 저장할 수 있다. 저장부(120)는 하나 또는 복수의 어플리케이션과 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서 등의 데이터 또는 데이터베이스, 상기 전자 장치(100)를 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라에 의해 촬영된 이미지들 등을 저장할 수 있다. 상기 저장부(120)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계에게 데이터를 제공하는 매체로 정의될 수 있다. 기계로 읽을 수 있는 매체는 저장 매체일 수 있다. 상기 저장부(120)는 비휘발성 매체(non-volatile media), 또는 휘발성 매체 등을 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punchcard), 페이퍼 테이프(papertape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM), 또는 플래시-이피롬(FLASH-EPROM) 등을 포함할 수 있다.
센서부(130)는 전자 장치(100)의 상태(위치, 방위, 움직임 등)를 검출하는 하나 또는 복수의 센서를 포함할 수 있다. 예를 들어, 센서부(130)는 사용자의 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 또는 전자 장치(100)의 동작(예를 들어, 전자 장치(100)의 회전, 가속, 감속, 진동 등)을 검출하는 모션/방위 센서 등을 포함할 수 있다. 또한, 모션/방위 센서는 기울기를 측정하고 직선상 속도 변화를 검출하는 가속도 센서(또는 중력 센서), 각속도를 검출하는 자이로(gyro) 센서, 충격 센서, GPS 센서, 방위를 검출하는 나침반 센서(compass sensor)(또는 지자기 센서), 또는 운동의 관성력을 검출하여 측정 대상인 움직이는 물체의 가속도, 속도, 방향, 거리 등 다양한 정보를 제공하는 관성 센서 등을 포함할 수 있다. 센서부(130)는 전자 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(170)로 전송할 수 있다. 예를 들어, GPS 센서는 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 전자 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 전자 장치(100)의 GPS 위치를 산출할 수 있다. 나침반 센서는 전자 장치(100)의 자세 또는 방위를 산출할 수 있다.
카메라(140)는 외부로부터 입사된 광을 수렴시킴으로써 피사체의 광학적 이미지를 형성하는 렌즈계, 광학적 이미지를 전기적인 이미지 신호 또는 데이터로 변환하여 출력하는 이미지 센서 및 제어부(170)의 제어에 따라 이미지 센서를 구동하는 구동부를 포함할 수 있으며, 플래쉬 등을 더 포함할 수 있다.
통신부(150)는 서버 또는 외부 전자 장치와의 직접 연결 또는 네트워크를 통한 연결을 위해 제공되며, 유선 또는 무선 통신부일 수 있으며, 제어부(170), 저장부(120), 카메라(140) 등으로부터의 데이터를 유선 또는 무선으로 전송하거나, 외부 통신선 또는 대기로부터 데이터를 유선 또는 무선 수신하여 제어부(170)로 전달하거나 저장부(120)에 저장한다.
통신부(150)는 이동통신 모듈, 무선랜 모듈, 또는 근거리 통신 모듈 등을 포함할 수 있다. 통신부(150)는, 이에 한정되지 않지만, 종합 정보 통신망(integrated services digital network: ISDN) 카드, 모뎀, 근거리 통신망(LAN) 카드, 적외선 포트, 블루투스 포트(Bluetooth port), 지그비(zigbee) 포트, 또는 무선 포트 등을 포함할 수 있다.
이동통신 모듈은 제어부(170)의 제어에 따라 하나 또는 복수의 안테나를 이용하여 이동 통신을 통해 전자 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈은 전자 장치(100)에 입력되는 전화번호, 또는 네트워크 주소를 가지는 휴대폰, 스마트폰, 태블릿PC 또는 다른 장치와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 등의 데이터 교환 또는 일방향 전송 또는 수신을 위한 무선 신호(Radio frequency signal: RF signal)를 송/수신한다.
무선랜 모듈은 제어부(170)의 제어에 따라 무선 AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈은 제어부(170)의 제어에 따라 전자 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 또는 적외선 통신(IrDA, infrared data association) 등을 포함할 수 있다.
표시부(160)는 제어부(170)로부터 입력된 이미지 또는 데이터를 화면에 표시한다. 이러한 표시부(160)로는 액정표시장치(liquid crystal display: LCD), 터치스크린(touch screen) 등을 사용할 수 있다. 상기 표시부는 상기 제어부(170)의 제어에 따른 영상을 표시하고, 그 표면에 손가락, 스타일러스 펜(stylus pen) 등과 같은 사용자 입력 수단이 접촉하면 키 접촉 인터럽트(interrupt)를 발생시키고, 상기 제어부(170)의 제어에 따라 입력 좌표 및 입력 상태를 포함하는 사용자 입력 정보를 상기 제어부(170)로 출력할 수 있다.
표시부(160)는 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진/동영상 촬영)에 대응되는 그래픽 사용자 인터페이스를 제공할 수 있다. 표시부(160)는 그래픽 사용자 인터페이스에 입력되는 하나 또는 복수의 터치에 대응되는 사용자 입력 정보를 제어부(170)로 전송할 수 있다. 표시부(160)는 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 하나 또는 복수의 터치를 입력받을 수 있다. 또한, 표시부(160)는 하나 또는 복수의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 표시부(160)는 입력되는 터치의 연속적인 움직임에 대응되는 사용자 입력 정보를 제어부(170)로 전송할 수 있다.
터치는 표시부(160)와 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예를, 터치스크린과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 0보다 크고 5 cm 이하)을 포함할 수 있다. 이러한 검출 가능한 간격은 표시부(160)의 호버링 감지 능력에 따라 더 커질 수 있다. 표시부(160)는 터치스크린일 수 있으며, 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 전자기(ElectroMagnetic: EM) 방식, 전자기 공명(ElectroMagnetic Resonance, EMR) 등의 터치스크린일 수 있다.
제어부(170)는 사용자 입력 정보에 따른 어플리케이션을 실행하고, 상기 어플리케이션은 사용자 입력 정보에 따른 프로그램 동작을 수행한다. 이때, 사용자 입력은 입/출력 모듈(110), 표시부(160), 센서부(130) 등을 통한 입력, 또는 카메라(140) 기반의 입력 등을 포함한다. 제어부(170)는 정보 통신을 위한 버스(bus) 및 정보 처리를 위해 상기 버스와 연결된 프로세서(processor)를 포함할 수 있다. 제어부(140)는 중앙 처리 장치(Central Porcessing Unit; CPU), 또는 어플리케이션 프로세서(Application Processor; AP) 등을 포함할 수 있다.
제어부(170)는 또한 프로세서에 의해 요구되는 정보를 임시로 저장하기 위해 상기 버스와 연결된 램(random access memory: RAM), 상기 프로세서에 의해 요구되는 정적 정보(static information)를 저장하기 위해 상기 버스와 연결되는 롬(read only memory: ROM) 등을 더 포함할 수 있다.
제어부(170)는 전자 장치(100)의 전반적인 동작을 제어하고, 본 발명에 따른 동영상에 중첩 표시되는 비주얼 객체의 시인성을 향상시키는 방법을 수행하는 역할을 한다.
동영상은 시간의 흐름에 따라 이미지 속 객체(예를 들어, 사람, 동물, 식물, 물체, 배경 이미지, 전경 이미지 등)가 움직이거나 이미지의 시각적 속성(색상, 명도, 채도, 투명도 등)이 변화하는 이미지를 말하며, 이러한 동영상은 복수의 이미지 프레임(또는, 복수의 정지 이미지)을 포함할 수 있고, 각 이미지 프레임은 복수의 픽셀들을 포함할 수 있다. 이러한 동영상은 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, wmv, mkv 등인 파일), 스트리밍 동영상, 플래시 파일, 어플리케이션 화면에서 제공하는 동영상(예를 들어, 어플리케이션 실행시 초기에 표시되는 동영상), 웹 페이지 화면에서 제공하는 동영상 등일 수 있다.
비주얼 객체는 크게 이미지 또는 텍스트일 수 있으며, 비주얼 객체는 전자 장치(100)의 표시부(160) 상에 표시되거나, 표시될 수 있는 것으로서, 예를 들어, 컨텐츠, 텍스트, 메뉴, 기능 아이템(또는 메뉴 아이템), 버튼, 단축 아이콘, 썸네일 이미지, 폴더, 사진, 동영상, 메시지, 하이퍼링크, 키, 버튼 등일 수 있다. 비주얼 객체는 사용자 입력 수단에 의해 선택, 실행, 삭제, 이동 또는 변경될 수도 있다. 기능 아이템은 실행 가능한 기능, 특정 메뉴를 구성하는 어느 한 기능 등을 나타낼 수 있다. 단축 아이콘은 각각의 어플리케이션 또는 전자 장치(100)에서 기본적으로 제공되는 통화, 연락처, 메뉴 등의 빠른 실행을 위해 전자 장치(100)의 표시부(160) 상에 표시되는 것으로서, 이를 실행하기 위한 명령 또는 선택이 입력되면 해당 어플리케이션을 실행할 수 있다.
본 발명의 다양한 실시 예는 동영상과 비주얼 객체인 컨텐츠가 함께 표시되는 화면에서 동영상 일부의 속성을 변화시켜 컨텐츠를 돋보이도록 할 수 있다. 본 발명의 다양한 실시 예는 동영상이 재생되는 화면에서 앞으로 표시될 컨텐츠나 시각 정보의 위치를 미리 파악하여 부분적으로 동영상의 속성 값을 변경하여 컨텐츠를 돋보이게 하거나 서로 조화를 이루도록 할 수 있다. 본 발명의 다양한 실시 예는 동영상과 컨텐츠 사이에 부분 필터를 제공하여 동영상 및 컨텐츠의 속성들을 조화롭게 보이도록 하거나 가독성을 향상시킬 수 있다. 본 발명의 다양한 실시 예는 비주얼 효과의 차별화를 통해 시인성의 강화가 필요한 부분은 더 강하게, 시인성의 강화가 필요 없는 부분은 약하게 비주얼 효과를 차등 적용할 수 있다. 본 발명의 다양한 실시 예는 동영상과 컨텐츠의 비주얼 효과나 속성 변경을 통해 새로운 부가 정보를 전달할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 흐름도이다.
동영상에 비주얼 객체를 중첩 표시하는 방법은 S110~S160 과정을 포함한다.
S110 과정은 어플리케이션 실행 과정이며, 제어부(170)는 자동으로, 또는 사용자 입력에 따라 어플리케이션을 실행한다. 자동으로 실행되는 어플리케이션은 홈 어플리케이션, 기본 어플리케이션, 환경 설정에 자동 실행으로 설정된 어플리케이션, 또는 메시지 수신, 콜 수신, 알람 이벤트 발생 등과 같은 이벤트의 발생에 따라 자동으로 실행되는 어플리케이션 등일 수 있다.
사용자 입력에 의한 어플리케이션의 실행인 경우에, 제어부(170)는 입/출력 모듈(110), 센서부(130), 카메라(140), 통신부(150) 또는 표시부(160)를 통해 사용자 입력을 수신할 수 있다. 사용자는 입/출력 모듈(110) 또는 표시부(160)를 통해 버튼, 아이콘 또는 메뉴 항목을 선택하거나, 입/출력 모듈(110)의 마이크를 통해 음성 명령을 입력하거나, 카메라(140)를 통해 제스쳐 또는 모션 입력을 수행하거나, 통신부(150)를 통해 무선으로 특정 어플리케이션의 실행 명령을 입력할 수 있다.
이러한 어플리케이션은 임의의 어플리케이션일 수 있으며, 예를 들어, 음성 인식 어플리케이션, 스케줄 관리 어플리케이션, 문서 작성 어플리케이션, 뮤직 어플리케이션, 인터넷 어플리케이션, 지도 어플리케이션, 카메라 어플리케이션, 이메일 어플리케이션, 이미지 편집 어플리케이션, 검색 어플리케이션, 파일 탐색 어플리케이션, 비디오 어플리케이션, 게임 어플리케이션, SNS 어플리케이션, 전화 어플리케이션, 메시지 어플리케이션 등일 수 있다.
제스쳐 또는 모션 입력은, 예를 들어, 사용자가 손 또는 손가락으로 카메라(140)의 화각 내 또는 센서부(130)의 센싱 범위 내에서 허공에 원형, 삼각형, 사각형 등의 미리 설정된 패턴의 궤적을 그리는 경우를 말한다. 이때, 제스쳐는 터치 제스쳐와 구분하기 위하여 공간 제스쳐라고 칭할 수도 있다. 이때, 터치 제스쳐는 표시부(160)를 직접 터치하는 경우, 또는 표시부(160) 위에서 호버링하는 경우를 포함한다.
S120 과정은 동영상 표시 과정이며, 제어부(170)는 표시부(160)를 통해 동영상을 표시 또는 재생한다. 예를 들어, 제어부(170)는 표시부(160)를 통해 어플리케이션 화면을 표시하고, 제어부(170)는 어플리케이션 화면 내에 동영상을 재생할 수 있다. 동영상은 저장부(120)에 저장되어 있거나, 통신부(150)를 통해 서버로부터 수신한 동영상일 수 있다. 예를 들어, 비디오 어플리케이션 화면에서 동영상이 재생될 수 있다. 또는, 표시부(160)의 전체 화면에 동영상이 표시될 수도 있다. 예를 들어, 어플리케이션 화면을 표시된 상태에서, 사용자가 저장부(120) 또는 서버에 저장된 동영상을 선택하면, 제어부(170)는 어플리케이션 화면 또는 전체 화면에서 동영상을 표시할 수 있다.
S130 과정은 비주얼 객체의 존재를 확인하는 과정이며, 제어부(170)는 동영상이 재생되는 동안에 동영상에 중첩 표시될 비주얼 객체가 존재하는지의 여부를 판단한다. 제어부(170)는, 비주얼 객체가 존재하면 S140 과정을 수행하고, 비주얼 객체가 존재하지 않으면 본 방법을 종료한다.
S140 과정은 전처리 프로세스를 수행하는 과정이며, 제어부(170)는 동영상에 비주얼 객체를 중첩하여 표시하기 위한 전처리 프로세스를 수행한다. S130 과정 및 S140 과정은 어플리케이션이 실행된 이후, 동영상이 표시되기 전에 수행될 수도 있다. 또한, 어플리케이션이 자체적으로 비주얼 효과를 제공하도록 설계된 경우에, 비주얼 효과 영역의 속성은 미리 결정되어 저장부(120)에 저장되어 있을 수 있으며, 이러한 경우에 S130 과정 및 S140 과정은 생략될 수도 있다. 또는, 어플리케이션이 전처리 프로세스를 수행하도록 설계된 경우에, S130 과정 및 S140 과정 중 S130 과정만 생략될 수도 있다.
전처리 프로세스는 S142 및 S144 과정을 포함한다.
S142 과정은 비주얼 객체의 속성을 확인하는 과정이며, 제어부(170)는 비주얼 객체의 속성을 확인한다. 제어부(170)는 비주얼 객체의 다양한 속성(크기, 위치, 색상, 명도, 채도, 형태, 투명도, 강조 효과의 종류(밝기, 선명도, 투명도 등의 변화), 강조 효과의 적용 조건, 강조 효과의 지속 시간 등) 중 일부를 확인할 수 있다. 예를 들어, 제어부(170)는 비주얼 객체의 크기만을 확인하거나, 비주얼 객체의 위치만을 확인하거나, 비주얼 객체의 크기 및 위치를 모두 확인할 수 있다. 비주얼 객체의 형태는 사각형, 원형, 삼각형, 별 형태 등일 수 있으며, 비주얼 객체의 형태는 사각형, 원형, 삼각형, 별 형태 등의 미리 설정된 형태로 고정될 수 있다. 예를 들어, 동영상에 중첩 표시되는 자막의 경우와 같이, 비주얼 객체의 위치가 가변적이지 않고 고정된 경우에, 제어부(170)는 비주얼 객체의 크기만을 확인할 수 있다. 예를 들어, 비주얼 객체의 크기가 가변적이지 않고 고정된 경우에, 제어부(170)는 비주얼 객체의 위치만을 확인할 수 있다.
비주얼 객체의 위치는 절대적 위치(예를 들어, 표시부(160)의 원점(예를 들어, 표시부(160)의 좌하단 모서리의 위치)을 기준으로 한 x, y 좌표들)이거나, 상대적 위치(예를 들어, 동영상의 원점(예를 들어, 동영상의 좌하단 모서리의 위치)을 기준으로 한 x, y 좌표들)일 수 있다.
예를 들어, 비주얼 객체의 면적 및 위치는 표시부(160)의 원점을 기준으로 비주얼 객체의 좌하단 모서리 위치인 {x1, y1}와, 비주얼 객체의 우상단 모서리 위치인 {x2, y2}로 표시될 수 있다. 다른 예를 들어, 비주얼 객체의 면적 및 위치는 비주얼 객체의 가로 길이 및 세로 길이와, 비주얼 객체의 좌하단 모서리 위치인 {x1, y1}로 표시될 수 있다.
S144 과정은 비주얼 효과 영역의 속성을 결정하는 과정이며, 제어부(170)는 비주얼 객체의 속성에 근거하여 비주얼 효과의 속성을 결정하며, 제어부(170)는 비주얼 효과 영역의 다양한 속성(크기, 위치, 색상, 명도, 채도, 형태, 투명도, 비주얼 효과의 종류(블러(blur) 효과, 딤(dim) 효과, 서브트랙(subtrack) 효과, 투명 효과 등), 비주얼 효과의 적용 조건, 비주얼 효과의 지속 시간 등) 중 일부를 결정할 수 있다. 예를 들어, 제어부(170)는 비주얼 효과 영역의 크기만을 결정하거나, 비주얼 효과 영역의 위치만을 결정하거나, 비주얼 효과 영역의 크기 및 위치를 모두 결정할 수 있다.
비주얼 효과 영역의 형태는 비주얼 객체의 형태에 따라 결정될 수 있으며, 비주얼 효과 영역은 비주얼 객체와 유사한 형태를 가질 수 있으며, 비주얼 효과 영역은 비주얼 객체와 동일한 형태를 갖거나, 비주얼 객체를 확대한 형태를 가질 수 있다. 비주얼 효과 영역은 방사상, 가로 방향 또는 세로 방향으로 확대될 수 있다. 예를 들어, 비주얼 객체가 가로 및 세로 길이가 일정한 정사각형인 경우, 비주얼 효과 영역은 가로로 더 길거나 세로로 더 긴 직사각형, 또는 가로 및 세로 길이가 각각 더 긴 정사각형일 수 있다. 비주얼 효과 영역의 형태는 사각형, 원형, 삼각형, 별 형태 등일 수 있으며, 비주얼 효과 영역의 형태는 사각형, 원형, 삼각형, 별 형태 등의 미리 설정된 형태로 고정될 수 있다. 예를 들어, 비주얼 객체가 텍스트인 경우에 비주얼 객체의 형태는 텍스트 전체를 포함하는 최소 면적의 사각형으로 정의될 수 있고, 비주얼 객체의 크기는 이러한 사각형의 면적으로 정의될 수 있다.
비주얼 효과 영역의 위치가 가변적이지 않고 고정된 경우에, 제어부(170)는 비주얼 효과 영역의 크기만을 결정할 수 있다. 비주얼 효과 영역의 크기가 가변적이지 않고 고정된 경우에, 제어부(170)는 비주얼 효과 영역의 위치만을 결정할 수 있다.
비주얼 효과 영역은 비주얼 객체와 적어도 일부 중첩되며, 비주얼 효과 영역은 비주얼 객체와 완전히 중첩될 수 있다. 즉, 비주얼 객체는 동영상의 비주얼 효과 영역에만 중첩될 수 있으며, 비주얼 객체는 비주얼 효과 영역을 제외한 동영상의 나머지 영역과 중첩되지 않을 수 있다. 비주얼 효과 영역의 크기는 비주얼 객체의 크기보다 클 수 있다. 비주얼 효과 영역의 중심 위치는 비주얼 객체의 중심 위치와 일치할 수 있으며, 예를 들어, 비주얼 효과 영역은 그 외곽선이 비주얼 객체의 외곽선의 외측으로 미리 설정된 픽셀(예를 들어, 가로, 세로 각각 10 픽셀)만큼 이격되도록 확대될 수 있다.
S150 과정은 비주얼 효과를 제공하는 과정이며, 제어부(170)는 동영상의 비주얼 효과 영역에 비주얼 효과를 제공한다. 비주얼 효과는 동영상에서 비주얼 객체를 보다 용이하게 식별할 수 있도록 하기 위해 제공되며, 비주얼 효과는 동영상의 일부 영역(즉, 비주얼 효과 영역)에 제공된다. 비주얼 효과 영역의 위치는 비주얼 객체의 위치에 대응된다.
예를 들어, 비주얼 효과는 동영상 자체에 적용되거나, 비주얼 효과를 위한 필터, 미리 설정된 이미지 등을 비주얼 효과 영역에 적용함으로써 제공될 수 있다. 비주얼 효과가 동영상 자체에 적용되는 경우에, 동영상은 비주얼 효과가 적용된 이미지 프레임들을 포함할 수 있다. 즉, 본 예에서는, 비주얼 효과가 적용되지 않은 동영상에 대하여 비주얼 효과 영역을 설정하고, 설정된 비주얼 효과 영역에 비주얼 효과를 제공하는 것을 예시하고 있으나, 이와 다르게, 동영상 자체에 이미 비주얼 효과가 적용되어 있을 수 있으며, 제어부(170)는 이러한 동영상의 비주얼 효과 영역을 동영상의 재생 동안에 실시간으로 인식하거나, 비주얼 효과 영역에 대한 정보를 동영상, 어플리케이션, 또는 동영상/어플리케이션 관련 파일로부터 확인할 수도 있다.
또한, 동영상은 비주얼 효과가 적용된 채로 저장되거나, 비주얼 효과가 적용되지 않은 원본 그대로 저장될 수도 있다. 동영상이 비주얼 효과가 적용된 채로 저장되면, 이후의 동영상 재생에서 동영상에 비주얼 효과를 제공할 필요가 없을 수 있다.
비주얼 효과는 다양한 디지털 필터에 의해 구현될 수 있으며, 예를 들어, 동영상의 일부 영역을 흐리게 하는 블러(blur) 필터, 동영상의 일부 영역을 어둡게 하는 딤(dim) 필터, 동영상의 일부 영역을 비주얼 객체의 색상과 보색으로 표시하는 서브트랙 필터, 동영상의 일부 영역을 투명하게 하는 알파(alpha) 필터, 동영상의 일부 영역에서 미리 설정된 색상을 투명하게 처리하는 크로마(chroma) 필터 등에 의해 비주얼 효과가 구현될 수 있다. 블러(blur) 필터는 마치 동영상의 일부 영역이 빠르게 움직여서 흐려 보이게 하는 효과를 제공한다.
S160 과정은 비주얼 객체를 표시하는 과정이며, 제어부(170)는 비주얼 효과가 적용된 비주얼 효과 영역에 비주얼 객체를 중첩 표시한다. 이때, 비주얼 객체는 투명 또는 불투명하게 표시될 수 있으며, 비주얼 객체가 투명한 경우에 비주얼 효과 영역에서 비주얼 객체에 중첩되는 부분(예를 들어, 비주얼 효과 영역의 중앙 부분)은 비주얼 객체에 겹쳐서 표시되고, 비주얼 객체가 불투명한 경우에 비주얼 효과 영역에서 비주얼 객체에 중첩되는 부분은 표시되지 않는다.
S130 내지 S160 과정은 동영상이 재생되는 동안에 비주얼 객체가 존재하지 않을 때까지 반복될 수 있다.
도 3 및 4는 비주얼 객체의 위치 및 비주얼 효과 영역의 위치 사이의 관계를 설명하기 위한 도면이다.
도 3의 (a)를 참고하면, 동영상(210)이 재생되고, 동영상(210)의 좌상부에 비주얼 객체(220)가 중첩 표시되며, 비주얼 객체(220)에 대응하는 위치에 비주얼 효과 영역(230)이 설정되고, 비주얼 효과 영역(230)에 블러 효과가 적용된다. 이러한 블러 효과에 의해, 동영상(210)의 비주얼 효과 영역(230)은 흐려 보이고, 동영상(210)의 나머지 영역은 선명하게 보인다. 비주얼 효과 영역(230)은 비주얼 객체(220)보다 큰 면적을 가지며, 비주얼 객체(220)의 전체가 비주얼 효과 영역(230) 상에 위치한다.
도 3의 (b)를 참고하면, 동영상(212)이 재생되고, 동영상(212)의 우상부에 비주얼 객체(222)가 중첩 표시되며, 비주얼 객체(222)에 대응하는 위치에 비주얼 효과 영역(232)이 설정되고, 비주얼 효과 영역(232)에 블러 효과가 적용된다.
도 4의 (a)를 참고하면, 동영상(214)이 재생되고, 동영상(214)의 좌하부에 비주얼 객체(224)가 중첩 표시되며, 비주얼 객체(224)에 대응하는 위치에 비주얼 효과 영역(234)이 설정되고, 비주얼 효과 영역(234)에 블러 효과가 적용된다.
도 4의 (b)를 참고하면, 동영상(216)이 재생되고, 동영상(216)의 우하부에 비주얼 객체(226)가 중첩 표시되며, 비주얼 객체(226)에 대응하는 위치에 비주얼 효과 영역(236)이 설정되고, 비주얼 효과 영역(236)에 블러 효과가 적용된다.
도 5 및 6은 본 발명의 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면들이다. 본 방법은 어플리케이션을 실행한 경우, 초기 몇 초간 동영상을 실행하여 동영상으로 어플리케이션의 전체적인 느낌을 전달하는 경우를 예시한다.
도 5의 (a)는 홈 화면(310)을 나타낸다. 홈 화면(310)은 어플리케이션 업데이트, 근거리 통신 모듈의 실행 상태, 수신 신호 세기, 시간 등을 표시하기 위한 상태 바(312), 전체 어플리케이션들의 목록을 표시하기 위한 아이콘, 최근에 사용한 어플리케이션들의 목록을 표시하기 위한 아이콘, 개별 어플리케이션들의 아이콘들을 표시하기 위한 바탕 화면(314)과, 검색 아이콘, 또는 홈 아이콘 등을 포함하는 메뉴(316)을 포함할 수 있다.
제어부(170)는 사용자가 APP 아이콘(320)을 선택하는 것을 검출하고, APP 아이콘(320)에 맵핑된 어플리케이션을 실행한다.
도 5의 (b)는 어플리케이션의 실행에 따라 재생되는 동영상(330)을 나타낸다.
도 6의 (a)를 참조하면, 동영상(330)이 재생되고, 동영상(330)의 중앙부에 비주얼 객체(340)가 중첩 표시되며, 비주얼 객체(340)에 대응하는 위치에 비주얼 효과 영역(350)이 설정되고, 비주얼 효과 영역(350)에 블러 효과가 적용된다. 이러한 블러 효과에 의해, 동영상(330)의 비주얼 효과 영역(350)은 흐려 보이고, 동영상(330)의 나머지 영역은 선명하게 보인다. 비주얼 효과 영역(350)은 비주얼 객체(340)보다 큰 면적을 가지며, 비주얼 객체(340)의 전체가 비주얼 효과 영역(350) 상에 위치한다.
또한, 비주얼 객체(340)에는 투명도를 이용한 강조 효과가 적용되며, 비주얼 객체(340)의 투명도는 높은 값에서 낮은 값으로 시간에 따라 변화한다. 도 6의 (a)에서는 비주얼 객체(340)의 투명도가 높고, 도 6의 (b)에서는 비주얼 객체(340)의 투명도가 낮다.
도 6의 (a)에서는 비주얼 객체(340)의 투명도가 높아서, 비주얼 객체(340)에 중첩된 동영상 부분이 비주얼 객체와 함께 겹쳐서 보이는 것을 알 수 있다.
도 6의 (b)에서는 비주얼 객체(340)의 투명도가 낮아서, 비주얼 객체(340)에 중첩된 동영상 부분이 안 보이는 것을 알 수 있다.
도 7은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 버튼 등의 비주얼 객체를 표시하고, 사용자가 상기 비주얼 객체를 선택한 경우 다음에 표시되는 비주얼 객체에 비주얼 효과를 적용하는 경우를 예시한다.
도 7의 (a)를 참고하면, 동영상(410)이 재생되고, 동영상(410)의 중앙부에 제1 비주얼 객체(420)가 중첩 표시되며, 동영상(410)의 하부에 다음 버튼에 해당하는 제2 비주얼 객체(430)가 중첩 표시된다. 제2 비주얼 객체(430)는 실행 가능한 객체로서, 사용자는 제2 비주얼 객체(430)를 선택할 수 있다.
도 7의 (b)를 참고하면, 제어부(170)는 사용자가 제2 비주얼 객체(430)를 선택(440)한 것을 검출하고, 제1 비주얼 객체(420)를 제거하고 제3 및 제4 비주얼 객체(450, 452)를 표시하기 위한 화면 전환을 수행한다. 본 예에서, 제어부(170)는 슬라이딩 화면 전환을 수행하며, 이러한 슬라이딩 화면 전환에 따라 제1 비주얼 객체(420)는 화면의 좌측으로 이동하여 점차 제거되고, 제3 및 제4 비주얼 객체(450, 452)는 화면의 우측으로부터 좌측으로 이동하여 점차 표시된다.
도 7의 (c)를 참고하면, 화면 전환에 따라 동영상(410)의 중앙부에 제3 및 제4 비주얼 객체(450, 452)가 중첩 표시되며, 제3 비주얼 객체(450)에 대응하는 위치에 제1 비주얼 효과 영역(460)이 설정되고, 제1 비주얼 효과 영역(460)에 블러 효과가 적용된다. 이와 마찬가지로, 제4 비주얼 객체(452)에 대응하는 위치에 제2 비주얼 효과 영역(462)이 설정되고, 제2 비주얼 효과 영역(462)에 블러 효과가 적용된다.
제어부(170)는 블러 효과의 강약을 조절할 수 있으며, 각 비주얼 효과 영역에 투명 효과를 더 적용하여 해당 비주얼 객체의 시인선을 더욱 향상시킬 수도 있다. 또한, 제어부(170)는 각 비주얼 객체에 강조 효과를 적용할 수도 있다. 동영상의 비주얼 효과 영역에 투명 효과가 적용되면, 동영상과 함께 동영상에 중첩된 다른 화면(예를 들어, 홈 화면, 다른 어플리케이션 화면 등)이 겹쳐서 보이게 된다.
도 8은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 자막 등의 텍스트에 해당하는 비주얼 객체를 표시하는 경우에, 텍스트의 폰트 크기나 텍스트 크기에 따라 비주얼 효과 영역의 크기가 변화하는 경우를 예시한다.
도 8의 (a)를 참고하면, 동영상(510)이 재생된다.
도 8의 (b)를 참고하면, 동영상(510)이 재생되는 상태에서, 동영상(510)의 하부에 한글 자막에 해당하는 제1 비주얼 객체(520)가 중첩 표시되며, 제1 비주얼 객체(520)에 대응하는 위치에 제1 비주얼 효과 영역(530)이 설정되고, 제1 비주얼 효과 영역(530)에 블러 효과가 적용된다.
도 8의 (c)를 참고하면, 동영상이 재생되는 상태에서, 동영상의 하부에 영어 자막에 해당하는 제2 비주얼 객체(522)가 중첩 표시되며, 제2 비주얼 객체(522)에 대응하는 위치에 제2 비주얼 효과 영역(532)이 설정되고, 제2 비주얼 효과 영역(532)에 블러 효과가 적용된다.
도 8의 (b) 및 (c)를 서로 비교하면, 제1 비주얼 객체(520)보다 제2 비주얼 객체(522)의 크기가 크며, 상대적으로 작은 크기의 제1 비주얼 객체(520)에 대하여 상대적으로 작은 크기의 제1 비주얼 효과 영역(530)이 설정되고, 상대적으로 큰 크기의 제2 비주얼 객체(522)에 대하여 상대적으로 큰 크기의 제2 비주얼 효과 영역(532)이 설정된다.
도 9는 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 텍스트에 해당하는 비주얼 객체를 표시하는 경우에, 텍스트의 위치에 따라 비주얼 효과 영역의 위치가 변화하는 경우를 예시한다.
도 9의 (a)를 참고하면, 동영상이 재생된다.
도 9의 (b)를 참고하면, 동영상(610)이 재생되는 상태에서, 동영상(610)의 상부에 제1 비주얼 객체(620)가 중첩 표시되며, 제1 비주얼 객체(620)에 대응하는 위치에 제1 비주얼 효과 영역(630)이 설정되고, 제1 비주얼 효과 영역(630)에 블러 효과가 적용된다.
도 9의 (c)를 참고하면, 동영상(610)이 재생되는 상태에서, 동영상(610)의 하부에 제2 비주얼 객체(622)가 중첩 표시되며, 제2 비주얼 객체(622)에 대응하는 위치에 제2 비주얼 효과 영역(632)이 설정되고, 제2 비주얼 효과 영역(632)에 블러 효과가 적용된다.
도 9의 (b) 및 (c)를 서로 비교하면, 제1 비주얼 객체(620)의 크기는 제2 비주얼 객체(622)의 크기와 동일하며, 제1 비주얼 객체(620)는 동영상(610)의 상부에 표시되고, 제2 비주얼 객체(622)는 동영상(610)의 하부에 표시된다. 동일한 크기의 제1 및 제2 비주얼 객체(620, 622)에 대하여 동일한 크기의 제1 및 제2 비주얼 효과 영역(630, 632)이 설정되고, 제1 비주얼 효과 영역(630)은 제1 비주얼 객체(620)의 위치에 대응하여 배치되고, 제2 비주얼 효과 영역(632)은 제2 비주얼 객체(622)의 위치에 대응하여 배치된다.
도 10은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 텍스트에 해당하는 비주얼 객체를 표시하는 경우에, 동영상의 비주얼 효과 영역의 색상이 텍스트의 색상과 대비되도록 변경하는 경우를 예시한다.
도 10의 (a)를 참고하면, 동영상(710)이 재생되는 상태에서, 동영상(710)의 상부에 "S note"라는 텍스트에 해당하는 비주얼 객체(720)가 중첩 표시된다. 비주얼 객체(720)의 색상(예를 들어, 흰색)과 비주얼 객체(720)와 중첩되는 동영상 부분의 색상(예를 들어, 연한 하늘색)이 유사하기 때문에, 동영상(710)에서 비주얼 객체를 식별하기 어렵다.
도 10의 (b)를 참고하면, 동영상(710)이 재생되는 상태에서, 동영상(710)의 상부에 "S note"라는 텍스트에 해당하는 비주얼 객체(720)가 중첩 표시되며, 비주얼 객체(720)에 대응하는 위치에 비주얼 효과 영역(730)이 설정되고, 비주얼 효과 영역(730)의 속성이 변경된다. 제어부(170)는 비주얼 효과 영역(730)의 색상이 진하게 표시되도록 비주얼 효과 영역(730)의 속성이 변경한다. 이러한 비주얼 효과의 적용에 따라서, 비주얼 객체(720)의 색상(예를 들어, 흰색)과 비주얼 객체(720)와 중첩되는 동영상 부분의 색상(예를 들어, 진한 하늘색)이 대비되므로, 동영상(710)에서 비주얼 객체를 식별하기 쉽다.
도 11은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 별 형태의 이미지에 해당하는 비주얼 객체를 표시하는 경우를 예시한다.
도 11의 (a)를 참고하면, 동영상(810)이 재생된다.
도 11의 (b)를 참고하면, 동영상(810)이 재생되는 상태에서, 제어부(170)는 동영상(810)에 중첩 표시될 비주얼 객체의 속성을 파악하고, 비주얼 객체의 크기 및 위치와 대응되는 크기 및 위치를 갖는 비주얼 효과 영역(820)을 결정하고, 비주얼 효과 영역(820)에 블러 효과를 적용한다.
도 11의 (c)를 참고하면, 제어부(170)는 블러 효과가 적용된 비주얼 효과 영역(820)에 별 형태의 이미지에 해당하는 비주얼 객체(830)를 표시한다.
제어부(170)는 동영상(810)의 재생 중 비주얼 객체(830)가 표시될 시점을 파악하고, 비주얼 객체(830)가 표시될 시점, 또는 상기 시점에서 미리 설정된 시간 간격 이전 또는 이후의 시점에 비주얼 효과를 제공할 수 있다.
도 12는 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 별 형태의 이미지에 해당하는 비주얼 객체를 표시하는 경우를 예시한다.
도 12의 (a)를 참고하면, 동영상이 재생된다.
도 12의 (b)를 참고하면, 동영상(910)이 재생되는 상태에서, 제어부(170)는 동영상(910)에 중첩 표시될 비주얼 객체의 속성을 파악하고, 비주얼 객체의 크기, 형태 및 위치와 대응되는 크기, 형태 및 위치를 갖는 비주얼 효과 영역을 결정하고, 비주얼 효과 영역에 딤 효과를 적용한다. 제어부(170)는 비주얼 객체를 확대한 형태를 갖는 비주얼 효과 영역(920)을 결정하고, 딤 효과에 따라 비주얼 효과 영역(920)은 그 주변의 동영상 부분보다 어둡게 처리된다.
도 12의 (c)를 참고하면, 제어부(170)는 블러 효과가 적용된 비주얼 효과 영역(920)에 별 형태의 이미지에 해당하는 비주얼 객체(930)를 표시한다. 비주얼 효과 영역(920)의 중심 위치와 비주얼 객체(930)의 중심 위치는 일치하고, 비주얼 효과 영역(920)이 비주얼 객체(930)를 확대한 형태를 가지므로, 비주얼 객체(930)의 외측에 비주얼 효과 영역(920)의 가장자리 부분이 표시된다.
도 13은 본 발명의 또 다른 실시 예에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 나타내는 도면이다. 본 방법은 동영상에 별 형태의 이미지에 해당하는 비주얼 객체를 표시하는 경우를 예시한다.
도 13의 (a)를 참고하면, 동영상(1010)이 재생된다.
도 13의 (b)를 참고하면, 동영상(1010)이 재생되는 상태에서, 제어부(170)는 동영상에 중첩 표시될 비주얼 객체의 속성을 파악하고, 비주얼 객체의 크기, 형태 및 위치와 대응되는 크기, 형태 및 위치를 갖는 비주얼 효과 영역(1020)을 결정하고, 비주얼 효과 영역(1020)에 서브트랙 효과를 적용한다. 제어부(170)는 비주얼 객체를 확대한 형태를 갖는 비주얼 효과 영역(1020)을 결정하고, 서브트랙 효과에 따라 비주얼 효과 영역(1020)의 색상은 비주얼 객체의 색상(예를 들어, 녹색)의 보색(예를 들어, 보라색)이 되도록 처리된다.
도 13의 (c)를 참고하면, 제어부(170)는 블러 효과가 적용된 비주얼 효과 영역(1020)에 별 형태의 이미지에 해당하는 비주얼 객체(1030)를 표시한다. 비주얼 효과 영역(1020)의 중심 위치와 비주얼 객체(1030)의 중심 위치는 일치하고, 비주얼 효과 영역(1020)이 비주얼 객체(1030)를 확대한 형태를 가지므로, 비주얼 객체(1030)의 외측에 비주얼 효과 영역(1020)의 가장자리 부분이 표시된다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 예를 들어, 도 1에 도시된 전자 장치에서 저장부, 통신부, 제어부 등의 각 구성 소자는 장치로 구성될 수 있다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자 장치 내에 포함될 수 있는 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 전자 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 전자 장치가 기설정된 동영상에 비주얼 객체를 중첩 표시하는 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 동영상에 비주얼 객체를 중첩 표시하는 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 전자 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 전자 장치의 요청 또는 자동으로 해당 프로그램을 상기 전자 장치로 전송하는 제어부를 포함할 수 있다.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.
100: 전자 장치, 110: 입/출력 모듈, 120: 저장부, 130: 센서부, 140: 카메라, 150: 통신부, 160: 표시부, 170; 제어부

Claims (19)

  1. 동영상에 비주얼 객체를 중첩 표시하는 방법에 있어서,
    동영상의 일 부분에 비주얼 효과 영역을 설정하는 과정과;
    상기 비주얼 효과 영역에 미리 설정된 비주얼 효과를 적용하는 과정과;
    상기 비주얼 효과가 적용된 상기 비주얼 효과 영역에 비주얼 객체를 중첩 표시하는 과정을 포함함을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  2. 제1항에 있어서,
    상기 비주얼 효과 영역은 상기 동영상에서 상기 비주얼 객체가 중첩 표시될 영역의 정보에 근거하여 설정됨을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  3. 제1항에 있어서,
    상기 비주얼 효과는 미리 설정되거나 상기 비주얼 객체의 속성에 근거하여 설정됨을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  4. 제1항에 있어서,
    상기 비주얼 효과는 상기 동영상 자체에 적용되거나 필터를 통해 상기 동영상에 적용됨을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  5. 제1항에 있어서,
    상기 비주얼 객체의 속성을 확인하는 과정과;
    상기 비주얼 효과 영역의 속성을 결정하는 과정을 더 포함함을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  6. 제5항에 있어서,
    상기 비주얼 객체의 속성 및 상기 비주얼 효과 영역의 속성은 각각 크기 및 위치를 포함함을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  7. 제6항에 있어서,
    상기 동영상에 중첩 표시될 비주얼 객체가 존재하는지의 여부를 판단하는 과정을 더 포함함을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  8. 제1항에 있어서,
    상기 비주얼 효과는 블러(blur) 효과, 딤(dim) 효과 또는 서브트랙(subtrack) 효과임을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  9. 제1항에 있어서,
    상기 비주얼 객체의 전부가 상기 비주얼 효과 영역에 중첩될 수 있도록, 상기 비주얼 효과 영역은 상기 비주얼 객체보다 큰 것을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  10. 제9항에 있어서,
    상기 비주얼 효과 영역은 상기 비주얼 객체를 확대한 형태를 갖는 것을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  11. 제1항에 있어서,
    상기 비주얼 객체는 텍스트 또는 이미지임을 특징으로 하는 동영상에 비주얼 객체를 중첩 표시하는 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 따른 동영상에 비주얼 객체를 중첩 표시하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.
  13. 제12항의 저장 매체를 포함하는 전자 장치.
  14. 전자 장치에 있어서,
    동영상을 표시하는 표시부와;
    상기 동영상의 일 부분에 비주얼 효과 영역을 설정하고, 상기 표시부를 통해 상기 비주얼 효과 영역에 미리 설정된 비주얼 효과를 적용하고, 상기 표시부를 통해 상기 비주얼 효과가 적용된 상기 비주얼 효과 영역에 비주얼 객체를 중첩 표시하는 제어부를 포함함을 특징으로 하는 전자 장치.
  15. 제14항에 있어서, 상기 제어부는,
    상기 비주얼 객체의 속성을 확인하고,
    상기 비주얼 효과 영역의 속성을 결정함을 특징으로 하는 전자 장치.
  16. 제15항에 있어서,
    상기 비주얼 객체의 속성 및 상기 비주얼 효과 영역의 속성은 각각 크기 및 위치를 포함함을 특징으로 하는 전자 장치.
  17. 제14항에 있어서,
    상기 비주얼 효과는 블러(blur) 효과, 딤(dim) 효과 또는 서브트랙(subtrack) 효과임을 특징으로 하는 전자 장치.
  18. 제14항에 있어서,
    상기 비주얼 객체의 전부가 상기 비주얼 효과 영역에 중첩될 수 있도록, 상기 비주얼 효과 영역은 상기 비주얼 객체보다 큰 것을 특징으로 하는 전자 장치.
  19. 제18항에 있어서,
    상기 비주얼 효과 영역은 상기 비주얼 객체를 확대한 형태를 갖는 것을 특징으로 하는 전자 장치.
KR20130102563A 2013-08-28 2013-08-28 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치 KR20150025214A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20130102563A KR20150025214A (ko) 2013-08-28 2013-08-28 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치
US14/308,115 US20150063785A1 (en) 2013-08-28 2014-06-18 Method of overlappingly displaying visual object on video, storage medium, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130102563A KR20150025214A (ko) 2013-08-28 2013-08-28 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치

Publications (1)

Publication Number Publication Date
KR20150025214A true KR20150025214A (ko) 2015-03-10

Family

ID=52583411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130102563A KR20150025214A (ko) 2013-08-28 2013-08-28 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치

Country Status (2)

Country Link
US (1) US20150063785A1 (ko)
KR (1) KR20150025214A (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102207443B1 (ko) 2013-07-26 2021-01-26 삼성전자주식회사 그래픽 유저 인터페이스 제공 방법 및 장치
KR20160025365A (ko) * 2014-08-27 2016-03-08 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
EP2993895A1 (en) * 2014-09-05 2016-03-09 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
WO2016103465A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 音声認識システム
KR20170000196A (ko) * 2015-06-23 2017-01-02 삼성전자주식회사 객체의 속성 기반의 상태 변화 효과를 출력하기 위한 방법 및 그 전자 장치
US10593084B2 (en) * 2016-08-01 2020-03-17 Facebook, Inc. Systems and methods for content interaction
EP3627511A1 (en) * 2018-09-21 2020-03-25 Samsung Electronics Co., Ltd. Method and system for automatically adding effect while recording
CN113132795A (zh) 2019-12-30 2021-07-16 北京字节跳动网络技术有限公司 图像处理方法及装置
USD986258S1 (en) * 2021-05-05 2023-05-16 H2Vr Holdco, Inc. Display screen or portion thereof with graphical user interface
CN113656130B (zh) * 2021-08-16 2024-05-17 北京百度网讯科技有限公司 一种数据展示方法、装置、设备以及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2721811B1 (en) * 2011-06-14 2019-12-25 Koninklijke Philips N.V. Graphics processing for high dynamic range video

Also Published As

Publication number Publication date
US20150063785A1 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
KR102224349B1 (ko) 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법
KR102342267B1 (ko) 휴대 장치 및 휴대 장치의 화면 변경방법
KR20150025214A (ko) 동영상에 비주얼 객체를 중첩 표시하는 방법, 저장 매체 및 전자 장치
KR102561200B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20170205894A1 (en) Method and device for switching tasks
KR102037465B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US9633412B2 (en) Method of adjusting screen magnification of electronic device, machine-readable storage medium, and electronic device
US10182141B2 (en) Apparatus and method for providing transitions between screens
KR20140140957A (ko) 화면 데이터의 미러링 방법, 저장 매체 및 전자 장치
KR102627191B1 (ko) 휴대 장치 및 휴대 장치의 화면 제어방법
KR20170059242A (ko) 영상 표시 장치 및 그 동작방법
WO2018068364A1 (zh) 用于页面显示的方法、装置、图形用户界面及移动终端
US9626742B2 (en) Apparatus and method for providing transitions between screens
CN103902187A (zh) 一种控制电子设备的方法及电子设备
KR20150025655A (ko) 객체 디스플레이 방법 및 그 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid