KR20160056889A - 스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치 - Google Patents

스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치 Download PDF

Info

Publication number
KR20160056889A
KR20160056889A KR1020167006547A KR20167006547A KR20160056889A KR 20160056889 A KR20160056889 A KR 20160056889A KR 1020167006547 A KR1020167006547 A KR 1020167006547A KR 20167006547 A KR20167006547 A KR 20167006547A KR 20160056889 A KR20160056889 A KR 20160056889A
Authority
KR
South Korea
Prior art keywords
image
user input
response
character
user
Prior art date
Application number
KR1020167006547A
Other languages
English (en)
Inventor
네일 디. 보스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20160056889A publication Critical patent/KR20160056889A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/622Retouching, i.e. modification of isolated colours only or in isolated picture areas only with simulation on a subsidiary picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

사용자가 이미지상에 자동으로 생성된 캡션 오버레이와 함께 이미지 또는 이미지의 목록을 스크롤 할 때, 이미지 또는 비디오 상에 캡션(가까운 캡셔닝, 주석, 태그, 메타데이터...)의 자동 오버레이에 대한 방법 및 장치는 캡션의 동적인 이동을 가능하게 한다. 이미지의 스크롤링 속도는 캡션의 속도와 다른 속도로 수행된다.

Description

스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치{METHOD AND APPARATUS FOR CAPTION PARALLAX OVER IMAGE WHILE SCROLLING}
본 출원은 2013년 9월 16일 제출된 미국 가출원 제 61/878245호의 우선권을 주장한다.
휴대용 전자 디바이스는 더욱 어디에서나 흔히 볼 수 있게 되고 있다. 모바일 폰, 뮤직 플레이어, 카메라, 태블릿 등과 같은 디바이스들은 종종 여러 객체 중복를 운반하는 렌더링 디바이스의 조합을 포함한다. 예를 들어, 애플 아이폰 또는 삼성 갤럭시 안드로이드 폰과 같은 현재의 터치 스크린 모바일 폰은 비디오 및 스틸 카메라, 글로벌 위치 탐색 시스템, 인터넷 브라우저, 문자 및 전화, 비디오 및 뮤직 플레이어, 등을 포함한다. 이러한 디바이스는 데이터를 송신하고 수신하는 예컨대 WiFiTM, 유선의 복합 네트워크 및 3GTM, 4GTM, 및 LTETM과 같은 셀룰러 상에 종종 인에이블된다.
휴대용 전자제품의 이차적인 특징의 품질은 꾸준히 향상되어왔다. 예를 들어, 초기의 "카메라 폰"은 고정된 초점 렌즈와 플레쉬가 없는 낮은 해상도 센서로 구성되어있었다. 오늘날, 많은 모바일 폰은 완전한 고 해상도 비디오 기능, 편집 및 필터링 툴, 뿐만 아니라 고 해상도 디스플레이를 포함한다. 이러한 향상된 기능으로, 많은 사용자들이 그들의 주요한 사진 디바이스로서 이러한 디바이스를 사용하고 있다. 따라서, 사진 틀에 삽입되는 더욱 향상된 성능 및 전문적인 수준에 대한 요구가 있다. 게다가, 사용자들은 단지 사진을 프린트하는 것보다 많은 방식으로 다른 사람들과 그들의 콘텐츠를 공유하고 싶어 하고 또 이를 쉽게 하길 원한다. 사용자들은 유투브와 같은 비디오 저장 사이트 또는 소셜 미디어 사이트에 콘텐츠를 업로드 할 수 있다. 하지만, 사용자들은 공유하기 전에 그들의 사진을 수정하고 이러한 편집이 모바일 디바이스 상에서 이상적으로 행해지길 원할 수 있다. 사용자는 비디오의 길이, 칼라 필터 변경, 밝기 또는 다른 비디오 효과를 편집하길 원할 수 있다. 이러한 특징들은 보통 모바일 디바이스 상에서 이용 가능하지 않고 따라서 사용자는 편집을 수행하기 위해 컴퓨터에 콘텐츠를 먼저 다운로드해야한다. 이는 종종 사용자의 숙련 수준 이상을 요구하거나, 또는 실행하기 위해 너무 많은 시간과 노력을 요구하기 때문에 사용자는 종종 비디오 콘텐츠를 공유하는 것을 단념하게 된다. 이러한 공유 방법은 이메일, 문자, 또는 페이스북, 트위터, 유투브 등과 같은 소셜 미디어 웹 사이트를 포함할 수 있다.
제한된 사용자 입력으로 디바이스 상에서 비디오 및 이미지를 편집하는데 존재하는 몇 가지 문제를 완화하기 위해 몇 가지 작업이 디바이스에 의해 자동화될 수 있다. 이러한 작업은 사용자 선호도, 과거 사용자 행동에 따라 자동화될 수 있고, 또는 어플리케이션에 의해 자동화될 수 있다. 사용자가 리스트 포맷에 있는 이미지 상에 캡션을 오버레이하기 원할 때, 문제가 생긴다. 각 이미지는 보통 예컨대 색 또는 소재와 같은 시각적으로 독특한 특성을 갖는다. 전형적으로, 캡션은 일관된 색, 크기 및 폰트를 나타낸다. 이러한 캡션은 배경 이미지로부터 구분하기 어려울 때 결국 이미지 상에 겹쳐지게 될 수 있다. 따라서, 캡션의 색, 크기 및 폰트의 일관성을 유지하면서 사용자가 캡션을 쉽게 구분하기 용이하게 하는 방법을 갖는 것이 바람직하다.
이미지 또는 비디오의 캡션의 자동 오버레이에 대한 방법 및 장치가 논의되어진다. 방법 및 장치는 사용자가, 이미지 또는 이미지들 상에 오버레이된 자동으로 생성된 캡션을 갖는 이미지들의 리스트를 스크롤할 때, 캡션의 동적인 움직임을 가능하게하고, 이미지의 스크롤링 속도는 캡션과 다른 속도에서 수행된다.
본 발명의 양상에 따라, 장치는 사용자 인터페이스를 동작가능하게 디스플레이하고 사용자 입력을 수신하기 위한 디스플레이와, 사용자 인터페이스를 생성하기 위한 프로세서를 포함하고, 여기서 사용자 인터페이스는 이미지 및 텍스트를 포함하는데 텍스트는 이미지의 제 1 부분 상에 오버레이되고, 프로세서는 이미지 및 텍스트가 사용자 입력에 응답하여 사용자 인터페이스 내에서 이동하도록 사용자 인터페이스를 수정하도록 더 동작가능하고, 이미지 및 텍스트는 텍스트가 이미지의 제 2 부분 상에 디스플레이 되도록 상이한 양만큼 이동된다.
본 발명의 다른 양상에 따라, 사용자 인터페이스를 생성하기 위한 방법에서, 사용자 인터페이스는 이미지 및 텍스트를 포함하고 텍스트는 이미지의 제 1 부분 상에 오버레이되고, 사용자 입력에 응답하여 사용자 인터페이스 내에서 이미지 및 텍스트를 이동하고, 이미지 및 텍스트는 텍스트가 이미지의 제 2 부분상에 디스플레이되도록 상이한 양만큼 이동된다.
본 발명의 또 다른 양상에 따라, 장치는 사용자 입력을 수신하기 위한 제어부와 사용자 인터페이스를 포함하는 신호를 생성하기 위한 프로세서를 포함하고, 여기서 사용자 인터페이스는 이미지 및 텍스트를 포함하고, 텍스트는 이미지의 제 1 부분 상에 오버레이 되고, 프로세서는, 이미지 및 텍스트가 사용자 입력에 응답하여 사용자 인터페이스 내에서 이동할 수 있도록 사용자 인터페이스를 수정하도록 더 동작가능하고, 이때 이미지 및 텍스트는 텍스트가 이미지의 제 2 부분 상에 디스플레이되도록 상이한 양만큼 이동된다.
본 개시의 이들 및 다른 양상, 특징 및 이점은 첨부되는 도면과 관련하여 나타나게 될 선호되는 실시예의 다음의 상세한 기재로부터 기술되고 분명해질 것이다.
도면에서, 유사한 참조 번호는 전체적인 개관에서 유사한 요소들을 표기한다.
본 발명을 통해, 사용자가 이미지 또는 이미지들 상에 오버레이된 자동으로 생성된 캡션을 갖는 이미지들의 리스트를 스크롤할 때 캡션의 동적인 움직임을 가능하게하고, 이미지의 스크롤링 속도는 캡션과 다른 속도에서 수행되는 방법 및 장치를 제공할 수 있다.
도 1은 모바일 전자 디바이스의 예시적인 실시예의 블록도를 도시한다.
도 2는 본 발명에 따른 활성 디스플레이를 갖는 예시적인 모바일 디바이스 디스플레이를 도시한다.
도 3은 본 발명에 따른 캡쳐 초기치 설정을 갖는 예시적인 모바일 디바이스 디스플레이를 도시한다.
도 4는 본 발명의 양상에 따라 자동 비디오 분할의 예시적인 실시예를 도시한다.
도 5는 본 발명에 따라 비디오를 분할하는 방법을 도시한다.
도 6은 본 발명의 일 양상에 따라 광 박스 어플리케이션을 도시한다.
도 7은 광 박스 어플리케이션 내에서 수행될 수 있는 다양한 예시적인 동작을 도시한다.
도 8은 본 발명의 일 양상에 따른 예시적인 캡션 색 생성 어플리케이션을 도시한다.
도 9는 본 발명의 예시적인 양상에 따른 색 선택 차트를 도시한다.
도 10은 본 발명의 양상에 따라 이미지 또는 비디오 상에 캡션의 자동 오버레이의 예시적인 실시예를 도시한다.
도 11은 본 발명에 따라 이미지 또는 비디오 상에 캡션의 자동 오버레이의 방법을 도시한다.
본 명세서에 나열된 예시는 본 발명의 선호되는 실시예를 도시하고, 이러한 예시는 임의의 방식에서 발명의 범위를 제한하는 것으로서 해석되지 않는다.
도 1을 참조하면, 모바일 전자 디바이스의 예시적인 실시예의 블록도가 도시된다. 기재된 모바일 전자 디바이스는 모바일 폰(100)이지만, 본 발명은 뮤직 플레이어, 카메라, 태블릿, 글로벌 위치 탐색 시스템 등과 같은 임의의 많은 디바이스 상에서 동등하게 구현될 수 있다. 모바일 폰은 전형적으로 폰 콜 및 문자메세지를 수신 및 송신하는 능력, 셀룰러 네트워크 또는 로컬 무선 네트워크를 통해 인터넷과 인터페이스하는 능력, 사진 및 비디오를 촬영하는 능력, 오디오 및 비디오 콘텐츠를 재생하는 능력, 워드 프로세싱, 프로그램, 또는 비디오 게임과 같은 어플리케이션을 운영하는 능력을 포함한다. 많은 모바일 폰은 GPS를 포함하고, 사용자 인터페이스의 부분으로서 터치 스크린 패널을 또한 포함한다.
모바일 폰은 각각의 다른 주요한 구성요소들과 결합된 메인 프로세서(150)를 포함한다. 메인 프로세서, 또는 프로세서는 네트워크 인터페이스, 카메라(140), 터치 스크린(170), 및 다른 입/출력(I/O)인터페이스(180)와 같은 다양한 구성요소 간의 정보를 라우팅한다. 메인 프로세서(150)는 또한 오디오/비디오 인터페이스를 통해 디바이스 또는 외부 디바이스 상에서 직접 재생하기 위한 오디오 및 비디오 콘텐츠를 프로세싱한다. 메인 프로세서(150)는 카메라(140), 터치 스크린(170), 및 USB 인터페이스(130)와 같은 다양한 서브 디바이스를 제어하도록 동작한다. 메인 프로세서(150)는 컴퓨터와 유사한 데이터를 다루도록 사용된 모바일 폰에서 서브루틴(subroutine)을 실행하도록 더 동작한다. 예를 들어, 메인 프로세서는 카메라 기능(140)에 의해 사진이 촬영된 후 이미지 파일을 조작하도록 사용될 수 있다. 이러한 조작은 크로핑(cropping), 압축, 색 및 밝기 조정 등을 포함할 수 있다.
셀 네트워크 인터페이스(110)는 메인 프로세서(150)에 의해 제어되고 셀룰러 무선 네트워크를 통해 정보를 수신 및 송신하도록 사용된다. 이러한 정보는 시분할다중접속(TDMA), 코드분할다중접속(CDMA) 또는 직교주파수분할다중화(OFDM)와 같은 다양한 포맷으로 인코딩될 수 있다. 정보는 셀 네트워크 인터페이스(110)를 통해 디바이스로부터 송신 및 수신될 수 있다. 인터페이스는 송신하기 위한 적절한 포맷으로 정보를 인코딩 및 디코딩 하도록 사용되는 복합 안테나 인코더, 복조기 등으로 구성될 수 있다. 셀 네트워크 인터페이스(110)는 음성 또는 문자 송신을 가능하게 하도록 사용되거나, 또는 인터넷으로부터 정보를 송신 및 수신하도록 사용될 수 있다. 이러한 정보는 비디오, 오디오, 또는 이미지를 포함할 수 있다.
무선 네트워크 인터페이스(120), 또는 와이파이 네트워크 인터페이스는 와이파이 네트워크를 통해 정보를 송신 및 수신하도록 사용된다. 이러한 정보는 IEEE 802.11g, IEEE 802.11b, IEEE 802.11ac 등과 같은 상이한 와이파이 표준에 따라 다양한 포맷으로 인코딩될 수 있다. 인터페이스는, 송신하기 위한 적절한 포맷으로 정보를 인코딩 및 디코딩 하고 복조를 위한 정보를 디코딩하도록 사용되는 복합 안테나 인코더, 복조기 등으로 구성될 수 있다. 와이파이 네트워크 인터페이스(120)는 음성 또는 문자 전송을 가능하게 하거나 인터넷으로부터 정보를 송신 및 수신하도록 사용될 수 있다. 이러한 정보는 비디오, 오디오 및/또는 이미지를 포함할 수 있다.
범용직렬버스(USB) 인터페이스(130)는 유선과 같은 것을 통해 일반적으로 컴퓨터 또는 다른 USB 인에블링된 디바이스로 정보를 송신 및 수신하도록 사용된다. USB 인터페이스(120)는 인터넷에 연결되고 음성 또는 텍스트 콜을 송신 및 수신하는 정보를 송신 및 수신하도록 사용될 수 있다. 게다가, 이러한 유선 링크는 모바일 디바이스 셀 네트워크 인터페이스(110) 또는 와이파이 네트워크 인터페이스(120)를 이용하여 USB 인에블링된 디바이스를 다른 네트워크로 연결하도록 사용될 수 있다. USB 인터페이스(120)는 컴퓨터로 구성 정보를 전송 및 수신하기 위해서 메인 프로세서(150)에 의해 사용될 수 있다.
메모리(160), 또는 저장 디바이스는 메인 프로세서(150)에 결합될 수 있다. 메모리(160)는 모바일 디바이스의 동작에 관련되고 메인 프로세서(150)에 의해 요구되는 특정 정보를 저장하기 위해 사용될 수 있다. 메모리(160)는 오디오, 비디오, 사진, 또는 사용자에 의해 저장되고 검색된 다른 데이터를 저장하기 위해 사용될 수 있다.
입/출력(I/O) 인터페이스(180)는 버튼, 폰 콜과 함께 사용하기 위한 스피커/마이크, 오디오 레코딩 및 재생, 또는 음성 활성화 제어를 포함한다. 모바일 디바이스는 터치 스크린 컨트롤러를 통해 메인 프로세서(150)에 연결된 터치 스크린(170)을 포함할 수 있다. 터치 스크린(170)은 하나 이상의 정전식(capacitive)의 또는 저항식(resistive)의 터치 센서를 이용하는 단일 터치 또는 복합 터치 스크린일 수 있다. 스마트폰은 또한 이에 제한되는 것은 아니지만 온/오프 버튼, 활성화 버튼, 음량 제어, 벨소리 제어, 및 복합-버튼 키패드 또는 키보드와 같은 추가적인 사용자 제어를 포함할 수 있다.
도 2를 참조하면, 본 발명에 따른 활성 디스플레이(200)를 구비하는 예시적인 모바일 디바이스 디스플레이가 도시된다. 예시적인 모바일 디바이스 어플리케이션은 촬영 동안 사용자가 임의의 프레임에서 레코딩하고 그들의 디바이스를 자유롭게 회전하는 것을 허용하도록 동작하고, 촬영 동안에 디바이스의 뷰파인더 상의 오버레이의 최종 출력을 시각화하고 최종 출력에서 그들의 배향을 궁극적으로 수정하도록 동작한다.
예시적인 실시예에 따라, 사용자가 촬영을 시작할 때, 그들의 현재 배향은 고려되고, 디바이스의 센서를 기초로 한 중력의 벡터는 수평을 나타내기 위해 사용된다. 디바이스의 스크린 및 관련된 광학 센서는 너비보다 높이가 긴 초상화(210), 또는 디바이스의 스크린 및 관련된 광학 센서의 높이보다 너비가 넓은 풍경화(250)와 같은 각각의 가능한 배향에 대해, 최적의 타켓 영상 비가 선택된다. 직사각형 삽화(225)는 전체 센서 내에 새겨지고, 주어진(현재) 배향에 대해 바람직한 최적의 영상 비(aspect ratio)가 주어진 센서의 최대 경계에 가장 적합하다. 센서의 경계는 수정용 '브리딩 룸'을 제공하기 위하여 약간 덧대어진다. 이러한 직사각형 삽화(225)는 디바이스의 병합된 자이로스코프로부터 샘플링된 디바이스의 고유한 회전의 역으로 본질적으로 회전함으로써 회전(220, 230, 240)에 대한 보상으로 변형된다. 변형된 내부 사각형(225)은 덧댄 것을 제외하고 전체 센서의 최대 이용 가능한 경계 안에 최적으로 새겨진다. 디바이스의 현재 최고의 배향에 의존하여, 변형된 내부 사각형(225)의 치수는 회전 양에 관하여 두 개의 최적의 영상 비 사이에 보간되도록 조정된다.
예를 들어, 초상화 배향에 대해 선택된 최적의 영상 비가 직사각형(1:1)이고 풍경화 배향에 대해 선택된 최적의 영상 비가 너비가 넓은 (16:9) 경우, 새겨진 사각형은 하나의 배향에서 다른 배향으로 회전될 때, 1:1 과 16:9 사이에서 최적으로 보간될 것이다. 새겨진 사각형이 샘플링 된 후 최적의 출력 치수에 적합하도록 변형된다. 예를 들어, 최적의 출력 치수가 4:3이고 샘플링된 사각형이 1:1인 경우, 샘플링된 사각형은 완전히 채워진 양상(완전히 1:1영역을 광학적으로 채우고, 필요에 따라 데이터를 크로핑 하는)이거나 화면에 맞게(1:1영역 안에 광학적으로 완전히 맞춰지고, 임의의 사용하지 않는 영역을 '편지 모양' 또는 '기둥 모양'으로 검게 하는)채워진다. 결과적으로 고정된 양상은 수정동안 동적으로 제공된 양상 비에 기초하여 콘텐츠 프레이밍이 조정되는 것을 보장한다. 따라서 예를 들어 1:1 내지 16:9까지의 콘텐츠 구성된 16:9 비디오는 광학적으로 채워지는 것(260)(16:9 비율 동안) 및 기둥 모양(250)으로 맞춰지는 것(1:1비율 동안) 사이에서 변동할 것이다.
모든 움직임의 총 합이 최적의 출력 양상 비의 선택에 대해 고려되고 가중됨에 따른 추가적인 개선이 있다. 예를 들어, 사용자가 소수의 초상화 콘텐츠를 갖는 '대부분 풍경화'인 비디오를 레코딩 하는 경우, 출력 포맷은 풍경화 양상 비(초상화 부분을 기둥 모양으로 한다)일 것이다. 사용자가 대부분 초상화인 비디오를 레코딩하는 경우에는 반대로 적용된다(비디오는 초상화일 것이고, 출력은 광학적으로 채워지고, 출력 사각형의 바깥 경계로 떨어진 임의의 풍경화 콘텐츠를 크로핑한다).
이미지 안정화 및 리프레이밍을 위한 예시적인 프로세스는 초기화된 카메라의 캡쳐 모드에 응답하여 초기치 설정될 수 있다. 이러한 초기치 설정은 하드웨어 또는 소프트웨어 버튼에 따라 또는 사용자 행동에 응답하여 생성된 다른 제어 신호에 응답하여 개시될 수 있다. 일단 디바이스의 캡쳐 모드가 개시되면, 모바일 디바이스 센서는 사용자 선택에 응답하여 선택된다. 사용자 선택은 터치 스크린 디바이스 상의 설정을 통해, 메뉴 시스템을 통해, 또는 버튼이 활성화되는 방법에 응답하여 이루어 질 수 있다. 예를 들어, 한번 눌러진 버튼은 포토 센서를 선택할 수 있고, 반면 연속적으로 눌린 버튼은 비디오 센서를 나타낼 수 있다. 게다가, 미리 결정된 시간 예컨대 3초 동안 버튼을 누르는 것은 비디오가 선택되었다는 것을 나타내고, 모바일 디바이스 상의 비디오 레코딩은 버튼이 2초간 활성화될 때까지 계속될 것이다.
일단 적절한 캡쳐 센서가 선택되면, 시스템은 회전 센서로부터 측정을 요청한다. 회전 센서는, 자이로스코프, 가속도계, 축 배향 센서, 광센서 등, 모바일 디바이스의 위치의 수평 및/또는 수직 지표를 결정하도록 사용되는 것일 수 있다. 측정 센서는, 주기적인 측정을 제어 프로세서로 보낼 수 있고, 이에 따라 모바일 디바이스의 수직 및/또는 수평 배향을 계속 나타낸다. 따라서, 디바이스가 회전될 때, 제어 프로세서는 계속하여 디스플레이를 업데이트할 수 있고 계속 일관성 있는 수평을 갖는 방식으로 비디오 또는 이미지를 저장할 수 있다.
회전 센서가 모바일 디바이스의 수직 및/또는 수평 배향의 지표로 복귀된 후, 모바일 디바이스는 비디오 또는 이미지의 캡쳐된 배향을 나타내는 디스플레이 상에 삽입 직사각형을 묘사한다. 모바일 디바이스가 회전할 때, 시스템 프로세서는 계속하여 삽입 직사각형을 회전 센서로부터 수신된 회전 측정값으로 동기화한다. 사용자들은 1:1, 9:16, 16:9, 또는 사용자에 의해 결정된 임의의 비율과 같은 선호되는 최종 비디오 또는 이미지 비율을 선택적으로 나타낼 수 있다. 시스템은 또한 모바일 디바이스의 배향에 따라 상이한 비율에 대하여 사용자 선택을 저장할 수 있다. 예를 들어, 사용자는 수평 배향으로 레코딩된 비디오에 대한 16:9 비율이 아닌, 수직 배향으로 레코딩된 비디오에 대해 1:1 비율을 나타낼 수 있다. 예를 들어, 시스템은 모바일 디바이스가 회전될 때, 계속하여 또는 점차적으로 재설계할 수 있다. 따라서, 비디오는 1:1 배향으로 시작할 수 있지만, 촬영하는 동안 수직에서 수평 배향으로의 사용자 회전에 응답하여 결국 16:9 배향으로 점진적으로 재설계될 수 있다. 선택적으로, 사용자는 시작 또는 마지막 배향이 비디오의 최종 비율을 결정한다는 것을 나타낼 수 있다.
도 3을 참조하면, 본 발명에 따른 캡쳐 초기치 설정(300)을 갖는 예시적인 모바일 디바이스 디스플레이가 도시된다. 예시적인 모바일 디바이스는 이미지 또는 비디오를 캡쳐하기 위한 터치 톤 디스플레이를 묘사하는 것을 기재한다. 본 발명의 양상에 따라, 예시적인 디바이스의 캡쳐 모드는 다수의 행동에 응답하여 개시될 수 있다. 모바일 디바이스의 임의의 하드웨어 버튼(310)은 캡쳐 시퀀스를 개시하도록 눌려질 수 있다. 대안적으로, 소프트웨어 버튼(320)이 캡쳐 시퀀스를 개시하기 위해 터치 스크린을 통해 활성화될 수 있다. 소프트웨어 버튼(320)은 터치 스크린 상에 디스플레이된 이미지(330) 상에 오버레이될 수 있다. 이미지(330)는 이미지 센서에 의해 캡쳐된 현재 이미지를 나타내는 뷰파인더로서 작동한다. 이전에 기재된 바와 같이 삽입된 사각형(340)은 또한 캡쳐된 이미지 또는 비디오의 영상 비를 나타내기 위해 이미지 상에 오버레이될 수 있다.
일단 이미징 소프트웨어가 개시되면, 시스템은 이미지 캡쳐를 개시하기 위하여 지시를 기다린다. 일단 이미지 캡쳐 지시가 메인 프로세서에 의해 수신되면, 디바이스는 이미지 센서로부터 전송된 데이터를 저장하기 시작한다. 게다가, 시스템은 타이머를 개시한다. 그 후에 시스템은 비디오 데이터로서 이미지 센서로부터 데이터를 계속 캡쳐한다. 캡처가 중단되도록 지시하는 캡처 지시로부터의 제 2 지시에 응답하여, 시스템은 이미지 센서로부터 데이터 저장을 멈추고 타이머를 멈춘다.
그리고나서, 시스템은 타이머 값과 미리 결정된 시간 임계치를 비교한다. 미리 결정된 시간 임계치는 예컨대 1초와 같이 소프트웨어 제공자에 의해 결정된 디폴트값(default value)일 수 있고, 또는 사용자에 의해 결정된 변경 가능한 설정일 수 있다. 타이머 값이 미리 결정된 임계치보다 작은 경우, 시스템은 바람직한 스틸 이미지를 결정하고, jpeg와 같은 스틸 이미지 포맷에서 스틸 이미지로서 비디오 캡처의 제 1 프레임을 저장한다. 시스템은 스틸 이미지로서 다른 프레임을 선택적으로 고를 수 있다. 타이머 값이 미리 결정된 임계치보다 더 큰 경우, 시스템은 바람직한 비디오 캡처를 결정한다. 그리고나서 시스템은 mpeg 등과 같은 비디오 파일 포맷에서 비디오 파일로서 캡처 데이터를 저장한다. 그리고나서 시스템은 초기치 설정 모드로 돌아갈 수 있고, 다시 개시될 캡처 모드를 기다린다. 모바일 디바이스가 스틸 이미지 캡처 및 비디오 캡처를 위해 상이한 센서를 갖추고 있는 경우, 시스템은 스틸 이미지 센서로부터 스틸 이미지를 선택적으로 저장할 수 있고 비디오 이미지 센서로부터 캡처 데이터 저장을 시작할 수 있다. 타이머 값이 미리 결정된 시간 임계치와 비교될 때, 바람직한 데이터가 저장되고, 반면 원치않는 데이터는 저장되지 않는다. 예를 들어, 타이머 값이 임계치 시간 값을 초과하는 경우, 비디오 데이터는 저장되고 이미지 데이터는 버려진다.
도 4를 참조하면, 자동 비디오 분할(400)의 예시적인 실시예가 도시된다. 시스템은 계산하는 것을 목표로 하는 자동 비디오 분할 및 가능한 한 초 단위의 미리 결정된 시간 간격에 가깝게 분할로 나뉘는 출력 비디오에 관한 것이다. 게다가 분할은 분할된 비디오의 속성에 대한 응답에 따라 길거나 짧아질 수 있다. 예를 들어, 음성 단어의 중간에서와 같이 어색한 방식으로 콘텐츠를 이분할 하는 것은 바람직하지 않다. 타임라인(410)은 아홉 분할로 분할된 비디오를 묘사하는 것을 도시한다. 각 분할은 대략 8초 길이이다. 오리지널 비디오는 적어도 1분 4초의 길이를 갖는다.
이러한 예시적인 실시예에서, 각 비디오 분할에 대해 선택된 시간 간격은 8초이다. 이러한 초기 시간 간격은 더 길거나 짧을 수 있고 사용자에 의해 선택적으로 변경 가능할 수 있다. 8초 기준 시간 간격은 현재 다양한 네트워크 유형을 통해 다운로드하기 위해 합리적인 데이터 전송 크기를 갖는 다루기 쉬운 데이터 부분을 나타낼 때 선택된다. 대략 8초 클립은 모바일 플랫폼 상에서 탐색 방식으로 전달된 비디오 콘텐츠의 단일 클립을 최종 사용자가 숙독하도록 예상되는 합리적인 평균 지속시간을 갖는다. 대략 8초의 클립은 최종 사용자가 디스플레이하는 콘텐츠의 더 나은 시각적 메모리를 이론적으로 유지할 수 있는 지각적으로 기억에 남는 시간의 지속시간이 될 수 있다. 게다가, 8초는 분당 120 비트에서 8비트의 균등한 프레이즈(phrase) 길이이고, 현대 서양 음악의 가장 일반적인 속도(tempo)이다. 이는 대략적으로 가장 일반적인 프레이즈 길이(전체 음악 테마 또는 섹션을 요약하는 시간의 지속시간)인 4바(16 비트)의 짧은 프레이즈의 지속기간이다. 이러한 속도(tempo)는 평균 활성 심장 박동에 지각적으로 연결되고, 행동과 활동을 제안하고 경계를 강화한다. 더욱이, 작고 알려진 크기의 클립을 갖는 것은 주어진 비디오 압축 속도를 기초로 하여 더 쉽게 대역폭 계산을 가능하게 하고, 대역폭은 일반적으로 8 메가비트=1 메가바이트인, 초당 메가비트와 같은, 약 기준-8 숫자로 계산되고, 따라서 비디오의 각 분할은 초당 1 메가비트로 인코딩될 때 약 1 메가바이트일 것이다.
도 5를 참조하면, 본 발명에 따른 비디오를 분할하는 방법(500)이 도시된다. 비디오 콘텐츠를 지각적으로 좋은 편집 경계의 이상적인 8초 분할로 절차적으로 해체하기 위하여, 비디오 콘텐츠를 분석하는 많은 접근법이 시스템 내에 적용될 수 있다. 우선, 초기의 결정은, 콘텐츠가 다른 어플리케이션에서 비롯되었는지 또는 현재 모바일 디바이스를 사용하여 레코딩(520)되었는지에 관한 비디오 콘텐츠의 본질에 대해 행해질 수 있다. 콘텐츠가 다른 소스 또는 어플리케이션으로부터 비롯된 경우, 비디오 콘텐츠는 씬 브레이크 검출을 사용하여 분명한 편집 경계에 대해 첫 번째로 분석(525)된다. 임의의 통계적인 중요한 경계는 바람직한 8초 간격의 경계에서 또는 그에 가깝게 강조됨으로써 마킹(530)될 수 있다. 비디오 콘텐츠가 현재 모바일 디바이스를 통해 레코딩된 경우, 센서 데이터는 레코딩하는 동안 로깅(535)될 수 있다. 이는 디바이스의 가속도계로부터 모든 축 상의 디바이스의 움직임의 델타 및/또는 디바이스의 자이로스코프에 기초하여 모든 축 상의 디바이스의 회전의 델타를 포함할 수 있다. 이러한 로깅된 데이터는 움직임 시작 및 임의의 주어진 벡터에 대한 시간의 평균 크기에 관하여 통계적으로 중요한 델타를 발견하기 위해 분석될 수 있다. 이러한 델타는 바람직한 8초 간격에 근접한 경계의 강조를 통해 로깅(540)된다.
비디오 콘텐츠는 편집 선택을 통지할 수 있는 추가적인 신호들(cues)에 대해 더 지각적으로 분석될 수 있다. 디바이스 하드웨어, 펌웨어, 또는 OS가 얼굴 관심영역(ROI) 선택을 포함하는, 임의의 병합된 관심영역(ROI) 검출을 제공하는 경우, 씬에서 임의의 ROI들이 마킹되도록 활용(545)된다. 이러한 ROI들의 온셋 생성 또는 소멸(즉, 그들의 프레임 내에 나타나거나, 프레임에서 사라질 때와 가까운 순간들)은 바람직한 8 초 간격에 근접한 경계 상의 강조를 통해 로깅될 수 있다.
전반적인 진폭 상의 오디오-기반 온셋 검출은 제로 교차, 잡음 플로어 또는 러닝 평균 파워 레벨에 관한 진폭에서의 통계적으로 중요한 변화(증가 또는 감소)를 기대할 것이다(550). 통계적으로 중요한 변화는 바람직한 8초 간격에 근접한 것들의 강조를 통해 로깅될 수 있다. 스펙트럼 띠 영역 내의 진폭 상의 오디오-기반 온셋 검출 은 FFT 알고리즘을 사용하여 오디오 신호를 많은 오버래핑 FFT 빈(bin)들로 전환하는 것에 의존할 것이다. 일단 전환되면, 각 빈은 러닝 평균에 관한 진폭에서의 통계적으로 중요한 변화에 대해 신중하게 분석될 수 있다. 모든 빈들은 모두 차례로 평균화되고, 모든 띠를 거쳐서 가장 통계적으로 중요한 결과는 바람직한 8초 간격에 근접한 것들의 강조를 통해 온셋으로서 로깅된다. 이러한 방법 안에서, 오디오는 띠를 선택적으로 강조/덜 강조하기 위하여 빗살형 필터(comb filter)를 통해 미리 처리될 수 있는데, 예를 들어, 일반 사람 스피치의 범위 내의 대역은 강조될 수 있는 반면 잡음과 밀접한 고 주파수 대역은 덜 강조될 수 있다.
콘텐츠 내의 평균 움직임의 시각적 분석은 적절한 분할 지점을 세우는 것을 돕도록 비디오 콘텐츠에 대해 결정될 수 있다(555). 실시간 행동 특성을 위해 요구될 때 제한된 프레임 해상도 및 샘플링 속도로, 프레임 내의 평균 움직임의 크기가 결정될 수 있고, 바람직한 8초 간격에 근접한 것들의 강조에 대한 결과를 로깅하면서 시간이 지남에 따라 통계적으로 중요한 변화를 찾도록 사용될 수 있다. 게다가, 콘텐츠의 평균 색 및 휘도는 바람직한 8초 간격에 근접한 것들의 강조를 통해 통계적으로 중요한 변화를 로깅하며, 레코딩된 데이터의 단순하고 낮은 해상도 분석을 사용하여 결정될 수 있다.
일단 임의의 또는 모든 전술된 분석이 완료되면, 최종 로깅된 출력이 각 결과를 전체 평균에 가중하여 분석될 수 있다(560). 이러한 분석 테이터의 후-프로세싱 통과는 모든 개별적인 분석 프로세스의 가중되고 평균화된 출력에 기초하여 제 시간에 가장 실행 가능한 지점을 찾는다. 마지막으로, 바람직한 8초 간격에서 또는 가까운 곳에서 가장 강한 평균 지점은 부분 편집 결정에 대한 모델을 형성하는 출력으로서 계산된다.
후 처리 단계(560)는, 이전에 언급된 임의의 또는 모든 비디오 상의 마킹된 지점을 선호하는 분할 지점의 지표로서 간주할 수 있다. 상이한 결정 요소는 가중될 수 있다. 또한, 8초와 같은 선호하는 분할 길이와는 너무 먼 결정 지점은 선호하는 분할 길이에 가장 가까운 지점보다 낮게 가중될 수 있다.
도 6을 참조하면, 본 발명의 일 양상에 따른 광 박스 어플리케이션이 도시된다. 광 박스 어플리케이션은 비디오 및 미디어 시간-기반 편집을 개선하기 위해 목록-구동된(list-driven) 선택 프로세스를 사용하기 위한 방법 및 시스템을 나타낸다. 광 박스 어플리케이션은 수직(610) 배향 및 수평 배향(620) 두 가지 모두에서 도시된다. 광 박스 어플리케이션은 분할된 비디오가 저장된 후에 개시될 수 있다. 대안적으로, 광 박스 어플리케이션은 사용자 명령에 응답하여 개시될 수 있다. 각 분할들은 각각에 대해 시간순으로 생성된 프리뷰(preview)를 통해 처음에 목록화된다. 프리뷰는 비디오 분할 또는 비디오 분할의 부분으로부터 얻어진 단일 이미지일수 있다. 추가적인 미디어 콘텐츠 또는 데이터는 광 박스 어플리케이션에 추가될 수 있다. 예를 들어, 다른 소스로부터 수신된 사진 또는 비디오는 사용자가 수신된 콘텐츠를 공유 또는 수정하도록 허용하거나 또는 수신된 콘텐츠를 새롭게 생성된 콘텐츠와 결합하도록 허용하는 광 박스 리스트 내에 포함될 수 있다. 따라서, 어플리케이션은 단일 목록 구동된 선택 프로세스로 비디오 및 미디어 시간-기반 편집을 허용한다.
광 박스 어플리케이션은 편집과 관련된 결정을 공유하기 위해 중앙 지점으로서 사용될 수 있다. 광 박스는 사용자들이 콘텐츠를 쉽고 빠르게 볼 수 있게 하고, 유지하고 싶은 것, 버리고 싶은 것, 및 언제 어떻게 다른 사람들과 공유할 지를 결정할 수 있게 한다. 광 박스 기능은 카메라, 채널 브라우징을 통해 작동하거나 다른 장소로부터 중요한 미디어에 대한 지점으로서 작동할 수 있다. 광 박스 뷰(view)는 최근 미디어의 목록 또는 그룹화된 미디어 세트를 포함할 수 있다. 각 아이템, 이미지 또는 비디오는 캡션, 지속시간, 및 가능한 그룹 수를 갖는 썸네일(thumbnail)에서 디스플레이된다. 캡션은 자동으로 또는 사용자에 의해 생성될 수 있다. 지속 시간은 사용자에게 미디어 콘텐츠의 무게 및 속도를 나타내기 위하여 간소화될 수 있다. 광 박스 타이틀 바는 돌아가는 항해를 따라, 아이템 수를 갖는 광 박스 세트의 카테고리를 포함할 수 있고, 아이템을 가져오고 또는 메뉴를 열수 있다.
광 박스 풍경화 뷰(620)는 한 측면에 목록화된 미디어 아이템을 통해 그리고 선택적으로 다른 측면 상에 즉시 접근 가능한 몇 가지 형태의 공유 방법을 통해 상이한 레이아웃을 제공한다. 이는 링크 또는 페이스북, 트위터, 또는 다른 소셜 미디어 어플리케이션의 프리뷰를 포함할 수 있다.
도 7을 참조하면, 광 박스 어플리케이션 내에서 수행될 수 있는 다양한 예시적인 작동(700)이 도시된다. 통합된 카메라 특징에 의해 캡쳐된 미디어, 예를 들어, 가능하게 다른 어플리케이션이 레코딩되거나, 다른 어플리케이션에 의해 생성되거나, 또는 웹 기반 소스로부터 다운로드된 디바이스의 존재하는 미디어 라이브러리로부터 가져온 미디어, 또는 관련된 어플리케이션 내에서 직접 출판된 콘텐츠로부터 선별된 미디어는 모두 프리뷰 모드의 광 박스로 수집된다(705). 광 박스는 수집된 미디어 내에서 시간의 그룹화와 같은 이벤트에 기초하여 그룹으로 카테고리화된 단순 수직 목록의 미디어를 나타낸다. 각 아이템은 썸네일 또는 주어진 미디어 조각에 대한 간소화된 지속시간을 포함하는 목록 열에 의해 나타난다. 임의의 아이템을 탭핑 함으로써, 미디어는 항목에 직접 관련하여 디스플레이하는 확장된 패널 내에 프리뷰될 수 있다.
광 박스 어플리케이션은 아이템을 프리뷰하는 확장된 아이템 뷰(710)를 선택적으로 가질 수 있다. 확장된 아이템 뷰(710)는 미디어 아이템 프로세싱, 캡셔닝, 및 공유에 대한 옵션을 드러낸다. 닫기 버튼을 탭핑하는 것은 아이템을 마치게 하고 또는 그 아래 있는 다른 아이템을 탭핑하는 것은 그 아이템을 마치거나 다른 아이템을 열게 한다.
광 박스 어플리케이션 내에서 위, 아래로 스크롤링하는 것은 사용자가 미디어 아이템을 항해하는 것(715)을 허용한다. 헤더는 목록의 위에 남아있을 수 있고, 또는 콘텐츠 위에 떠있을 수도 있다. 목록의 끝에서 스크롤링 하는 것은 다른, 오래된 리스트로 항해하는 것(720)을 가능하게 할 수 있다. 오래된 목록의 헤드는 드래깅하는 동안 텐션 하에 드러날 수 있다. 지나간 텐션을 드래깅하는 것은 오래된 목록으로의 이행이다. 아이템 상의 홀딩 및 드래깅은 사용자가 아이템을 레코딩하도록 하거나, 한 아이템을 다른 아이템으로 드래깅함으로써 아이템을 결합(725)하도록 한다. 아이템을 왼쪽으로 스위핑하는 것은 광 박스로부터 아이템을 제거한다(730). 아이템을 제거하는 것은 단지 광 박스 어플리케이션이 아닌 디바이스로부터 아이템을 제거하는 것일 수도 아닐 수도 있다. 다른 아이템 상에 아이템을 드래깅 또는 드롭핑하는 것은 그룹으로 아이템을 결합하기 위해 이용(735)될 수 있고, 또는 그룹으로 드래깅된 아이템을 결합하기 위해 이용될 수 있다. 아이템을 핀칭하는 것은 핀칭 범위 내의 모든 아이템을 그룹으로 함께 결합한다(740). 결합된 아이템을 프리뷰할 때, 그들은 순차적으로 재생하고, 프리뷰 윈도우 아래의 결합된 아이템을 확장하도록 탭 될 수 있는 아이템 수를 도시한다(745). 정규 광 박스 아이템은 그 후에 확장된 아이템들이 행으로서 디스플레이되도록 허용하기 위하여 아래로 푸쉬될 수 있다.
아이템들은 광 박스 어플리케이션 내로부터 그들 상에 드래그 함으로써 다루어질 수 있다. 아이템은 임의의 아이템을 왼쪽으로 드래깅함으로써 광 박스 어플리케이션으로부터 제거될 수 있다(730). 임의의 아이템을 오른쪽으로 드래그 함으로써, 아이템은 즉시 출판되도록 촉진될 수 있고, 이러한 스크린으로의 이행은 사용자가 하나 이상의 공유 위치 상에서 주어진 아이템들의 미디어를 공유하도록 한다(755). 프리뷰 할 때, 공유 버튼을 탭핑하는 것은 또한 아이템의 공유를 가능하게 할 수 있다. 드래그할 수 있는 임의의 아이템을 누르거나 홀딩함으로써, 전체적인 목록에서 그들의 위치를 재조직하기 위해 그 위치 지점에서 아이템은 위 아래로 드래그될 수 있다. 목록의 시간은 수직으로, 상하로 나타난다. 예를 들어, 상위 대부분 아이템은 먼저 미디어가 순차적으로 수행될 시간이다. 아이템들의 임의의 전체 그룹(단일 이벤트 헤딩 하를 유지하는)은 집합적으로 프리뷰되고(시간순으로 모든 아이템으로 구성된 단일 프리뷰로서 순차적으로 플레이되는), 동일한 제스처 및 단일 목록 아이템을 제어하는 방법을 이용하여 집합적으로 삭제되거나 발행될 수 있다. 비디오 또는 시간-기반 미디어를 포함하는 임의의 아이템을 프리뷰할 때, 재생은 관련된 목록 아이템 줄 상에서 좌우로 드래그함으로써 제어될 수 있다. 현재 위치는 사용자에 의해 재생되는 동안 오프셋 시간으로 드래그될 수 있는 작은 줄에 의해 마킹된다. 관련된 리트스 아이템 줄에서 두 손가락으로 수평적으로 핀칭함으로써, 비디오 또는 시간-기반 미디어를 포함하는 임의의 아이템을 프리뷰할 때, 선택 범위는 최종 재생 출력으로서 원본 미디어를 다듬기 위해 핀치되고 드래그될 수 있는 범위에 한정된다. 관련된 목록 아이템 줄에서 좌우 또는 우좌로 드래그함으로써, 이미지 또는 스틸 미디어를 포함하는 임의의 아이템을 프리뷰할 때, 임의의 추가적인 인접한 캡처된 프레임은 선택적으로 '스크럽(scrubbed)'일 수 있다. 예를 들어, 단일 사진 캡처동안 카메라가 출력의 몇 가지 프레임을 레코딩하는 경우, 이러한 제스처는 사용자가 순환하고 최종 스틸 프레임으로서 가장 좋은 프레임을 선택하도록 허용할 수 있다.
최근에 발행(하나 이상의 출판 목적지에 업로드 된)된 아이템은 광 박스 목록으로부터 자동으로 클리어된다. 시간이 지났거나, 또는 연장된 비 활성화 기간보다 더 오랫동안, 예컨대 몇 일간 광 박스에서 있었던 아이템들은 광 박스 목록으로부터 자동으로 클리어된다. 광 박스 미디어는, 디바이스 상에서 중앙의 유비쿼터스 저장 위치에 만들어지고, 이에 따라 동일한 광 박스 뷰를 포함하는 다른 어플리케이션들 모두가 미디어의 동일한 현재 풀로부터 공유한다. 이는 간단하고 동시에 편집하는 멀티미디어 자산에서 다중 어플리케이션 콜라보레이션을 만든다.
도 8을 참조하면, 본 발명의 일 양상에 따른 예시적인 캡션 색 생성 어플리케이션(800)이 도시된다. 한 뷰는 사용자가 캡션을 오버레이하기 원하는 원본 이미지(810)를 도시한다. 캡션은 사용자 입력을 통해 생성될 수 있고, 또는 어플리케이션에 의해 자동으로 생성될 수도 있다. 어플리케이션은 이미지의 콘텐츠를 인식할 수 있고, 인터넷 또는 유사한 이미지에 대한 데이터베이스를 검색할 수 있고, 메타데이터나 캡션의 텍스트를 생성하는 유사한 이미지와 연관된 캡션을 조사할 수 있다. 두 번째 뷰는 이미지에 오버레이된 캡션(830)으로 대체된 이미지(820)를 도시한다. 캡션의 색은 눈에 기쁘게 될 방식으로 이미지와 대조적으로 선택되지만 여전히 뷰어에게 읽을 수 있는 캡션을 만든다.
시스템(800)은 이미지에서 가장 눈에 잘 띄는 색을 결정하는 알고리즘을 이용한다. 두드러진 색은 이미지에서 가장 자주 사용되는 색이다. 지배적인 색은 이미지에서 더 영향이 있고 따라서 뷰어에게 이미지의 한정 색상으로서 보인다. 예를 들어, 이미지가 대부분 검정색이지만 디스플레이된 넓은 빨간 형태를 갖는 경우, 실제로 지배적인 색은 검정이지만, 뷰어는 이미지를 주로 빨간색으로서 한정할 것이다. 따라서, 지배적인 색과 두드러진 색은 다를 수 있다. 이러한 예시적인 실시예에서, 빨강은 이미지의 두드러진 색이다. 시스템은 많은 상이한 방식으로 이러한 색 중요성을 결정할 수 있다. 시스템은 이미지에서 색의 평균을 얻을 수 있고, 이러한 평균에 응답하여 캡션 색을 선택하고, 두드러진 색으로서 그 색을 선택할 수 있다. 이미지는 가장 일반적으로 사용되는 색을 찾고 두드러진 색으로서 그 색을 선택할 수 있다. 그리고 나서, 어플리케이션은 캡션 색으로서 두드러진 색을 사용하거나, 분리된 많은 두드러진 색들 중 하나를 선택할 수 있다.
도 9를 참조하면, 본 발명의 예시적인 양상에 따른 색 선택 차트가 도시된다. 시스템은 두드러진 색(910)과 분리된 많은 두드러진 색들(920)을 매치시키도록 동작한다. 시스템 설계자는 기억력 문제나 미학적 이유 등 때문에 특정 색을 사용하기 원할 수 있다. 예를 들어 시스템은 검정 또는 흰색, 또는 임의의 파스텔 색을 사용하고 싶지 않을 수 있다. 대안적으로, 시스템은 두드러진 색과 열성(recessive) 색을 매치하도록 동작할 수 있다. 지배적인 색과 다른 열성 색은 희미해진다. 이러한 열성 색, 예컨대 라벤더, 핑크 또는 그레이는 주변 색의 성질을 띤다. 대조적인 열성 색은 그들이 읽어질 캡션을 허용하도록 할 때, 하지만 그 위에 오버레이되는 이미지 또는 비디오로부터 산만하지 않을 때 지배적인 색보다 더 바람직할 수 있다. 일단 매칭이 되면, 캡션 또는 문자는 매칭된 색에서 오버레이된다.
시스템은 그리고 나서 캡션을 디스플레이할 위치를 선택할 수 있다. 캡션은 왼쪽 아래와 같은 디폴트 위치에서 디스플레이될 수 있고, 또는 이미지의 색 위치의 분석 후에 위치지정될 수 있다. 디폴트 위치의 경우, 시스템은 이미지 또는 비디오 내에서 디폴트 위치에 근접하여 두드러진 색을 결정할 수 있다. 따라서, 캡션은 이미지와 캡션 문자 사이에서 바람직한 대조의 레벨을 여전히 가질 것이다. 이미지와 캡션을 디스플레이하는 것은 디스플레이 스크린 상에 디스플레이하거나 디스플레이 디바이스에 연결하기 위해 적절한 신호를 생성하는 것을 의미한다는 것이 이해되어야한다.
대안적으로, 시스템은 비디오와 같은 일련의 이미지들에 대한 캡션의 동일한 색을 사용하길 원할 수 있다. 이러한 경우, 시스템은 두드러진 색에 대해 각 이미지를 분석할 수 있고, 그 후에 가장 일반적인 두드러진 색을 취하고 그 색을 모든 이미지 상에 오버레이된 캡션에 대한 문자 색으로서 사용한다. 시스템은 전체 프레임 또는 많은 프레임에 대해 가장 적은 색 변경을 갖는 일련의 이미지 내에서 위치를 결정할 수 있다. 이러한 위치는 캡션을 배치하는 위치로서 선택될 수 있다. 그리고 나서 모든 일련의 이미지 내의 이러한 위치의 두드러진 색은 이전에 기재된 방법에 따라 문자 색을 선택하도록 분석될 것이다. 문자 색은 모든 이미지 또는 비디오 프레임 상의 위치에서 캡션을 디스플레이하도록 사용된다.
도 10을 참조하면, 본 발명의 양상에 따른 이미지 또는 비디오 상의 캡션의 자동 오버레이의 예시적인 실시예(1000)가 도시된다. 이러한 예시적인 실시예에서, 모바일 디바이스 스크린의 세 가지 표시가 도시된다(1010, 1020, 1030). 제 1 표시(1010)는 각각 캡션을 갖는 8개 이미지를 갖는 사용자 인터페이스를 도시한다. 제 2 표시(1020)는 사용자가 제 1 표시를 따르는 사용자 인터페이스로부터 시작하는 하나의 이미지를 아래로 스크롤 한 후의 사용자 인터페이스를 도시한다. 이러한 스크롤링은 물리적인 버튼 또는 소프트 버튼을 통해 스크린을 손가락으로 위로 드래그함으로서 달성될 수 있다. 효과는 사용자 인터페이스를 하나의 이미지 위로 이동하는 것이다. 따라서, 이미지(9)는 이제 디스플레이 되고, 이미지(1)는 더 이상 디스플레이되지 않는다. 다른 이미지들 각각은 사용자 인터페이스에서 위로 이동한다.
제 1 표시(1010) 및 제 2 표시(1020)의 사용자 인터페이스 사이의 차이를 살펴보면, 각 이미지에 대한 캡션이 이미지와 다른 속도로 움직이는 것이 보여진다. 예를 들어, 이미지(7)에 대한 캡션은 제 1 표시(1010)에서 이미지(7)의 상부에 있지만, 제 2 표시(1020)에서 캡션은 이미지의 더 낮은 곳에 있다. 이제 제 3 표시(1030)를 참조하면, 이는 사용자가 이미지의 목록을 더 아래로 스크롤링하는 것을 나타내고 이미지(7)는 사용자 인터페이스의 상부로 이동된 것이 보여질 수 있다. 이미지(7)에 대한 캡션은 이제 이미지(7)의 바닥에서 도시된다. 따라서, 이미지의 목록에서 사용자가 위로 스크롤링하면, 캡션은 이미지와 다른 속도로 이동한다. 이러한 효과를 달성하기 위하여, 이미지들은 캡션보다 더 빠른 속도로 이동된다. 이는 쉽게 읽도록 허용하기 위해 이미지의 상이한 영역 내에 캡션을 위치지정하도록 사용자가 쉽게 위아래로 스크롤링하는 것을 허용하는 이로운 효과를 갖는다.
더 예시적인 실시예는 좌 또는 우로 스크롤의 사용자 입력에 응답하여 이미지를 좌에서 우로 이동하는 시스템을 가질 수 있다. 캡션은 이러한 사용자 입력에 응답하여 이미지와 상이한 속도로 좌 또는 우로 이동될 수 있다. 시스템은 사용자 입력에 응답하여 캡션의 색 또는 음영을 선택적으로 바꿀 수 있다. 그러므로, 캡션이 스크린 위로 이동할 때, 색은 검정에서 흰색으로 바뀔 수 있고, 또는 예를 들어, 녹색의 어두운 음영에서 녹색의 밝은 음영으로 바뀔 수 있다. 이는 이미지가 주로 일관된 색인 경우, 사용자가 목록을 스크롤링 할 때 캡션이 색을 바꾸고 이에 따라, 이미지의 움직임 동안 몇 지점에서 캡션이 쉽게 읽히도록 하는 바람직한 효과를 가질 것이다.
대안적으로, 폰트의 사이즈는 이미지가 스크롤될 때 변경될 수 있다. 따라서, 캡션이 목록의 맨 아래 근처에서 디스플레이될 때, 예를 들어 캡션은 가장 작은 폰트일 수 있다. 사용자 입력에 응답하여 캡션이 스크린 위로 이동될 때, 캡션 사이즈는 더 커지거나 작아질 수 있다. 따라서, 사용자가 이미지의 목록을 스크롤할 때, 폰트는 사이즈를 변경하여, 다른 지점에서 이미지가 더 쉽게 보이는 반면에, 몇 지점에서는 캡션이 더 쉽게 보이게 된다.
게다가 또는 대안적으로, 이미지는 불투명하고, 회색톤일 수 있고, 그렇지 않으면 스크롤링 동안 스크린의 한 에지에서 시각적으로 변경될 수 있고 스크린의 다른 단부에서 점점 더 가시적으로 될 수 있다. 예를 들어, 사용자가 위로 스크롤링 할 때, 이미지는 회색 톤으로 나타난다. 이미지가 목록의 상부에 가까워지면, 색은 이미지가 몇 지점에서 풀 컬러일 때까지 점차적으로 도입된다. 이러한 지점은 목록의 맨 위, 또는 목록의 바닥과 맨 위 사이의 어느 곳 일 수 있다. 추가적으로 또는 대안적으로, 캡션은 투명하게 시작할 수 있고 사용자가 목록을 스크롤링 할 때 점차적으로 덜 투명해진다. 따라서, 목록의 맨 위에서 예를 들어, 이미지만이 캡션 없이 디스플레이될 수 있다. 사용자가 아래로 스크롤링할 때, 캡션이 나타나고 이미지가 디스플레이 아래로 이동될 때 덜 투명해진다. 따라서, 사용자가 이미지의 목록을 스크롤링 할 때, 이미지 또는 캡션은 투명하게 바뀌고, 다른 지점에서 이미지가 더 쉽게 보이는 반면에, 몇 지점에서는 캡션이 더 쉽게 보이게 된다. 전술된 예시적인 실시예 각각은 사용자가 캡션을 분명하고 빠르게 구분하도록 하는 이점을 갖는다. 이는 사용자가 이미지에 집중할 수 없는 차량 관련 어플리케이션에 이로울 수 있다. 스크롤링은 예를 들어 스티어링 휠 상의 버튼을 통해 제어될 수 있다. 다른 예시적인 실시예는 목록이 위 아래로 스크롤링 될 때, 이미지 또는 캡션의 선명함 또는 캡션 또는 이미지의 불투명함을 바꾸는 것을 포함할 수 있다.
이제 도 11을 참조하면, 본 발명에 따른 이미지 또는 비디오 상의 캡션의 자동 오버레이의 방법(1110)의 예시적인 실시예가 도시된다. 이미지의 시각적인 목록은 터치 스크린과 같은 디스플레이 디바이스 상의 사용자 인터페이스를 통해 디스플레이(1110)된다. 디스플레이 디바이스는 모바일 폰, 컴퓨터 스크린, 태블릿 등일 수 있다. 시스템은 사용자 입력을 기다린다(1120). 스크롤링 사용자 입력이 수신되면, 시스템은 스크롤의 방향을 결정한다(1130). 목록이 위로 스크롤링된 경우, 시스템은 이전에 디스플레이된 이미지보다 높은 이미지 하나 이상의 유닛을 디스플레이하도록 동작한다(1140). 유닛의 크기는 픽셀, 밀리미터 등일 수 있다. 시스템은 이전에 디스플레이된 것보다 더 높이 캡션을 디스플레이하도록 동작할 수 있지만, 이미지와 다른 양이 이동된다. 예를 들어, 이미지가 4 픽셀로 이동된 경우, 캡션은 3 픽셀로 이동될 수 있다. 몇 가지 예에서 캡션을 이미지보다 많이 이동하는 것이 바람직할 수 있다.
목록이 아래로 스크롤링되는 경우, 시스템은 이전에 디스플레이된 것보다 낮은 하나 이상의 유닛의 이미지를 디스플레이하도록 동작한다(1150). 시스템은 이전에 디스플레이된 것보다 낮게 캡션을 디스플레이하도록 더 동작하지만, 이미지와 다른 양이 이동된다. 예를 들어, 이미지가 4 픽셀로 이동되는 경우, 캡션은 3픽셀로 이동될 수 있다. 몇 가지 예에서, 캡션을 이미지보다 많이 이동하는 것이 바람직할 수 있다.
스크린이 목록의 바닥 또는 위에서 추가적인 이미지를 디스플레이하도록 충분한 양이 스크롤링되는 경우, 추가적인 이미지(1160)는 스크롤링 사용자 입력에 응답하여 디스플레이될 수 있다. 새로운 이미지는 디스플레이의 맨 위 또는 디스플레이의 바닥에서 디스플레이될 수 있다. 적절한 캡션은 캡션의 리딩 에지에서 새로운 이미지 상에 오버레이된다(1170). 따라서, 이미지가 디스플레이상에 이동될 때, 캡션은 이미지의 트레일링(trailing) 에지로 점차 이동된다. 그리고 나서, 이미지는 추가 스크롤링에 응답하여 디스플레이를 떠난다. 부분 이미지는 스크린 스크롤링에 응답하여 디스플레이의 에지에서 디스플레이될 수 있다.
위에서 도시되고 논의된 요소들은 하드웨어, 소프트웨어 또는 이들의 조합의 다양한 형태로 구현될 수 있다는 것이 이해되어야한다. 바람직하게, 이러한 요소들은 하나 이상의 적절하게 프로그래밍된, 프로세서, 메모리 및 입/출력 인터페이스를 포함할 수 있는 범용 디바이스 상에서 하드웨어와 소프트웨어의 조합으로 구현된다. 본 기재는 본 개시의 원리를 도시한다. 따라서, 비록 명세서에 분명하게 기재되거나 도시되지 않았지만 본 개시의 원리를 구현하고 이 범위 내에 포함되는 다양한 방식을 고안할 수 있다는 것이 이해될 것이다. 모든 예시와 명세서에 언급된 조건부 언어는 독자가 추가적인 기술에 대해 발명자에 의해 기여된 본 개시의 원리 및 개념을 이해하는데 도움을 주기 위한 설명의 목적으로 의도되고, 이러한 특정하게 언급된 예시 및 조건에 제한되지 않고 이해될 것이다. 더욱이, 나열된 본 개시의 원리, 양상, 및 실시예뿐만 아니라 특정 예시들의 모든 서술은 구조적으로 그리고 기능적으로 모두 등가물을 포함하도록 의도된다. 게다가, 이러한 등가물은 현재 알려진 등가물뿐만 아니라 미래에 개발될 등가물, 즉, 구조에 관계없이 동일한 기능을 수행하는 개발된 임의의 요소들을 모두 포함하도록 의도된다. 따라서, 예를 들어, 본 개시의 원리를 구현하는 도시적인 회로의 개념 뷰를 나타내는 블록도가 당업자에의해 이해될 것이다. 유사하게, 임의의 플로우 차트, 흐름도, 상태 전이도, 의사코드 등이 컴퓨터 판독가능 매체에 실질적으로 나타날 수 있는 다양한 프로세스를 나타내고, 따라서 이러한 컴퓨터 또는 프로세서가 분명하게 도시되든지 그렇지 않든지 간에 컴퓨터 또는 프로세서에 의해 실행될 수 있다는 것이 이해될 것이다.
100 : 모바일 폰 110 : 셀 네트워크 인터페이스
130 : USB 인터페이스 180 : 입/출력(I/O)인터페이스
140 : 카메라 150 : 메인 프로세서
170 : 터치 스크린 225 : 직사각형 삽화

Claims (34)

  1. 방법에 있어서,
    -사용자 인터페이스를 생성단계로서, 사용자 인터페이스는 이미지 및 문자를 포함하고, 상기 문자는 상기 이미지의 제 1 부분 상에 오버레이되는, 생성단계; 및
    -사용자 입력에 응답하여 상기 사용자 인터페이스 내의 상기 이미지 및 상기 문자를 이동하는 단계로서, 상기 이미지 및 상기 문자는, 상기 문자가 상기 이미지의 제 2 부분 상에 디스플레이되도록 상이한 양이 이동되는, 이동하는 단계를 포함하는, 방법.
  2. 제 1항에 있어서, 상기 사용자 입력은 비디오 스크린의 스크롤링인, 방법.
  3. 제 2항에 있어서, 상기 사용자 입력은 터치 스크린을 이용하여 만들어지는, 방법.
  4. 제 1항에 있어서, 상기 이미지는 제 1 방향으로 제 1 거리를 이동하고 상기 문자는 상기 제 1 방향으로 제 2 거리를 이동하며, 상기 제 1 방향은 상기 사용자 입력에 응답하여 결정되는, 방법.
  5. 제 1항에 있어서, 상기 이미지는 상기 사용자 인터페이스의 맨 위에서 제 1 디스플레이되고 문자는 상기 이미지의 바닥 부분에 걸쳐 제 1 디스플레이되며, 상기 사용자 입력에 응답하여, 이미지는 상기 사용자 인터페이스의 바닥으로 이동되고 문자는 상기 이미지의 맨 윗 부분에 걸쳐서 디스플레이되는, 방법.
  6. 제 1항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 색을 변경하는, 방법.
  7. 제 1항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 사이즈를 변경하는, 방법.
  8. 제 1항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 불투명하게 변경되는, 방법.
  9. 제 1항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 색을 변경하는, 방법.
  10. 제 1항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 선명하게 변경되는, 방법.
  11. 제 1항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 불투명하게 변경되는, 방법.
  12. 장치로서, 제 1항 내지 제 11항의 방법 중 하나 이상을 수행하도록 구성된, 장치.
  13. 장치로서,
    -사용자 인터페이스를 디스플레이하도록 동작하고, 사용자 입력을 수신하기 위한 디스플레이; 및
    -상기 사용자 인터페이스를 생성하기 위한 프로세서로서, 상기 사용자 인터페이스는 이미지 및 문자를 포함하고, 상기 문자는 상기 이미지의 제 1 부분 상에 오버레이되고, 상기 프로세서는 상기 사용자 인터페이스를 변형하도록 더 동작하며 이에 따라, 상기 이미지 및 상기 문자는 상기 사용자 입력에 응답하여 상기 사용자 인터페이스 내에서 이동되고, 상기 이미지 및 상기 문자는 상이한 양이 이동되어 상기 문자가 상기 이미지의 제 2 부분 상에 디스플레이되는, 프로세서를 포함하는, 장치.
  14. 제 13항에 있어서, 상기 사용자 입력은 비디오 스크린의 스크롤링인, 장치.
  15. 제 14항에 있어서, 상기 사용자 입력은 터치 스크린을 사용하여 만들어지는, 장치.
  16. 제 14항에 있어서, 버튼을 더 포함하는 장치로서, 상기 사용자 입력은 상기 버튼에 응답하여 만들어지는, 장치.
  17. 제 13항에 있어서, 상기 이미지는 제 1 방향으로 제 1 거리를 이동하고 상기 문자는 상기 제 1 방향으로 제 2 거리를 이동하며, 상기 제 1 방향은 상기 사용자 입력에 응답하여 결정되는, 장치.
  18. 제 13항에 있어서, 상기 이미지는 상기 사용자 인터페이스의 맨 위에서 제 1 디스플레이되고 문자는 상기 이미지의 바닥 부분에 걸쳐 제 1 디스플레이되며, 상기 사용자 입력에 응답하여, 이미지는 상기 사용자 인터페이스의 바닥으로 이동되고 문자는 상기 이미지의 맨 윗 부분에 걸쳐 디스플레이되는, 장치.
  19. 제 13항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 색을 변경하는, 장치.
  20. 제 13항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 사이즈를 변경하는, 장치.
  21. 제 13항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 불투명하게 변경되는, 장치.
  22. 제 13항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 색을 변경하는, 장치.
  23. 제 13항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 선명하게 변경되는, 장치.
  24. 장치로서,
    - 사용자 입력을 수신하기 위한 제어기; 및
    - 사용자 인터페이스를 포함하는 신호를 생성하기 위한 프로세서로서, 상기 사용자 인터페이스는 이미지와 문자를 포함하고, 상기 문자는 상기 이미지의 제 1 부분 상에 오버레이되고, 상기 프로세서는 상기 이미지 및 상기 문자가 상기 사용자 입력에 응답하여 상기 사용자 인터페이스 내에서 이동되도록 상기 사용자 인터페이스를 변형하기 위해 더 동작하고, 상기 이미지 및 상기 문자는 상기 문자가 상기 이미지의 제 2 부분 상에 디스플레이되도록 상이한 양이 이동되는, 프로세서를 포함하는, 장치.
  25. 제 24항에 있어서, 상기 사용자 입력은 터치 감응(touch sensitive) 입력 디바이스의 스크롤링인, 장치.
  26. 제 25항에 있어서, 상기 사용자 입력은 터치 스크린을 이용하여 만들어지는, 장치.
  27. 제 25항에 있어서, 상기 제어기는 버튼을 더 포함하고 상기 사용자 입력은 상기 버튼에 응답하는 모드인, 장치.
  28. 제 24항에 있어서, 상기 이미지는 제 1 방향으로 제 1 거리를 이동하고 상기 문자는 상기 제 1 방향으로 제 2 거리를 이동하며, 상기 제 1 방향은 상기 사용자 입력에 응답하여 결정되는, 장치.
  29. 제 24항에 있어서, 상기 이미지는 상기 사용자 인터페이스의 맨 위에서 제 1 디스플레이되고 문자는 상기 이미지의 바닥 부분에 걸쳐서 제 1 디스플레이되며, 상기 사용자 입력에 응답하여, 이미지는 상기 사용자 인터페이스의 바닥으로 이동되고 문자는 상기 이미지의 맨 윗 부분에 걸쳐서 디스플레이되는, 장치.
  30. 제 24항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 변경하는, 장치.
  31. 제 24항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 사이즈를 변경하는, 장치.
  32. 제 13항에 있어서, 상기 문자는 상기 사용자 입력에 응답하여 불투명하게 변경되는, 장치.
  33. 제 24항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 색을 변경하는, 장치.
  34. 제 24항에 있어서, 상기 이미지는 상기 사용자 입력에 응답하여 선명하게 변경되는, 장치.
KR1020167006547A 2013-09-16 2014-08-27 스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치 KR20160056889A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361878245P 2013-09-16 2013-09-16
US61/878,245 2013-09-16
PCT/US2014/052868 WO2015038337A1 (en) 2013-09-16 2014-08-27 Method and apparatus for caption parallax over image while scrolling

Publications (1)

Publication Number Publication Date
KR20160056889A true KR20160056889A (ko) 2016-05-20

Family

ID=50002862

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020167006819A KR20160122115A (ko) 2013-09-16 2013-12-30 텍스트 칼라를 생성하기 위한 칼라 검출을 위한 방법 및 장치
KR1020167006547A KR20160056889A (ko) 2013-09-16 2014-08-27 스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020167006819A KR20160122115A (ko) 2013-09-16 2013-12-30 텍스트 칼라를 생성하기 위한 칼라 검출을 위한 방법 및 장치

Country Status (6)

Country Link
US (2) US10496243B2 (ko)
EP (2) EP3047642B1 (ko)
JP (2) JP2016536647A (ko)
KR (2) KR20160122115A (ko)
CN (2) CN105556947A (ko)
WO (2) WO2015038180A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210107122A (ko) * 2019-05-01 2021-08-31 구글 엘엘씨 비디오를 위한 바이어스 조명 효과 생성

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9729933B2 (en) 2014-06-30 2017-08-08 Rovi Guides, Inc. Systems and methods for loading interactive media guide data based on user history
US10109092B1 (en) * 2015-03-24 2018-10-23 Imagical LLC Automated text layout, color and other stylization on an image or video, and the tracking and application of user color preferences
CN104915102B (zh) * 2015-06-25 2018-09-07 走遍世界(北京)信息技术有限公司 图形界面的交互方法及装置
CN106791493A (zh) * 2016-11-17 2017-05-31 天津大学 基于模糊控制的颜色协调立体字幕制作方法
US10356481B2 (en) * 2017-01-11 2019-07-16 International Business Machines Corporation Real-time modifiable text captioning
CN108174308B (zh) * 2017-12-28 2020-06-16 Oppo广东移动通信有限公司 视频播放方法、视频播放装置、存储介质及电子设备
US10832389B2 (en) * 2018-12-13 2020-11-10 Ati Technologies Ulc Method and system for improved visibility in blended layers for high dynamic range displays
CN114610217A (zh) * 2022-03-24 2022-06-10 闪耀现实(无锡)科技有限公司 用于显示视图的方法、装置和头戴显示设备

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR910006465B1 (ko) * 1988-12-31 1991-08-26 삼성전자 주식회사 영상신호와 보색관계를 가지는 문자를 영상신호에 삽입하는 문자 합성장치
JP2002044590A (ja) * 2000-07-21 2002-02-08 Alpine Electronics Inc Dvdビデオ再生装置
US7050109B2 (en) 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7324118B2 (en) 2001-08-31 2008-01-29 Ricoh Company, Ltd. Super imposed image display color selection system and method
US8522267B2 (en) 2002-03-08 2013-08-27 Caption Colorado Llc Method and apparatus for control of closed captioning
KR100828354B1 (ko) * 2003-08-20 2008-05-08 삼성전자주식회사 자막 위치 제어 장치 및 방법
JP4552426B2 (ja) * 2003-11-28 2010-09-29 カシオ計算機株式会社 表示制御装置および表示制御処理のプログラム
US7542050B2 (en) 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
ATE431675T1 (de) 2006-04-18 2009-05-15 Vestel Elekt Sanayi Ve Ticaret Verfahren und system für die bildseitenverhältnisumwandlung eines videobildes
US7646392B2 (en) * 2006-05-03 2010-01-12 Research In Motion Limited Dynamic theme color palette generation
US8087044B2 (en) 2006-09-18 2011-12-27 Rgb Networks, Inc. Methods, apparatus, and systems for managing the insertion of overlay content into a video signal
KR100879502B1 (ko) 2007-04-11 2009-01-20 주식회사 대우일렉트로닉스 디지털 텔레비전의 캡션 표시 방법
JP2009027605A (ja) * 2007-07-23 2009-02-05 Funai Electric Co Ltd 光ディスク装置
TR200709081A2 (tr) 2007-12-28 2009-07-21 Vestel Elektron�K Sanay� Ve T�Caret A.�. Görüntü sistemleri için dinamik renkli kullanıcı.
US20100278421A1 (en) * 2008-01-17 2010-11-04 Marc Andre Peters Extracting colors
KR101680044B1 (ko) * 2008-08-19 2016-11-28 디지맥 코포레이션 콘텐트 처리를 위한 방법들 및 시스템들
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8701040B2 (en) 2008-09-29 2014-04-15 Microsoft Corporation Panoramic graphical user interface
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
CN101742129A (zh) * 2008-11-18 2010-06-16 中兴通讯股份有限公司 一种字幕处理方法
CN101867733A (zh) 2009-04-14 2010-10-20 联发科技(新加坡)私人有限公司 视频节目的字幕数据流的处理方法及视频显示系统
US20110280476A1 (en) * 2010-05-13 2011-11-17 Kelly Berger System and method for automatically laying out photos and coloring design elements within a photo story
US8319772B2 (en) 2010-07-23 2012-11-27 Microsoft Corporation 3D layering of map metadata
CN101917557B (zh) * 2010-08-10 2012-06-27 浙江大学 一种基于视频内容的动态添加字幕方法
US8866822B2 (en) 2010-09-07 2014-10-21 Microsoft Corporation Alternate source for controlling an animation
WO2012065037A1 (en) * 2010-11-12 2012-05-18 Colormodules Inc. Method and system for color matching and color recommendation
US20120127198A1 (en) * 2010-11-22 2012-05-24 Microsoft Corporation Selection of foreground characteristics based on background
JP2015084004A (ja) 2012-02-10 2015-04-30 パナソニック株式会社 通信装置
US9397844B2 (en) * 2012-09-11 2016-07-19 Apple Inc. Automated graphical user-interface layout
CN105009567B (zh) * 2013-02-21 2018-06-08 杜比实验室特许公司 用于合成叠加图形的外观映射的系统和方法
KR102129536B1 (ko) 2013-08-06 2020-07-03 삼성전자주식회사 모바일 단말기 및 그의 제어 방법
US9823824B2 (en) 2013-08-19 2017-11-21 Kodak Alaris Inc. Context sensitive adaptable user interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210107122A (ko) * 2019-05-01 2021-08-31 구글 엘엘씨 비디오를 위한 바이어스 조명 효과 생성

Also Published As

Publication number Publication date
WO2015038337A1 (en) 2015-03-19
US20160231889A1 (en) 2016-08-11
WO2015038180A1 (en) 2015-03-19
KR20160122115A (ko) 2016-10-21
CN105556948A (zh) 2016-05-04
CN105556947A (zh) 2016-05-04
EP3047642B1 (en) 2018-12-19
JP2016536647A (ja) 2016-11-24
US10496243B2 (en) 2019-12-03
EP3047643A1 (en) 2016-07-27
EP3047643B1 (en) 2018-01-03
US20160227134A1 (en) 2016-08-04
JP2016537918A (ja) 2016-12-01
EP3047642A1 (en) 2016-07-27

Similar Documents

Publication Publication Date Title
EP3047644B1 (en) Method and apparatus for generating a text color for a group of images
AU2013381005B2 (en) Method and apparatus for using a list driven selection process to improve video and media time based editing
KR20160056889A (ko) 스크롤링 동안 이미지에 대한 캡션 시차를 위한 방법 및 장치
JP6175518B2 (ja) 自動ビデオセグメント化のための方法および装置
US20150348588A1 (en) Method and apparatus for video segment cropping
JP2019220207A (ja) 撮影効果のためにジェスチャを使用するための方法および装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid