JP5091086B2 - ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース - Google Patents

ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP5091086B2
JP5091086B2 JP2008283690A JP2008283690A JP5091086B2 JP 5091086 B2 JP5091086 B2 JP 5091086B2 JP 2008283690 A JP2008283690 A JP 2008283690A JP 2008283690 A JP2008283690 A JP 2008283690A JP 5091086 B2 JP5091086 B2 JP 5091086B2
Authority
JP
Japan
Prior art keywords
cliplet
video
cliplets
user
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008283690A
Other languages
English (en)
Other versions
JP2009105900A (ja
Inventor
トヤマ ケンタロー
ドラッカー スティーブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2009105900A publication Critical patent/JP2009105900A/ja
Application granted granted Critical
Publication of JP5091086B2 publication Critical patent/JP5091086B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/743Browsing; Visualisation therefor a collection of video files or sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4786Supplemental services, e.g. displaying phone caller identification, shopping application e-mailing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェースに関し、より詳細には、コンピュータユーザインタフェースを使用して短いビデオセグメント(またはビデオ「クリップレット」)、ならびにクリップレットに関する情報及びプロパティを表示する、ビデオの短いセグメントを表示するための方法及びビデオクリップレットを表示するための方法並びにグラフィカルユーザインタフェースに関する。
ビデオカメラ(またはカムコーダ(camcorder))は、アマチュアのビデオカメラ撮影者に人気の高いデバイスである。ビデオカメラは、デジタルビデオをメモリデバイスに記憶するデジタルカメラ、またはビデオ映像(video footage)を磁気ビデオテープに記憶するアナログのビデオカメラであるアナログのビデオカメラでキャプチャされたビデオ映像は、周知の技術を使用してデジタル化された形式に変換することができる。デジタルビデオは、コンピューティングデバイス(パーソナルコンピュータなどの)上で実行されるソフトウェアを使用して処理して、ビデオカメラでキャプチャされたデータを編集し、操作することができる。
従来のホームデジタルビデオのパラダイムでは、ユーザが、良好なビデオを撮影し、時間のかかるビデオ編集を行ってから、編集済みのムービーを含む単一の長いビデオを出力することを予期している。しかし、このパラダイムは、いくつかの問題を抱えている。1つの問題は、観るのを楽しむことができる良好なビデオは、写す、または撮影するのが困難なことである。ホームデジタルビデオは、圧倒的に、アマチュアのビデオカメラ撮影者によって撮影されている。これらのアマチュアは、一般に、ビデオを撮影することの訓練をほとんど受けておらず、したがって、しばしば、何をどのようにビデオに撮影するかについてまずい判断をする。結果として観づらいビデオ映像がもたらされる。
別の問題は、生のビデオ映像は、プロによって撮影されたときでも、編集するのが困難であり、時間がかかることである。プロの訓練を受けており、ハイエンドのツールを使用するプロの編集者が生のビデオをたった数分間の長さの最終バージョンに編集するのに、数時間かかる可能性がある。さらに、ほとんどの生のビデオ映像は退屈であり、数時間の生のビデオを精査することは、特にアマチュアには、極めて退屈な仕事である。
さらに別の問題の問題は、アマチュアが使用するための現在のビデオ編集ソフトウェアが、プロ用の編集システムをモデルにしていることである。これにより、ソフトウェアが平均的な消費者に使いづらいものになりがちである。現在のビデオ編集ソフトウェアのユーザインタフェースは、通常、生のビデオ映像の1つのビューをユーザに提供する。このユーザインタフェースは、映像に沿ってタイムライン(timeline)をユーザに提供して、ユーザに時間上のオリエンテーション(temporal orientation)を与える。タイムラインは、ビデオ1トラック、ビデオ2トラック、オーディオ1トラックなどの、いくつかの異なる「トラック(track)」を含むことが可能である。ユーザインタフェースは、再生ボタン、早送りボタン、及び巻戻しボタンなどの、VCR(video cartridge [cassette] recorder)と同様のコントロールを含む。これらのボタンを使用して、ユーザは、映像を先に進めたり、後に戻したりすることによってビデオ映像をブラウズする。特定のセクションを見出すためにビデオ映像をブラウズするこのプロセスは、「スクラビング(scrubbing)」と呼ばれる。
生のビデオ映像の1つのビューだけしか有していないことで、映像に含まれる内容を判別するのが困難になる可能性がある。ビデオ全体の一度に1つのビューでは、そのビデオに何が含まれているか、また内容が興味を引くものであるかどうかを判定するのに十分な情報が、ユーザに提供されない。ほとんどのビデオは、少なくとも2時間の長さであり、多数のイベントを含む。映像の単一のビューだけしか与えないソフトウェアを使用して生の映像をスクラビングすることは、極めて退屈である可能性がある。
ユーザは、興味を引くビデオ映像を見出すと、開始のカット及び終了のカットをタイムライン上に置く。この2つのカットの間に、ユーザが保持することを望むビデオ映像が存在する。ビデオ映像上にカットを置くこのプロセスをビデオ映像のその他の部分に関して繰り返すことができる。ビデオをスクラビングしてビデオ映像の中でカットの場所を判定するこの編集プロセスは、退屈で、繰り返しが多く、時間がかかる仕事であり、手作業で行われなければならない。したがって、平均的な消費者には、ビデオを編集するプロセスは、困難で厄介な仕事である。
いくつかの文献に上述のような従来の技術に関連した技術内容が開示されている(例えば、非特許文献1、2参照)。
J.Boreczky, A.Girgensohn, G.Golovchinsky, and S.Uchihashi著「An Interactive Comic Book Presentation for Exploring Video」CHI2000、2000年、pp.185-192 J.Boreczky and L.D.Wilcox著「A Hidden Markov Model Framework for Video Segmentation Using Audio and Image Feature」Proceedings of the international Conference on Acoustics, Speech and Signal Processign(Seattle,WA)、Vol.6、1998年、pp.3741-3744
上述の従来技術には、ビデオの複数のビューを表示し、ビデオに関する多くの情報を提供し、その複数のビュー及び対応する情報を、有益でコンパクトでユーザにとって簡単な形で、ユーザに提示するユーザインタフェースの必要性が存在するという点において、未だ改善の余地が残っている。
本発明は、このような課題に鑑みてなされたもので、その目的とするところは、ビデオに関する情報を迅速かつ容易に判別することができる、ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェースを提供することにある。
本明細書で開示する発明は、単一のイベントまたは単一のテーマ(ビデオクリップレット、または「クリップレット」と呼ばれる)をそれぞれが表わす、ビデオの短いセグメントを表示するためのコンピュータユーザインタフェースシステム及び方法を含む。クリップレットは、編集ポイントを自動的に判定し、その編集ポイントを使用してソースビデオからクリップレットを抽出することによって、より長い単位のビデオ(つまりソースビデオ)から生成される。コンピュータユーザインタフェースは、クリップレット、ならびにクリップレットのそれぞれの情報及びプロパティを表示する。このようにして、ユーザは、ビデオに含まれる主題や興味を引く部分などのソースビデオに関する情報を迅速かつ容易に判別することができる。
本発明のクリップレットユーザインタフェースのシステム及び方法は、クリップレットを使用してより大きいソースビデオをより小さいセグメントに分割することによって従来の編集ソフトウェアの問題を克服する。クリップレットユーザインタフェースは、ソースビデオの1つまたは2つのビューを表示するのではなく、複数のクリップレットをユーザに提示することによってソースビデオの多数のビューを表示する。さらに、各クリップレットに関する情報がユーザに表示されて、クリップレットを使用して編集を行うことがユーザにとってさらに容易になる。クリップレットは、ソースビデオから前もってカットされ、ユーザが、ソースビデオのスクラビングを手作業で行って良好な編集ポイントを判定する必要性がなくなる。さらに、ソースビデオの編集は、長く退屈に続くビデオではなく、クリップレットを使用して行われる。
一般に、クリップレットユーザインタフェースのシステム及び方法により、2次元構成で複数のクリップレットがユーザに提供される。複数のクリップレットが、それぞれ、独自のウインドウの中で表示される。2次元構成とは、複数のクリップレットのそれぞれが、単一の独立したエンティティであり、クリップレットの積重ねまたはスタックが存在しないことを意味する。クリップレットを表示することに加え、クリップレットプロパティも表示されて、対応するクリップレットに関する情報がユーザに提供される。クリップレットプロパティは、クリップレットの内容に関する情報を提供するクリップレット興味度評価(cliplet interest rating)を含む。クリップレット興味度評価は、興味度バー(interest bar)で表現することができる。興味度バーが高いほど、対応する領域の中の内容が高い興味を引くものである。例えば、オーディオ興味度バーがあるクリップレットに関して高い場合、このことは、そのクリップレットが興味を引くオーディオ内容を有することを意味する。スクロール機能、ドラッグアンドドロップ(drag and drop)機能、及びマージ機能などの機能性が、クリップレットのそれぞれに関して提供される。ポインティングデバイスを使用して、ユーザは、クリップレットを独自のウインドウの中で再生することができる。
本発明は、本発明の態様を例示する以下の説明及び添付の図面を参照することによってさらに理解することができる。その他の特徴及び利点は、本発明の原理を例として示す添付の図面と併せて考慮される本発明の以下の詳細な説明から明白となる。
以下に説明するように本発明によれば、ビデオに関する情報を迅速かつ容易に判別することができる。
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、各図面において同様の機能を有する箇所には同一の符号を付している。
本発明の以下の説明では、説明の一部を成す添付の図面を参照し、図面では、例として、本発明を実施することができる特定の例を示している。本発明の範囲を逸脱することなく、その他の実施形態を利用することも可能であり、また、構造上の変更を加えることも可能であることを理解されたい。
I.ビデオクリップレットの概説
本明細書で説明するコンピュータユーザインタフェースは、より長いデジタルソースビデオから生成された短いビデオセグメント(つまりビデオ「クリップレット」)を表示するためのシステム及び方法を含む。さらに、クリップレットに関する情報及びプロパティも表示される。一般に、ビデオクリップレット(または「クリップレット」)は、より大きいソースビデオを小さくカットまたはスライスすることによって生成される極短いデジタルビデオセグメントである。クリップレットの長さは、ユーザによって手作業で判定された、またはクリップレット生成のシステム及び方法によって自動的に判定された上限値である。通常、ビデオクリップレットの長さは、およそ7秒間から10秒間までの範囲にあるが、5秒間またはそれより短いことも、30秒間といった長いものであることも可能である。
クリップレット生成の目的は、ショット境界と従来考えられているものを2次的にしか考慮せずに、意味のある短いビデオセグメントを抽出することである。したがって、クリップレットは、(サウンドバイト(bites)を検出しようと試みるなどの)オーディオキュー(cue)、または(ズームインされた接写を検出しようと試みるなどの)ビデオキューなどの他の従来のものではないキューに基づくことが可能である。さらに、クリップレットは、時間が重なり合うことが可能である。これは、2つの異なるクリップレットが同一のビデオフレームを含む可能性があることを意味する。クリップレットは、必ずしもソースビデオ全体のすべてをカバーしなくてもよい。言い換えれば、ソースビデオの退屈でつまらないセクションを全部、除外することができる。以上のすべてにより、各クリップレットを意味的に重要なビデオ部分にするという目的が達せられる。
以下の特徴により、クリップレットは、他のビデオセグメントから区別される。第1に、生成に先立ち、長さ制約(duration constraint)(すなわち、クリップレットの長さの制約)が判定される。上限値により、クリップレットの最大長が設定される。ただし、この上限値は、「ハードな」限界ではなく、以下に説明するとおり、その他の制約が優先される場合、違反されることが可能である。第2に、クリップレットは、必ずしも独立したビデオでなくてもよい。クリップレットは、クリップレットを抽出するためのより大きいソースビデオをどこでカットするかを表わす1対の開始ポイント及び停止ポイント(つまり、編集ポイント)であることが可能である。第3に、クリップレットは、閲覧者(viewer)が、単一の短いイベント(サウンドバイトなどの)であると見なす可能性があるものを含む意味的に重要なビデオ部分である。クリップレットは、そのクリップレットをソースビデオから際立たせる単一のテーマまたは共通のスレッドを有する。
より長いソースビデオと比べてクリップレットの長さが比較的短いことにより、クリップレットを、デジタルビデオというよりもデジタル写真のように操作することが可能になる。ビデオクリップレットにより、操作し、記憶することが厄介なより大きいビデオを脱却することが可能になる。クリップレットは、長く退屈なビデオではなく、短く、刺激的なビデオセグメントに焦点を当てる。消費者は、いくつかの興味を引く場面だけを含む数時間の長いビデオを観ることで退屈することになりがちである。ビデオのつまらないセクションを飛ばして早送りするために早送りボタンを常に使用する代わりに、クリップレットにより、ユーザは、ビデオの興味を引く場面、つまり「核心」を抽出することができるようになる。
また、クリップレットは、大きいビデオより、操作し、記憶することが容易である。ビデオのサイズが大きいことにより、ビデオをアップロードして共有することに対するユーザの抵抗が、ソースビデオからクリップレットを生成することによって最小限に抑えられる。クリップレットにより、数メガバイトまたは数ギガバイトのビデオが回避される。定義からして、クリップレットは、大きいビデオより小さい。したがって、メモリ、ストーレッジ、処理能力、帯域幅、または人間の注意が限られているために大きいビデオに対しては実際的でない操作を、クリップレットに対しては容易に行うことができる。クリップレットは、サイズがより小さいため、大きいビデオと比べて、アップロード時間がより短く、帯域幅に対する要求がより少なく、より小さいディスクスペースしか必要とせず、また一般に、管理するのがより容易である。
デジタル写真に適用されるほとんどの操作は、ビデオクリップレットに関してもそれに類するものがある。ビデオクリップレットは、サイズが小さいため、タイムスタンプ及び総ピクセル統計で編成されたサムネイルを使用してブラウズすること、ドキュメントにカットアンドペースト(cut and paste)を行うこと、及び電子メールを介して容易に送信することが可能である。理論上、以上の操作のほとんどが、ビデオに関して既に存在しているが、実際には、通常のホームビデオが余りにも大きく、余りにも長く、余りにも退屈であるため、消費者がその機能を使用することはめったにない。大きいビデオを処理することができないイメージ処理アルゴリズム及びコンピュータビジョンアルゴリズムをクリップレットに対して容易に使用することができる。イメージ安定化、色補正、パノラマ生成、3次元深度理解(three−dimensional depth understanding)、顔認識(face recognition)、個人追跡(person tracking)などの技術をクリップレットに対してリアルタイムで使用することができる。
図1は、より長い単位のビデオ(ソースビデオ)及びビデオフレームとの関係でビデオクリップレットの概念を示す図である。長さ、つまり時間Tのデジタルソースビデオ100が、複数のビデオフレーム105を含む。図1に示すとおり、デジタルソースビデオ100は、複数のクリップレットC(1)ないしC(N)に分割される。これらのクリップレットは、様々な長さであることが可能である。
以上に説明したとおり、クリップレットC(1)ないしC(N)のそれぞれは、デジタルソースビデオ100の意味的に重要な部分である。一部のケースでは、2つまたはそれより多くのクリップレットの時間が重なり合い、したがって、同一のビデオフレームを共有することが可能である。図1を参照すると、クリップレットC(4)が、長さT(4)を有し、クリップレットC(5)が、長さT(5)を有する。T(4)はT(5)より短いものの、クリップレットC(4)とC(5)は時間が重なり合っている。この時間の重なり合いは、クリップレットC(4)とC(5)が、符号110で示されるビデオフレームを共有していることに見ることができる。
II.一般的な概要
本発明のコンピュータユーザインタフェースのシステム及び方法は、クリップレット、ならびにクリップレットに関する情報を効率的で系統立った仕方で表示する。通常、コンピュータユーザインタフェースのシステム及び方法は、ビデオクリップレットを生成し、提示するためのクリップレット生成システムの一部である。図2は、コンピュータユーザインタフェースのシステム及び方法を組み込んだ例示的なクリップレット生成システム190の概要を示すブロック図である。一般に、図2に示すとおり、システム190は、デジタルビデオデータ獲得構成要素、ビデオクリップレット生成構成要素、及びコンピュータユーザインタフェースのシステム及び方法を含むクリップレット提示構成要素を含む。
より具体的には、デジタルビデオデータ獲得は、ビデオクリップレットジェネレータ200がどのようにデジタルビデオデータ205を獲得するかに関する。デジタルビデオデータ205は、大きいソースビデオ210に含まれる。最初、カメラ215を使用して、ある場面(図示せず)のイメージがキャプチャされる。カメラ215は、デジタルビデオカメラまたはアナログビデオカメラであること、あるいはビデオデータをキャプチャすることができるデジタルカメラであることが可能である。カメラ215がデジタルカメラである場合、キャプチャされたビデオデータは、記憶媒体220の中に記憶されるか、またはビデオクリップレットジェネレータ200に直接に送られる。カメラ215がアナログカメラである場合、キャプチャされたビデオデータは、アナログ−デジタルコンバータ230を使用してデジタル形式に変換しなければならない。前の場合と同じく、この変換されたデータは、記憶媒体に記憶すること、またはビデオクリップレットジェネレータ200に直接に送ることができる。
デジタルビデオデータ205を含む大きいソースビデオ210は、獲得されると、ビデオクリップレットジェネレータ200に送られる。通常、大きいソースビデオ210は、アマチュアのビデオカメラ撮影者によってキャプチャされたおよそ2時間の長さのホームビデオである。コンピューティングデバイス240上に配置されたビデオクリップレットジェネレータ200を使用して、大きいソースビデオ210から小さいビデオセグメント、つまりクリップレットが抽出される。クリップレットがビデオクリップレットジェネレータ200によって生成された後、次に、ビデオクリップレットユーザインタフェース260を含むモニタ(またはその他の表示デバイス)250を使用して、各クリップレット、ならびにそのクリップレットに関する情報及びプロパティがユーザ(図示せず)に提示される。提示及び表示は、ビデオクリップレットユーザインタフェース260(コンピュータユーザインタフェースとも呼ばれる)を使用して行われる。クリップレットユーザインタフェース260により、ユーザは、クリップレットに関する不可欠な情報を獲得し、クリップレットを操作し、管理し、クリップレットと対話することができるようになる。
III.例示的な動作環境
本発明のクリップレットユーザインタフェース260は、コンピューティング環境において動作するように設計されている。以下の解説は、本発明を実施することができる適切なコンピューティング環境の簡単な一般的説明を提供することを意図している。
図3は、本発明を実施するのに適したコンピューティング装置を示すブロック図である。必須ではないが、本発明は、コンピュータによって実行される、プログラムモジュールなどのコンピュータ実行可能命令の一般的な状況で説明する。一般に、プログラムモジュールには、特定のタスクを行う、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造等が含まれる。さらに、本発明は、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドデバイス、マルチプロセッサシステム、マイクロプロセッサベースの家庭用電化製品またはプログラマブル家庭用電化製品、ネットワークPC(personal computer)、ミニコンピュータ、メインフレームコンピュータ等を含め、様々なコンピュータシステム構成で実施してもよいことが、当業者には理解されよう。また、本発明は、タスクが、通信網を介してリンクされたリモートの処理デバイスによって行われる分散コンピューティング環境において実施してもよい。分散コンピューティング環境では、プログラムモジュールは、メモリ記憶媒体を含め、ローカルのコンピュータ記憶媒体とリモートのコンピュータ記憶媒体の上に配置されていることが可能である。
図3を参照すると、本発明を実施するための例示的なシステムが、図2に示された汎用コンピューティングデバイス240を含んでいる。図3は、コンピューティングデバイス240の詳細を示している。詳細には、コンピューティングデバイス240は、プロセッサ302、システムメモリ304、ならびにシステムメモリ304からプロセッサ302までを含む様々なシステム構成要素を結合するシステムバス306を含む。システムバス306は、様々なバスアーキテクチャの任意のものを使用するメモリバスまたはメモリコントローラ、周辺バス、及びローカルバスを含むいくつかのタイプのバス構造の任意のものであることが可能である。システムメモリは、読取り専用メモリ(ROM)310及びランダムアクセスメモリ(RAM)312を含む。始動中などに、コンピューティングデバイス240内部の要素間で情報を転送するのを助ける基本ルーチンを含む基本入力/出力システム(BIOS)314が、ROM310の中に記憶されている。コンピューティングデバイス240は、図示していないハードディスクに対して読取り及び書込みを行うためのハードディスクドライブ316、リムーバル磁気ディスク320に対して読取り及び書込みを行うための磁気ディスクドライブ318、及びCD(compact disc [disk])−ROMまたはその他の光媒体などのリムーバル光ディスク324に対して読取り及び書込みを行うための光ディスクドライブ322をさらに含む。ハードディスクドライブ316、磁気ディスクドライブ328、及び光ディスクドライブ322は、それぞれ、ハードディスクドライブインタフェース326、磁気ディスクドライブインタフェース328、及び光ディスクドライブインタフェース330でシステムバス306に接続される。以上のドライブ、及び関連するコンピュータ可読媒体により、コンピュータ可読命令、データ構造、プログラムモジュール、及びその他のデータの不揮発性のストーレッジが、コンピューティングデバイス240に提供される。
本明細書で説明する例示的な環境は、ハードディスク、リムーバル磁気ディスク320、及びリムーバル光ディスク324を使用するが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ベルヌーイカートリッジ、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)などの、コンピュータがアクセスすることができるデータを記憶することができる他のタイプのコンピュータ可読媒体も、例示的な動作環境において使用できることが、当業者には理解されよう。
オペレーティングシステム332a、332b、1つまたは複数のアプリケーションプログラム334a、334b、334c、その他のプログラムモジュール336a、336b(ビデオクリップレットジェネレータ200などの)、及びプログラムデータ338a、338bを含め、いくつかのプログラムモジュールをハードディスク、磁気ディスク320、光ディスク324、ROM310またはRAM312に記憶することができる。ユーザ(図示せず)は、キーボード340やポインティングデバイス342(マウスなどの)などの入力デバイスを介して、コマンド及び情報をコンピューティングデバイス240に入力することができる。さらに、カメラ343(ビデオカメラなどの)、ならびに、例えば、マイクロホン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナ等を含むその他のデバイス(図示せず)が、コンピューティングデバイス240に接続されていることが可能である。以上の他の入力デバイスは、しばしば、システムバス306に結合されたシリアルポートインタフェース344を介してプロセッサ302に接続されるが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(universal serial bus)(USB)などの他のインタフェースで接続してもよい。また、表示デバイス250も、ビデオアダプタ348などのインタフェースを介してシステムバス306に接続される。表示デバイス250に加えて、パーソナルコンピュータなどのコンピューティングデバイスは、通常、スピーカやプリンタなどの他の周辺出力デバイス(図示せず)も含む。
コンピューティングデバイス240は、リモートコンピュータ350のような1つまたは複数のリモートコンピュータに対する論理接続を使用するネットワーク化された環境において動作することが可能である。リモートコンピュータ350は、別のパーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイス、またはその他の一般的なネットワークノードであることが可能であり、通常、コンピューティングデバイス240に関連して前述した要素及び特徴の多く、またはすべてを含む。ただし、メモリ記憶デバイス352だけを図3に示している。図3に描いた論理接続は、ローカルエリアネットワーク(LAN)354及びワイドエリアネットワーク(WAN)356を含む。そのようなネットワーキング環境は、オフィス、企業全体のコンピュータ網、イントラネット、及びインターネットにおいて一般的である。
LANネットワーキング環境において使用されるとき、コンピューティングデバイス240は、ネットワークインタフェースまたはネットワークアダプタ358を介してローカルネットワーク354に接続される。WANネットワーキング環境において使用されるとき、コンピューティングデバイス240は、通常、インターネットなどのワイドネットワーク356を介して通信を確立するためのモデム360またはその他の手段を含む。内部にあることも、外部にあることも可能なモデム360は、シリアルポートインタフェース344を介してシステムバス306に接続される。ネットワーク化された環境では、コンピューティングデバイス240に関して描いたプログラムモジュール、またはプログラムモジュールの部分をリモートのメモリ記憶デバイス352の中に記憶することができる。図示したネットワーク接続は、例示的なものであり、コンピュータ間で通信リンクを確立する他の手段も使用できることを理解されたい。
IV.ビデオクリップレットユーザインタフェース
本発明のクリップレットユーザインタフェースのシステム及び方法により、ビデオの1つまたは複数のビューだけを有する従来のビデオ編集ソフトウェアインタフェースと比べて、ビデオに関するはるかに多くの情報がユーザに提供される。クリップレットユーザインタフェースは、ソースビデオから生成された複数のクリップレットをユーザに表示する。このクリップレット提示により、1つまたは複数のビューが提供できるものと比べて、ビデオに関するはるかに多くの情報が提供される。クリップレットユーザインタフェースを使用すると、ユーザは、一見しただけで、複数のクリップレットから、ソースビデオの内容を判別することができる。さらに、クリップレットを使用してビデオを記述することは、ユーザにとってはるかに面白いものである。これは、ユーザに提示されるクリップレットが、ビデオの最も興味を引く部分を表わすためである。また、複数のクリップレットをユーザに提示することにより、ビデオのスクラビングを手作業で行う必要性がなくなる。クリップレットは、自動的に判定された編集ポイントを使用してソースビデオから既にカットされており、ユーザが、ビデオのスクラビングを行って編集ポイントを判定する必要性は存在しない。
また、クリップレットユーザインタフェースにより、各クリップレットに関する情報がユーザに提供される。例えば、クリップレット興味度評価及び使用統計などのクリップレットプロパティが、クリップレットユーザインタフェースを介してコンパクトで有益な形でユーザに提示されることが可能である。多数のプロパティは、ビデオごとにではなく、クリップレットごとの方が理にかなっている。例えば、「そのクリップレットはどこで撮影されたか」という質問の方が、「そのビデオはどこで撮影されたか」という質問よりも理にかなっている。これは、ビデオが複数の場所からのショットを含むのに対して、クリップレットは、一般に、単一のイベントまたは単一のテーマを含むためである。
図4は、クリップレットユーザインタフェースの一般的な概要を示している。一般に、クリップレットユーザインタフェース260は、表示デバイス250上に表示され、複数のクリップレット、及び各クリップレットに関する情報を含む。詳細には、クリップレットユーザインタフェース260は、複数のクリップレット410を2次元構成で表示するためのクリップレット提示領域400を含む。複数のクリップレット410のそれぞれは、単一の独立したエンティティとして表示される。これは、クリップレット提示領域400内でクリップレットのスタッキングまたは積重ねが存在しないことを意味する。さらに、この複数のクリップレットは、クリップレットプロパティ(クリップレット興味度評価を含む)に基づく視覚的に別々のグループに、または複数のクリップレットに用意された任意の他の形態のメタデータに構成することができる。この視覚的に別々のグループは、視覚的に別々の行、及び視覚的に別々の列を含む。
複数のクリップレット410のそれぞれは、小さいキーフレームウインドウ420内に含まれる。キーフレームウインドウ420は、サムネイルイメージなどの、クリップレットを表わす少なくとも1つのキーフレームを含む。クリップレットプロパティ提示領域430は、キーフレームウインドウ420内に配置されている。この図では、クリップレットプロパティ提示領域430は、キーフレームウインドウ420の底部に配置されて示されている。クリップレットプロパティ提示領域430は、キーフレームウインドウ420内で、またはキーフレームウインドウ420に隣接して任意の場所に配置することが可能であることに留意されたい。クリップレットプロパティ提示領域430は、各クリップレットに関してコンパクトな形で少なくとも1つのクリップレットプロパティを表示するためのものである。クリップレットプロパティの提示は、グラフィックス表現、テキスト表現、または以上2つの組み合わせであることが可能である。
キーフレームウインドウ420内で、またはキーフレームウインドウ420に隣接してクリップレットプロパティを提示することにより、ユーザは、クリップレットに関する重要な情報を迅速かつ効率的に集めることができるようになる。例えば、使用統計、顔検出、パン(pan)/ズーム検出、及びオーディオ評価などのクリップレットプロパティ及び情報をクリップレットプロパティ提示領域430の中で表示して、ソースビデオに含まれる主題、及びクリップレット内容が興味を引くかどうかに関する情報をユーザに提供することができる。
図5は、図4に示したキーフレームウインドウ420の拡大して示す図である。キーフレームウインドウ420内に表示されたキーフレームは、クリップレットを表わし、サムネイルイメージであることが可能である。さらに、クリップレットを複数のキーフレームによって表わすことが可能である。その状況では、クリップレットは、キーフレームウインドウ420の中でいくつかのやり方で表わすことができる。1つのやり方は、クリップレットに関する複数のキーフレームのそれぞれを連続するキーフレームウインドウ、または隣接するキーフレームウインドウの中で示すことである。別のやり方は、ユーザが、入力デバイス(マウスなどの)を使用して複数のキーフレームを循環させることである。例えば、ユーザが、あるクリップレットのキーフレームウインドウの上にマウスポインタを保ち、複数のキーフレームのそれぞれが、そのキーフレームウインドウ内で交替する形で表示される。ユーザは、所望のキーフレームを見出したとき、マウスをクリックし、そのキーフレームが、キーフレームウインドウ内で表示される。
図5もキーフレームウインドウ420内に配置されたクリップレットプロパティ提示領域430を示している。ただし、この図では、クリップレットプロパティ提示領域430は、キーフレームウインドウ420の右側に配置されている。クリップレットプロパティは、利用可能な任意のクリップレット情報に基づく。クリップレットプロパティは、クリップレットとともに記憶され、クリップレットプロパティ提示領域430内で表示されることが可能である。クリップレットプロパティには、クリップレット興味度評価が含まれる。この評価により、ユーザの興味を引く可能性があるクリップレットの中の内容に関する視覚的なキュー(cue)が提供される。例えば、クリップレットプロパティ提示領域430内に表示されたクリップレット興味度評価が、クリップレットがほとんどすべてのビデオフレームの中で顔を含むことをユーザに示すことが可能である。ユーザが、顔を有するクリップレットに興味がある場合、この興味度評価は、クリップレットが興味を引くものであることをユーザに示す。
クリップレット興味度評価は、クリップレットに特有である。興味度評価は、長いビデオに関しては意味を成さない。これは、長いビデオが、複数のイベントからの2時間、またはそれを超える時間のビデオを含む可能性があるためである。長いビデオに含まれる複数のイベントに単一の興味度評価を割り当てることが、不可能ではないとしても、困難になる。一方、クリップレットは、単一のテーマ、または単一のイベントを含むビデオの意味的に重要な部分である。したがって、クリップレットに興味度評価を割り当てることは、自然であり、理にかなっている。
図6は、クリップレットユーザインタフェース260の別の実施形態を示している。この実施形態では、クリップレットユーザインタフェース260は、クリップレット提示領域400、ビデオウインドウ600、及び凡例(legend)領域610を含む追加の領域を含む。クリップレット提示領域400は、2次元構成で、単一の独立したエンティティとして表示される複数のクリップレット410を含む。複数のクリップレット410のそれぞれは、小さいキーフレームウインドウ420内に含まれる。この実施形態では、クリップレットプロパティ提示領域430は、キーフレームウインドウ420内で左側に配置されている。ビデオウインドウ600は、一般にキーフレームウインドウ420より大きいウインドウであり、ユーザが、ウインドウ600内で所望のクリップレットを再生することを可能にする。凡例領域610は、クリップレットプロパティ提示領域430において使用される記号の意味に関する情報を含む。
ソースビデオから生成されるクリップレットの数は、数百である可能性がある。各クリップレットをクリップレット提示領域400の中で表示することにより、各キーフレームウインドウ420が過度に小さくなる。解決策は、クリップレット提示領域400においてスクロール機能を提供して、ユーザが、クリップレットのそれぞれをスクロールすることができるようにすることである。図6に示すとおり、水平スクロールバー620及び垂直スクロールバー630が、クリップレットをスクロールするために提供される。水平スクロールバー620により、ユーザは、複数のクリップレット410のそれぞれをクリップレット提示領域400の水平方向でスクロールすることができるようになる。同様に、垂直スクロールバー630により、ユーザは、複数のクリップレット410のそれぞれを垂直方向でスクロールすることができるようになる。
クリップレットユーザインタフェース260により、ユーザが、任意のクリップレットのプレビューを独自のキーフレームウインドウ420の中で行うことを可能にする定位置プレビュー(in−place preview)機能が提供される。言い換えれば、ユーザは、入力デバイスを使用して、クリップレットをそのキーフレームが占めているのと同じスペースで見ることができる。したがって、ユーザによって指示が行われたとき、キーフレームは、キーフレームウインドウ420内で再生されるクリップレットで置き換えられる。クリップレットの再生の終了時に、キーフレームがキーフレームウインドウ420に戻る。
また、クリップレットユーザインタフェース260は、ドラッグアンドドロップ(drag and drop)機能も提供して、ビデオクリップレットの少なくとも1つを処理のためにアプリケーションに入れることができるようにする。このドラッグアンドドロップ機能により、ユーザが、キーフレームウインドウ420の中にカーソル640を置き、所望のクリップレットをドラッグアンドドロップしてアプリケーションに入れることができるようになる。例えば、ユーザが、あるクリップレットをドラッグアンドドロップして、クリップレットのカットアンドペーストを行うことを可能にするオーサリングアプリケーションに入れることを望む可能性がある。クリップレットがソースビデオからカットされているため、ユーザが編集ポイントを判定する必要はない。
クリップレットの開始ポイント及び終了ポイント(つまり編集ポイント)は既に判定されているが、ユーザが、そのポイントに満足でない可能性がある。クリップレットユーザインタフェースにより、ユーザは、クリップレットをそれと時間的に隣接するクリップレットとマージすることにより、クリップレットを延長することができる。これは、入力デバイスを使用してビデオクリップレットの少なくとも2つをマージして、第1のクリップレットが第2のクリップレットにマージされて新しい第3のクリップレットが作成されるようにすることによって達せられる。第3のクリップレットは、組み合わされた第1と第2のクリップレットの期間である。これにより、ユーザは、クリップレットを、そのクリップレットと時間的に隣接する任意のクリップレットと組み合わせて延長することができるようになるが、何らかのスクラビングが必要となる。
ユーザが、それでもクリップレットの編集ポイントに不満である場合、クリップレットユーザインタフェース260は、ユーザが、開始ポイント、または終了ポイントを延ばすこと、または縮めることを可能にする機能を含んでいる。スクラビングを回避するため、ユーザは、システムが、サブショット境界(後述する)に基づいて1つまたは複数の新しい編集ポイントを自動的に見出すようにさせるオプションを有する。入力デバイスを介して、ユーザは、クリップレットユーザインタフェースが、以前に判定されたサブショット境界に基づいて他の開始ポイント及び終了ポイントの可能性を提示することを要求することができる。
V.実用例
図7は、図6に示したクリップレットユーザインタフェース260の実用例である。これは、クリップレットユーザインタフェース260を実施することができる1つのやり方に過ぎないことに留意されたい。図7は、クリップレットユーザインタフェース260の例であるサムネイルユーザインタフェース700を含む。サムネイルユーザインタフェース700は、#0から#33まで番号が付けられた34のクリップレットを表示するクリップレット領域710を含む。クリップレットのそれぞれが、サムネイルインドウ715内に表示され、各クリップレットは、サムネイルインドウ715内のサムネイルイメージによって表わされる。サムネイルインドウ715に隣接して、以下に説明するとおり興味度評価情報を表示するクリップレット興味度評価領域718が存在する。
クリップレットビデオウインドウ720が、所望のクリップレットを再生するのに使用される。「停止されるまで再生(Play Until Stopped)」機能725がユーザによって選択されて、ウインドウ720に示されたポイント(通常、クリップレットを表わすキーフレーム又はサムネイル)からそのクリップレットの終りまで再生を行うようにクリップレットビデオウインドウに命令することが可能である。「停止」機能727がユーザによって選択されて、クリップレットがウインドウ720の中で再生されるのを停止することが可能である。キー領域729を使用して、ユーザがクリップレット興味度評価領域718内に提示されている情報を理解するのを助ける記号及び情報を表示する。
興味度評価バー
クリップレット興味度評価領域718は、対応するクリップレットに関する情報をユーザに表示する。この実用例では、クリップレット興味度評価は、興味度バーを使用してグラフィックスでユーザに表示される。本発明の他の態様は、クリップレット興味度評価に関する情報をユーザに表示して伝える任意の他のタイプのインディケータを使用することを含む。
図7に示すとおり、興味度バーは、使用バー730、ビデオ(またはズーム)バー732、オーディオバー735、及びビデオ(または顔)バー740として左から右に配置される。バーが高いほど、プロパティが存在している度合いが高い。例えば、ズームバー732(ズームに対応する)が高いほど、クリップレットでズームインが行われている度合いが高い。同様に、オーディオバー735が高いほど、その特定のクリップレットに関するオーディオは、興味を引く度合いが高い。したがって、クリップレットの中で人々が興奮し、叫んでいる場合、より興味を引くオーディオを示すように、そのクリップレットに関するオーディオバー735がより高い。ビデオバーまたは顔バー740が高いほど、1つまたは複数の顔がそのクリップレットの中に存在する度合いが高い。例えば、図7に示すとおり、クリップレット#24の場合、その他のバーに比べてクリップレットオーディオバー745が極めて高い。これは、ハワイモンクアザラシが撮影されており、そのクリップレットの背景に興奮した叫び声及び歓声が存在するからである。興味度評価は、ユーザに情報を伝える便利で効果的な手立てである。例えば、ビデオを開き、モンクアザラシを含むビデオの中の場所を探索する必要なしに、ユーザは、クリップレット#24の中に興味を引くオーディオ内容が存在するという感覚を即時に得ることができる。
興味度評価バーは、クリップレットのプロパティ及び情報を表示する1つの可能なやり方に過ぎないことに留意されたい。クリップレットプロパティは、任意のタイプのグラフィックスのインディケータ、またはテキストのインディケータで表わすことができる。通常、インディケータは、あらゆる他のクリップレットプロパティとの関係でそのクリップレットプロパティを示す。
使用統計
クリップレット統計には、クリップレット使用の頻度を追跡してユーザに表示する使用統計が含まれる。このクリップレットプロパティは、クリップレット生成中には計算されない。そうではなく、使用統計は、ユーザがクリップレットユーザインタフェースを介してクリップレットと対話するのにつれて計算される。
図7に示すとおり、使用バー730は、どれだけ頻繁にクリップレットにアクセスが行われたかを示す。使用バー730は、クリップレットプロパティ提示領域430内で表示される。使用バーがより低いことは、クリップレットに頻繁にアクセスが行われなかったことを意味する。使用バーがより高いことは、クリップレットに頻繁にアクセスが行われたことを示す。
ユーザがクリップレットを閲覧するたびに毎回、そのクリップレットに関する使用バーが増加する。同様に、ユーザが誰かにクリップレットを電子メールで送信するたびに毎回、そのクリップレットに関する使用バーが増加する。使用バー730を介して、ユーザは、どのクリップレットがその特定のユーザ自身の興味を引くかについて視覚的な予見を得ることができる。使用統計は、好みのクリップレットを指定するようにユーザに明示的に求める必要性を緩和するタイプのクリップレット興味度評価である。また、数名のユーザに合わせてカスタマイズされた複数の使用バーが存在することも可能である。これにより、すべてのユーザが、どのクリップレットが自らの興味を引き、どのクリップレットを他のユーザが興味深いと感じたかを知ることができる。時間の経過とともに、ユーザ統計は、どのクリップレットがユーザの興味を引くかを判別することがより正確になる。
使用統計は、他の興味度評価などの他のクリップレットプロパティと相関させることができる。この相関を使用して、使用評価、及び何がユーザの興味を引くかに基づき、時間の経過とともに興味度評価及びクリップレット評価プロセスを調整し、慣らすことができる。例として、ユーザが、興味を引くオーディオを多く有するクリップレットを一貫して閲覧している場合、オーディオ興味度評価がそのユーザに重要なことを推論することができる。したがって、そのユーザが、高いオーディオ興味度評価を有するクリップレットを選好し、興味を持っていると判定することができる。使用統計を興味度評価に相関させることにより、時間の経過とともに、クリップレットユーザインタフェースは、ユーザの選好を「学習」する。この知識は、例えば、ハイライトビデオを作成する際、またはどのクリップレットをユーザに提示するかを判定する際に使用することができる。
クリップレット生成及び興味度評価のシステムの詳細
この実用例では、クリップレットユーザインタフェース260は、ビデオクリップレット生成システム190の一部として実施される。このシステム190は、クリップレット、及びその他のクリップレット情報を自動的に生成するためのビデオクリップレットジェネレータ200を含む。図8は、図2に示したビデオクリップレットジェネレータ200の詳細を示す詳細ブロック図である。概して、ビデオクリップレットジェネレータ200は、デジタルビデオデータ205を含む大きいソース210を入力し、ビデオクリップレット結果800の形態でクリップレット情報を出力する。ビデオクリップレット結果は、クリップレットユーザインタフェース260を使用してユーザに提示することができるクリップレットに関連する様々な情報を含む。
ビデオクリップレットジェネレータ200は、編集ポイントを判定する次の少なくとも2つのモジュールを含む。すなわち、(1)サブショット境界モジュール810(例は、ショット境界モジュール815である)、及び(2)制約適用モジュール820である。以上のモジュール810、815、820のそれぞれに関する出力が、編集ポイント830である。編集ポイント830は、クリップレットが抽出されるべき大きいソースビデオ210の中のカットポイント、またはカット場所である。モジュール810、815、820のそれぞれを単独で、または任意の組み合わせで使用して編集ポイント830を判定することができる。
サブショット境界モジュール810は、ソースビデオ210内でサブショットを見出すことによって編集ポイント830を判定する。サブショットは、特定のイベント、または特定のテーマを規定する意味境界として規定される。サブショット境界は、必ずしもショット境界(以下を参照)ではないが、ショット境界であることが可能である。例えば、ある人がビデオの中で話している場合、文の間の休止が、ショット境界ではなくても、サブショット境界として規定するのに好適な場所である可能性がある。サブショット境界モジュール810は、単一ショット内であっても、イベントまたはテーマを意味的に分離することができるソースビデオ210の中の場所を探す。
ショット境界モジュール815は、ソースビデオ210を処理してショット境界を見出すことによって編集ポイント830を判定する。ショット境界は、特定のクリップレット生成システムによって検出されることが可能なサブショット境界のすべてのサブセットを構成する。ショット境界は、カメラが「オン」または「オフ」にされたソースビデオ210の中の場所として規定される。ソースビデオ210内のカメラ「オン」の場所とカメラ「オフ」の場所の間の部分が、ショットとして規定される。
制約適用モジュール820は、クリップレット時間制約を使用して編集ポイント830を判定する。クリップレット時間制約は、クリップレットの最小時間及び最大時間を示すことが可能である。通常、クリップレット時間制約は、およそ5秒間から10秒間の範囲にあるが、他の時間を使用してもよい。クリップレット時間制約は、「ソフトな」制約であることが可能であり、これは、他の制約、または編集ポイント指示が使用された場合、クリップレット時間制約が譲り、クリップレットの長さが、任意に長く、または短くされるのを許すことを意味する。
制約適用モジュール820は、大きいソースビデオ210を取り、サブショット境界が検出されたポイントでクリップレットをカットしようと試みながら、クリップレット時間制約の値に長さが準拠するクリップレットにソースビデオ210を分割する。生成されたクリップレットの完全なセットが時間制約を満たすように、適切な方策が取られる。例えば、制約が、どのクリップレットも10秒間を超える長さであってはならないというハードな制約である場合、秒で検出されたサブショットを有する36秒間のビデオが、4つのセグメントのビデオ(8秒間、7秒間、10秒間、及び11秒間の長さ、または10秒間の4つの重なり合うセグメント等の)を生成することが可能である。
編集ポイント830が判定されると、ビデオクリップレット抽出モジュール840が、編集ポイント830に基づいてソースビデオ210からクリップレットをカットする。次に、ビデオクリップレット845が、ビデオクリップレット抽出モジュール840からの出力として送られる。カットするプロセスは、物理的にカットすることを全く必要としない可能性があることに留意されたい。というのは、編集ポイント、及びソースビデオに対するポインタ自体が、クリップレットを表わすからである。
ビデオクリップレットジェネレータ200は、ビデオクリップレット845の中の各クリップレットに関して「興味度評価」を生成するためのビデオクリップレット評価モジュール850も含む。この評価は、フレームごとにではなく、クリップレットごとに計算される。クリップレットごとに評価を割り当てることの利点は、各クリップレットをその評価に基づいてユーザに提示することができることである。クリップレットは、いくつかのフレームを含むので、すべてのクリップレット、及びクリップレットの評価を提示することは、すべてのフレーム、及びフレームの評価を提示することよりもはるかに扱いやすいタスクである。さらに、クリップレットはフレームよりはるかに多くの情報を含むので、最も人気のあるフレームがただ単に提示された場合と比べて、最も人気のあるクリップレットがユーザに提示される方が、ユーザが、ソースビデオ210に関してはるかに多くの情報を獲得することが可能になる。
ビデオクリップレット845に含まれるクリップレットに関するキーフレームを判定するためのキーフレーム特定モジュール860が、ビデオクリップレットジェネレータ200内に含まれる。キーフレームは、基準を使用して、キーフレームが、クリップレットに適用されるその選択された基準を最もよく表わすように特定される。クリップレットごとに任意の数のキーフレームが存在することが可能であるが、少なくとも1つのキーフレームが選好される。
ビデオクリップレットジェネレータ200の出力が、ビデオクリップレット結果800である。この結果800は、ビデオクリップレットジェネレータ200内に含まれるモジュールのそれぞれによって生成されたクリップレット情報、及びクリップレットプロパティを含むことが可能である。図8に示すとおり、ビデオクリップレット結果800は、ビデオクリップレット抽出モジュール840によって獲得された1組のビデオクリップレット870、ならびに制約適用モジュール820、ショット境界モジュール815、及びサブショット境界モジュール810の1つまたは複数によって獲得されたクリップレット編集ポイント875を含むことが可能である。さらに、ビデオクリップレット結果800は、ビデオクリップレット評価モジュール850によって獲得されたビデオクリップレット評価880、及びキーフレーム特定モジュール860によって獲得された1組のキーフレーム885も含むことが可能である。ビデオクリップレット結果800は、以上のクリップレット情報及びクリップレットプロパティの任意の組み合わせを含むことが可能である。
図9は、図2及び8に示したビデオクリップレットジェネレータ200の動作を示す概要流れ図である。一般に、ビデオクリップレットジェネレータ200は、大きいソースビデオ210を処理して提示のためのクリップレット、及びクリップレット情報を生成する。具体的には、ビデオクリップレットジェネレータ200は、まず、処理するためにソースビデオ210を入力する(ボックス900)。次に、編集ポイント830が、サブショット境界を使用し、また場合により、以下に詳述する技術の1つまたは複数を使用して自動的に判定される(ボックス910)。編集ポイント830を使用して、クリップレットがソースビデオ210から抽出される(ボックス920)。最後に、クリップレット結果800が、例えば、操作のためにユーザに提示される。
サブショット境界モジュール
図10は、図8に示したサブショット境界モジュール810の動作の詳細を示す詳細流れ図である。一般に、サブショット境界モジュール810は、サブショット境界を使用して編集ポイント830を規定する。サブショット境界検出方法を使用して、ビデオをカットし、クリップレットを生成するのに都合のよいポイントを提供するソースビデオ210の部分に対応する編集ポイント830を見出す。
まず、検出されるべきタイプのサブショット境界を規定する(ボックス1010)。サブショット境界は、意味的に理にかなった任意のタイプの基準を使用して規定することができる。例えば、サブショット境界のタイプには、次のものが含まれる。従来のショット境界は、あるタイプのサブショット境界である。発言間の任意の時点が、サブショット境界となることが可能である。パンが行われることをサブショット境界基準として使用して、パンの始め、途中、または終り(ビデオの中の安定したポイントではなく)がサブショット境界として使用されるようにすることができる。同様に、ズームをサブショット境界基準として使用して、ズームの直後のポイントがサブショット境界として使用されるようにすることができる。ズーム基準を使用することは、ビデオカメラ撮影者が、通常、興味を引く主題またはイベントにズームインするという知識に基づいている。場面クラスタ化をサブショット境界基準として使用して、互いに似通った様々な場面が一緒にクラスタ化されて、同様な場面が同じサブショットに属するようにすることができる。さらに、タイムスタンプベースのショット検出、ビデオベースのショット検出、オーディオベースのショット検出、及びオーディオ−ビジュアルベースのショット検出をサブショット境界検出のための基準として使用することができる。さらに、ソースビデオ210のオーディオ信号部分の中の任意の利用可能な特徴を使用するオーディオ解析を使用して、サブショット境界を規定することができる。このオーディオ特徴には、オーディオスペクトル解析、音声認識、及びオーディオパワー変動分解(audio power variance decomposition)が含まれる。ソースビデオ210のビデオ信号の中の任意の利用可能な特徴を使用するビデオ解析を使用してサブショット境界を規定することができる。このビデオ特徴には、いくつかを挙げると、色ヒストグラム、ウェーブレット分解、光フローパラメータ、フーリエ変換係数、及び顔検出が含まれる。
サブショット境界のタイプが規定されると、サブショット境界が判定される(ブロック1020)。次に、編集ポイント830が、クリップレット時間制約及びサブショット境界に基づいて判定される(ボックス1030)。最後に、編集ポイント830が、サブショット境界モジュール810からの出力として送られる(ボックス1040)。
サブショット境界を視覚的なキューに基づいて見出すことの一例は、隣接するビデオフレームの色ヒストグラム間のバッタチャリヤ(Bhattacharya)距離を計算することである。その距離におけるあるしきい値を超えるピークが、サブショット境界であるものと見なされる。別法は、「ビデオの生成モデル」を使用して、処理されているソースビデオ210をモデル化し、背景が大きく変化したときをサブショット境界と規定することである。さらに、サブショット境界は、ある視覚的な要素がビデオに入った、またはビデオから出たポイントとして規定することも可能である。例えば、ある人が場面に入った、または場面から出たときをサブショット境界と規定することが可能である。オーディオキューに基づいてサブショット境界を見出すことの一例は、決められた時間より長いオーディオパワー信号における谷を見出して沈黙の時点を判定することである。その谷の中点をサブショット境界として規定することができる。どのタイプのデータも参照することなくサブショット境界を見出すことの一例は、毎N秒間にサブショット境界を生成することであり、ただし、Nは、クリップレット時間制約などの短い時間であることが可能である。前述した基準の任意の1つ、または任意の組み合わせを使用してサブショット境界を規定することができる。
サブショット境界検出によって生成された各編集ポイントは、必ずしもクリップレットを生成するのに使用されないことに留意されたい。これは、サブショット境界が確実な編集ポイントではなく、単にカットするための候補に過ぎず、したがって、もたらされるクリップレット自体が多数のサブショット境界を含む可能性があるためである。例えば、サブショット境界が毎0.5秒に見出され、クリップレット時間制約が7秒間であることが可能である。その場合、余りにも頻繁にサブショット境界が存在するので、すべてのサブショット境界は使用されない。
図11は、特徴ベースの手法を使用するサブショット境界モジュール820の実用例を示す詳細流れ図である。特徴ベースの手法を使用することは、ビデオ210の中の各ビデオフレームが、特徴ベクトルで節約的に(parsimoniously)表現される(ボックス1100)ことを意味する。この実用例では、特徴ベクトルは、低次元の特徴ベクトルである。特徴ベクトルは、元のビデオフレームを全く参照することなしに、サブショット境界検出プロセス全体で使用される。特定の特徴は様々である可能性があるが、この例で使用した特長は、ビデオフレームの各4分の1に関する平均イメージ輝度及び色ヒストグラムである。
サブショット境界検出は、特徴ベクトルのシーケンスに対してスライディングウインドウを送ることによって行われた(ボックス1110)。スライディングウインドウの各位置で、中心の特徴からウインドウ内のすべての他の特徴ベクトルまでの平均距離が計算され(ボックス1120)、記憶された(ボックス1130)。これにより、記憶された平均距離のそれぞれから構成された1次元信号がもたらされた(ボックス1140)。次に、1次元信号の外れ値(outlier)が抽出された(ボックス1150)。1次元信号の外れ値は、サブショット境界に対応している。抽出は、堅牢な統計的外れ値検出手続きを使用して行われた。
図12は、場面クラスタ化を使用するサブショット境界検出の実用例を示す詳細流れ図である。場面クラスタ化は、サブショット境界を規定し、検出するのに使用され、その境界を使用してクリップレットを生成する。場面クラスタ化は、ビデオ、オーディオ、またはビデオとオーディオをともに使用して行うことができる。一般的な考え方は、同様なデータ(ビジュアルデータであるか、オーディオデータであるかに関わらず)をクラスタ化し、同様なデータのクラスタを使用してクラスを定義することである。ソースビデオ210の中の各フレームにクラスが割り当てられ、フレーム間でクラスの変化が存在する場所にサブショット境界が生じる。
場所クラスタ化法は、クラスの知識も、クラス定義の知識もなしに開始される(平均及び分散の点などから)。ランダムな推測が行われ、反復プロセスを介して、ビデオフレームがクラスタ化されて、クラスに揃えられる。最終的に、ビデオフレームは、別々のクラスにグループ化され、クラスに関する平均イメージが明らかになる。
図12に示したとおり、この実用例では、場面クラスタ化法は、ソースビデオ210からビデオフレームをランダムに選択し、そのフレームに基づいてクラスを定義することから開始する(ボックス1200)。次に、各ビデオフレームに関して、そのビデオフレームがクラスのそれぞれに属する確率が判定された(ボックス1210)。次に、観察されたデータが平均され、確率で重みが付けられ、これにより、ビデオフレームが、独立した別個のクラスにマージされた。さらに、不変のパラメータが判定され(ボックス1220)、変形パラメータが定義された(ボックス1230)。変形パラメータは、ビデオフレームを変形して、似通っているが、わずかに変形されたビデオフレームが、それでも同じクラスに属するようにするランダムな変数である。例えば、あるセットのビデオフレームが人物を含み、次のセットのビデオフレームが同一人物のクローズアップを含む場合、ズーム変形パラメータを定義して、両方のセットのビデオフレームが、ズームに関わらず同一のクラスに属するようにすることが可能である。これは、ズーム不変として知られている。
通常、データは、変形不変様式でクラスタ化される。これは、似通った内容を有するが、移動(左、右、上方、または下方などの)、あるいはズームインまたはズームアウトのために異なっているビデオフレームが、同じであると見なされ、同一のクラスの中に一緒にクラスタ化されることを意味している。別法では、いくつかの変形パラメータを不変ではないものとして選択し、場面クラスタ化を定義するのに使用することができる。詳細には、ズームが不変ズームパラメータとして選択された場合、サブショット境界は、ズームが行われるポイントでは規定されない。しかし、ズームが不変変形パラメータではない場合、ソースビデオ210のズームインポイント後などの、ズームが行われるポイントに関してサブショット境界を規定することができる。
次に、確率を使用して似通ったビデオフレームが、クラスのそれぞれにクラスタ化された(ボックス1240)。これは、各回の反復を介して各ビデオフレームが別個の独立したクラスに分離されるように反復プロセスを使用して行われた。最後に、クラスのそれぞれへのビデオフレームのクラスタ化に基づいてサブショット境界が判定された(ボックス1250)。
前述した場面クラスタ化技術は、ピクセルの色または光度だけでなく、ビデオフレームに対するピクセルの空間的グループ化も考慮に入れる。これにより、サブショット境界を判定する際、他の技術に優る利点が場面クラスタ化技術に与えられる。例えば、場面クラスタ化技術は、ピクセル光度技術と比べて光度の変化の影響をはるかに受けにくい。これは、ピクセル光度技術とは異なり、場面クラスタ化技術は、単にビデオフレーム間で光度の変化があるという理由でサブショット境界を見出さないことを意味する。さらに、色は弱いキューであるため、場面クラスタ化技術の方が、ピクセル色技術よりも信頼が置ける。
ショット境界モジュール
図13は、図8に示したショット境界モジュール815の動作の詳細を示す詳細流れ図である。ショット境界モジュールは、サブショット境界モジュールの例であるか、または通常、サブショット境界モジュールの多数の構成要素の1つである。一般に、ショット境界モジュール815は、ビデオタイムスタンプの不連続性を使用して、または隣接するフレーム間におけるビデオイメージの急な不連続性に編集ポイント830を見出す。より具体的には、ショット境界モジュール815は、まず、前述した仕方でクリップレット時間制約を判定する(ボックス1300)。次に、ショット境界が判別される(ボックス1310)。前述したとおり、ショット境界は、カメラが「オン」または「オフ」にされたソースビデオ210内の場所である。ソースビデオ210内のこのカメラ「オン」の場所とカメラ「オフ」の場所の間のビデオ部分が、ショットとして定義される。
制約適用モジュール
図14は、図8に示した制約適用モジュール820の動作の詳細を示す詳細流れ図である。一般に、制約適用モジュール820は、編集ポイント830を見出してソースビデオ210からクリップレットを生成するのに使用される。詳細には、クリップレット時間制約が判定される(ボックス1400)。この制約は、ユーザが選択すること、あらかじめ選択されていること、または制約適用モジュール820がオンザフライ(on the fly)で判定することを含め、様々なやり方で判定することができる。前述したとおり、クリップレット時間制約は、クリップレットの時間に対する任意の「ハードな」または「ソフトな」制約であることが可能である。都合のよいサブショット境界が存在しない場合、制約適用モジュール820は、時間制約だけに基づいてカットを任意に行うことができる。次に、編集ポイント830が、クリップレット時間制約に基づいて判定される(ボックス1410)。次に、編集ポイント830が、制約適用モジュール820からの出力として送られる(ボックス1420)。
ビデオクリップレット評価モジュール
クリップレットには、クリップレットに関する情報を提供するのに利用可能な処理技術に基づいて興味度評価が割り当てられることが可能である。例えば、顔検出技術が利用可能である場合、顔を検出するようにそれぞれの個々のクリップレットを処理することができる。次に、クリップレットが顔を含むかどうかなどの、この処理から獲得された情報が、それぞれの個々のクリップレットとともに記憶される。次に、この情報に基づき、各クリップレットに関して、顔検出の興味度評価を判定することができる。興味度評価は、ビデオフレームごとにではなく、クリップレットごとに計算される。
図15は、図8に示したビデオクリップレット評価モジュール850の動作の詳細を示す詳細流れ図である。ビデオクリップレット評価モジュール850は、クリップレット興味度評価を個々のクリップレットに割り当てる。図15に示すとおり、ビデオクリップレット評価モジュール850は、クリップレットを入力することから開始する(ボックス1500)。次に、クリップレットに関する興味度評価情報が、クリップレットとともに記憶される(ボックス1510)。次に、使用されるべき所望の評価情報が判定される(ボックス1520)。所望の評価情報とは、クリップレット評価を割り当てる際、クリップレットとともに記憶されている評価情報のどれを使用するかを意味する。最後に、ビデオクリップレット評価モジュール850が、所望の評価情報を使用してクリップレットに関する興味度評価を計算する(ボックス1530)。好ましくは、各クリップレットに対する興味度評価は、全クリップレットに対して正規化される。例えば、顔検出で最高の興味度評価を有するクリップレットを1に等しい値に正規化し、その他のクリップレットに関する顔検出のすべての他の興味度評価を1以下にする。
クリップレット興味度評価は、クリップレットに関して妥当であり、用意されている任意の情報に基づくことが可能である。クリップレット評価情報は、タイムスタンプ、場所スタンプ、オーディオ信号、ビデオ信号、及び情報のすべてを含み、サブショット境界検出に関して前述したとおり解析される。クリップレット評価情報は、クリップレットに関する情報を提供するのに利用可能なあらゆる技術を利用することができる。これには、音声認識、話者認識、顔検出、ズーム検出、パン検出、任意のタイプのオーディオ解析またはオーディオ認識、及び任意のタイプのビデオ解析またはビデオ認識が含まれる。以上の技術の任意のものを使用して、個々のクリップレットに関する興味度評価を生成することができる。例として、興味度評価が顔の検出による場合、顔を含むクリップレットが、顔を有さないクリップレットよりも高い興味度評価を有する。別の例として、興味度評価がクローズアップである場合、ズームイベントの直後のクリップレットが、他のクリップレットよりも高い興味度を有する。
クリップレット興味度評価は、多次元であることが可能である。例えば、クリップレットは、「オーディオ活動レベル」に関する評価、ならびに「ビジュアル活動レベル」及び「顔の出現」に関する別個の評価を有することが可能である。評価は、絶対数値であること、またはクリップレット間の相対的順序(またはランキング)であることが可能である。ビデオクリップレット評価モジュール850が、クリップレットに関して個々に、またはすべての可能なクリップレットのセットに関して評価を計算することができる。
例として、評価が、オーディオに基づいてクリップレットに割り当てられるものと想定する。これは、すべての既知のクリップレットにわたって正規化されたオーディオパワー信号の分散を計算することによって行うことができる。ビジョンを使用するクリップレット評価の別の例では、カメラのズームまたはパンが検出され、ズームイベントまたはパンイベントの直後のクリップレットにより高い評価が割り当てられるものと想定する。持続時間を使用するクリップレット評価のさらに別の例は、xがユーザの選好または期待に基づくことが可能であるx秒間の持続時間を中心とするガウス分布に評価を正比例させることである。
キーフレーム特定モジュール
各クリップレットに関して少なくとも1つのキーフレームを特定することができる。キーフレームは、クリップレットの内容を最もよく要約するクリップレットの代表的なビデオフレームである。少なくとも1つのキーフレームが好ましいが、クリップレットごとに任意の数のキーフレームが存在することが可能である。
図16は、図8に示したキーフレーム特定モジュール860の動作の詳細を示す詳細流れ図である。最初、キーフレーム特定モジュール860は、クリップレットを入力として受け取る(ボックス1600)。次に、検出されるべき所望のキーフレーム情報が判定される(ボックス1610)。最後に、その所望のキーフレーム情報を使用して代表的なキーフレームが特定される(ボックス1620)。
キーフレームを検出するのに使用される情報は、オーディオ解析及びオーディオ認識、ビデオ解析及びビデオ認識などの前述した処理技術の任意のものから獲得された情報であることが可能である。別法では、キーフレームは、クリップレット内に含まれる情報を参照することなしに検出することができる。例えば、キーフレームは、クリップレットの中央ビデオフレームを検出し、その中央ビデオフレームをキーフレームとして定義することにより、それぞれの個々のクリップレットに関して特定することができる。キーフレーム特定の別の例は、クリップレットの第m番ごとのビデオフレームをサンプリングし、そのサンプリングされたビデオフレームをキーフレームとして定義することである。キーフレーム特定のさらに別の例は、クリップレット内のビデオフレームの色ヒストグラム上のバッタチャリヤ距離に対してビタビ(Viterbi)アルゴリズムを実行することである。コンピュータ対数尤度(log−likelihood)のピークの場所が、クリップレットに関するキーフレームとして定義される。
キーフレームを特定することの目的は、クリップレットを要約するための個々のクリップレットから最も代表的なビデオフレームを抽出することである。この目的を達するため、特定されたキーフレームは、最大限の相違があり、高い利用価値を有していなければならない。フレーム距離メトリック(metric)及びフレーム有用性測度(frame utility measure)が定義される。フレーム距離メトリックは、クリップレットに含まれる2つのビデオフレーム間の類似度を測定する。フレーム距離メトリックは、同一のビデオフレームの場合、ゼロであり、フレームの相違が大きくなるにつれて値が高くなる。フレーム有用性測度は、キーフレームとしてのビデオフレームの適合度を反映する。通常、より明るく(つまり、平均輝度がより高い)、より色彩豊かな(つまり、色ヒストグラム上のエントロピーがより高い)ビデオフレームが、キーフレームとして好ましい。キーフレーム特定の好ましい手法では、キーフレームは、費用関数を最大化する動的プログラミング(またはビタビ)手続きによって特定される。費用関数は、検出されるべき所望の基準または所望のキーフレーム情報をカプセル化する。さらに、各クリップレットに関するキーフレームの最適な数が、ベイズ情報基準(Bayes Information Criterion;BIC)を使用して自動的に判定される。
本発明の以上の説明は、例示及び説明のために提示した。この説明は、すべてを網羅する、または本発明を開示した形態そのものに限定することを意図するものではない。以上の教示に鑑みて、多数の変更形態及び変形形態が可能である。本発明の範囲は、本発明の以上の詳細な説明によってではなく、特許請求の範囲によって限定されるものとする。
本発明の実施形態のより長い単位のビデオ(ソースビデオ)及びビデオフレームとの関係でビデオクリップレットの概念を示す図である。 本発明の実施形態のコンピュータユーザインタフェースのシステム及び方法を組み込んだ例示的なクリップレット生成システムの概要を示すブロック図である。 本発明の実施形態のコンピューティング装置を示すブロック図である。 本発明の実施形態のクリップレットユーザインタフェースの一般的な概要を示す図である。 本発明の実施形態の図4に示したクリップレットユーザインタフェースのキーフレームウインドウを拡大して示す図である。 本発明の実施形態のクリップレットユーザインタフェースの別の実施形態を示す図である。 本発明の実施形態の図6に示したクリップレットユーザインタフェースの実用例を示す図である。 本発明の実施形態の図2に示したビデオクリップレットジェネレータの詳細を示す詳細なブロック図である。 本発明の実施形態の図2及び8に示したビデオクリップレットジェネレータの動作を示す概要流れ図である。 本発明の実施形態の図8に示したサブショット境界モジュールの動作の詳細を示す詳細流れ図である。 本発明の実施形態の特徴ベースの手法を使用するサブショット境界モジュールの実用例を示す詳細流れ図である。 本発明の実施形態の場面クラスタ化を使用するサブショット境界検出の実用例を示す詳細流れ図である。 本発明の実施形態の図8に示したショット境界モジュールの動作の詳細を示す詳細流れ図である。 本発明の実施形態の図8に示した制約適用モジュールの動作の詳細を示す詳細流れ図である。 本発明の実施形態の図8に示したビデオクリップレット評価モジュールの動作の詳細を示す詳細流れ図である。 本発明の実施形態の図8に示したキーフレーム特定モジュールの動作の詳細を示す詳細流れ図である。
符号の説明
100 デジタルソースビデオ
105 ビデオフレーム
110 ビデオフレーム
190 クリップレット生成システム
200 ビデオクリップレットジェネレータ
205 デジタルビデオデータ
210 大きいソースビデオ
215 カメラ
220 記憶媒体
230 アナログ−デジタルコンバータ
240 コンピューティングデバイス
250 モニタ
260 ビデオクリップレットユーザインタフェース
302 プロセッサ
304 システムメモリ
306 システムバス
310 ROM
312 RAM
314 BIOS
316 ハードディスクドライブ
318 磁気ディスクドライブ
320 リムーバル磁気ディスク
322 光ディスクドライブ
324 リムーバル光ディスク
326 ハードディスクドライブインタフェース
328 磁気ディスクドライブインタフェース
330 光ドライブインタフェース
332a、332b オペレーティングシステム
334a〜334c アプリケーションプログラム
336a、336b 他のプログラムモジュール
338a、338b プログラムデータ
340 キーボード
342 ポインティングデバイス
344 シリアルポートインタフェース
348 ビデオアダプタ
350 リモートコンピュータ
352 メモリ記憶デバイス
354 LAN
356 WAN
358 ネットワークインタフェース
360 モデム
400 クリップレット提示領域
410 クリップレット
420 キーフレームウインドウ
430 クリップレットプロパティ提示表示
600 ビデオウインドウ
610 凡例領域
620 水平スクロールバー
630 垂直スクロールバー
640 カーソル
700 サムネイルユーザインタフェース
710 クリップレット領域
715 サムネイルインドウ
718 リップレット興味度評価領域
720 クリップレットビデオウインドウ
729 キー領域
800 ビデオクリップレット結果
810 サブショット境界モジュール
815 ショット境界モジュール
820 制約適用モジュール
830 編集ポイント
840 ビデオクリップレット抽出モジュール
845 ビデオクリップレット
850 ビデオクリップレット評価モジュール
860 キーフレーム特定モジュール
870 1組のビデオクリップレット
875 クリップレット編集ポイント
880 ビデオクリップレット評価
885 1組のキーフレーム

Claims (6)

  1. コンピュータシステムにおける表示デバイス上でソースビデオから生成されたビデオクリップレットを表示するための方法であって、
    前記表示デバイス上の表示領域を複数のウインドウに分割するステップと、
    前記ビデオクリップレットのそれぞれを前記複数のウインドウのそれぞれの中で表示するステップと、
    前記ビデオクリップレットのそれぞれに関するビデオクリップレット評価を
    (a)興味度評価バーであるグラフィックス表現と、
    (b)テキスト表現と
    の少なくともどちらかとして表示するステップであって、前記グラフィックス表現は、
    ビジュアル活動レベル情報に基づいた興味度を示す第1のインジケータ、
    前記ビデオクリプレット内のオーディオ活動レベル情報に基づいた興味度を示す第2のインジケータ、
    前記ビデオクリップレット内の顔検出から得られる顔の出現情報に基づいた興味度を示す第3のインジケータ、または
    ユーザによる各ビデオクリプレットとの相互作用から蓄積された使用統計情報に基づいた興味度を示す第4のインジケータの内の少なくともいずれか1つを含んでいる、表示するステップ
    を備えたことを特徴とする方法。
  2. 前記複数のウインドウを2次元構成に配置するステップをさらに備えたことを特徴とする請求項1に記載の方法。
  3. ユーザが、入力デバイスを使用して前記表示領域をスクロールし、クリップレットを含むさらなるウインドウを表出させることを可能にするステップをさらに備えたことを特徴とする請求項1に記載の方法。
  4. ドラッグアンドドロップ機能を提供して、前記ビデオクリップレットの少なくとも1つを、処理するためにアプリケーションにドラッグアンドドロップすることができるようにするステップをさらに備えたことを特徴とする請求項1に記載の方法。
  5. ユーザが、入力デバイスを使用して前記ビデオクリップレットの少なくとも2つをマージすることを可能にするステップであって、前記ビデオクリップレットの第1のクリップレットが、前記ビデオクリップレットの第2のビデオクリップレットとマージされて新しいビデオクリップレットが生成されるようにするステップをさらに備えたことを特徴とする請求項1に記載の方法。
  6. 前記ビデオクリップレットの前記第1のクリップレット及び前記第2のクリップレットは、時間的に隣接するクリップレットであることを特徴とする請求項5に記載の方法。
JP2008283690A 2002-06-19 2008-11-04 ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース Expired - Fee Related JP5091086B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/176,827 US7383508B2 (en) 2002-06-19 2002-06-19 Computer user interface for interacting with video cliplets generated from digital video
US10/176,827 2002-06-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003175467A Division JP2004023799A (ja) 2002-06-19 2003-06-19 ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2009105900A JP2009105900A (ja) 2009-05-14
JP5091086B2 true JP5091086B2 (ja) 2012-12-05

Family

ID=29717843

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2003175467A Pending JP2004023799A (ja) 2002-06-19 2003-06-19 ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース
JP2008283690A Expired - Fee Related JP5091086B2 (ja) 2002-06-19 2008-11-04 ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2003175467A Pending JP2004023799A (ja) 2002-06-19 2003-06-19 ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース

Country Status (3)

Country Link
US (1) US7383508B2 (ja)
EP (1) EP1377047A3 (ja)
JP (2) JP2004023799A (ja)

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7075683B1 (en) * 1999-02-15 2006-07-11 Canon Kabushiki Kaisha Dynamic image digest automatic editing system and dynamic image digest automatic editing method
US7127127B2 (en) * 2003-03-04 2006-10-24 Microsoft Corporation System and method for adaptive video fast forward using scene generative models
JP4389160B2 (ja) * 2004-03-18 2009-12-24 カシオ計算機株式会社 動画撮影装置、動画一覧表示方法、及び、プログラム
GB2421135A (en) * 2004-12-09 2006-06-14 Sony Uk Ltd User resizable video display of catalogue entries
US9082456B2 (en) 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
JP4778253B2 (ja) * 2005-03-29 2011-09-21 株式会社日立製作所 コンテンツ情報表示装置
US8253821B2 (en) * 2005-10-31 2012-08-28 The Invention Science Fund I, Llc Degradation/preservation management of captured data
US9191611B2 (en) 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US20070222865A1 (en) 2006-03-15 2007-09-27 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Enhanced video/still image correlation
US8681225B2 (en) 2005-06-02 2014-03-25 Royce A. Levien Storage access technique for captured data
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US8964054B2 (en) 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US9967424B2 (en) 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US9167195B2 (en) * 2005-10-31 2015-10-20 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US8233042B2 (en) * 2005-10-31 2012-07-31 The Invention Science Fund I, Llc Preservation and/or degradation of a video/audio data stream
US9451200B2 (en) 2005-06-02 2016-09-20 Invention Science Fund I, Llc Storage access technique for captured data
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US9076208B2 (en) 2006-02-28 2015-07-07 The Invention Science Fund I, Llc Imagery processing
US20060271855A1 (en) * 2005-05-27 2006-11-30 Microsoft Corporation Operating system shell management of video files
JP4640046B2 (ja) 2005-08-30 2011-03-02 株式会社日立製作所 デジタルコンテンツ再生装置
US7739599B2 (en) * 2005-09-23 2010-06-15 Microsoft Corporation Automatic capturing and editing of a video
JP2007150724A (ja) 2005-11-28 2007-06-14 Toshiba Corp 映像視聴支援システムおよび方法
FR2894692B1 (fr) * 2005-12-08 2008-06-13 Thomson Licensing Sas Procede d'identification d'un document enregistre par affichage et selection d'images clefs, et recepteur associe.
US20070162857A1 (en) * 2006-01-06 2007-07-12 Ralf Weber Automated multimedia authoring
US7636889B2 (en) * 2006-01-06 2009-12-22 Apple Inc. Controlling behavior of elements in a display environment
US20070162855A1 (en) * 2006-01-06 2007-07-12 Kelly Hawk Movie authoring
KR100725411B1 (ko) * 2006-02-06 2007-06-07 삼성전자주식회사 컨텐츠 검색을 위한 사용자 인터페이스, 사용자 인터페이스제공 방법, 및 컨텐츠 검색 장치
US8379154B2 (en) * 2006-05-12 2013-02-19 Tong Zhang Key-frame extraction from video
US7945142B2 (en) * 2006-06-15 2011-05-17 Microsoft Corporation Audio/visual editing tool
US8437409B2 (en) 2006-12-06 2013-05-07 Carnagie Mellon University System and method for capturing, editing, searching, and delivering multi-media content
US20080077262A1 (en) * 2006-09-08 2008-03-27 Apple Computer, Inc Distortion free stitching of digital media files
JP5022370B2 (ja) * 2006-09-12 2012-09-12 パナソニック株式会社 コンテンツ撮影装置
JP2008076776A (ja) * 2006-09-21 2008-04-03 Sony Corp データ記録装置、データ記録方法及びデータ記録プログラム
US8375302B2 (en) * 2006-11-17 2013-02-12 Microsoft Corporation Example based video editing
US7826657B2 (en) * 2006-12-11 2010-11-02 Yahoo! Inc. Automatically generating a content-based quality metric for digital images
CN101611451B (zh) * 2006-12-22 2015-01-28 苹果公司 媒体项的二维时线显示
US8943410B2 (en) 2006-12-22 2015-01-27 Apple Inc. Modified media presentation during scrubbing
US7992097B2 (en) 2006-12-22 2011-08-02 Apple Inc. Select drag and drop operations on video thumbnails across clip boundaries
US8020100B2 (en) 2006-12-22 2011-09-13 Apple Inc. Fast creation of video segments
US9142253B2 (en) 2006-12-22 2015-09-22 Apple Inc. Associating keywords to media
US7954065B2 (en) 2006-12-22 2011-05-31 Apple Inc. Two-dimensional timeline display of media items
US8276098B2 (en) 2006-12-22 2012-09-25 Apple Inc. Interactive image thumbnails
US20080159383A1 (en) * 2006-12-27 2008-07-03 Yahoo! Inc. Tagboard for video tagging
US7986867B2 (en) * 2007-01-26 2011-07-26 Myspace, Inc. Video downloading and scrubbing system and method
US8218830B2 (en) * 2007-01-29 2012-07-10 Myspace Llc Image editing system and method
US20080228689A1 (en) * 2007-03-12 2008-09-18 Microsoft Corporation Content recommendations
DE102007013811A1 (de) * 2007-03-22 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion
KR100883106B1 (ko) * 2007-04-03 2009-02-11 삼성전자주식회사 비디오 데이터 표시 방법 및 이를 이용하는 휴대 단말기
JP2008257478A (ja) * 2007-04-04 2008-10-23 Internatl Business Mach Corp <Ibm> 検証対象文字列の格納位置出力装置、方法、及びコンピュータ・プログラム
US7934011B2 (en) * 2007-05-01 2011-04-26 Flektor, Inc. System and method for flow control in web-based video editing system
US8099315B2 (en) * 2007-06-05 2012-01-17 At&T Intellectual Property I, L.P. Interest profiles for audio and/or video streams
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8690670B2 (en) 2007-06-14 2014-04-08 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US20090079840A1 (en) * 2007-09-25 2009-03-26 Motorola, Inc. Method for intelligently creating, consuming, and sharing video content on mobile devices
US8661096B2 (en) * 2007-11-05 2014-02-25 Cyberlink Corp. Collaborative editing in a video editing system
US20100259688A1 (en) * 2007-11-14 2010-10-14 Koninklijke Philips Electronics N.V. method of determining a starting point of a semantic unit in an audiovisual signal
US20090132924A1 (en) * 2007-11-15 2009-05-21 Yojak Harshad Vasa System and method to create highlight portions of media content
KR20090093105A (ko) * 2008-02-28 2009-09-02 삼성전자주식회사 컨텐츠 재생 장치 및 방법
US8079054B1 (en) * 2008-04-14 2011-12-13 Adobe Systems Incorporated Location for secondary content based on data differential
US8839327B2 (en) 2008-06-25 2014-09-16 At&T Intellectual Property Ii, Lp Method and apparatus for presenting media programs
US9015778B2 (en) 2008-06-25 2015-04-21 AT&T Intellectual Property I. LP Apparatus and method for media on demand commentaries
US8663013B2 (en) 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8843375B1 (en) * 2008-09-29 2014-09-23 Apple Inc. User interfaces for editing audio clips
US8457466B1 (en) 2008-09-29 2013-06-04 Videomining Corporation Videore: method and system for storing videos from multiple cameras for behavior re-mining
US8788963B2 (en) * 2008-10-15 2014-07-22 Apple Inc. Scrollable preview of content
US20100146375A1 (en) * 2008-12-05 2010-06-10 Darius Katz Method for producing sound or video streams, and apparatus configured therefor
US9276761B2 (en) * 2009-03-04 2016-03-01 At&T Intellectual Property I, L.P. Method and apparatus for group media consumption
US8275623B2 (en) 2009-03-06 2012-09-25 At&T Intellectual Property I, L.P. Method and apparatus for analyzing discussion regarding media programs
EP2239740B1 (fr) * 2009-03-13 2013-05-08 France Telecom Interaction entre un utilisateur et un contenu multimédia
US8881013B2 (en) * 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US9564173B2 (en) 2009-04-30 2017-02-07 Apple Inc. Media editing application for auditioning different types of media clips
US8549404B2 (en) 2009-04-30 2013-10-01 Apple Inc. Auditioning tools for a media editing application
US20100281371A1 (en) * 2009-04-30 2010-11-04 Peter Warner Navigation Tool for Video Presentations
US8359537B2 (en) * 2009-04-30 2013-01-22 Apple Inc. Tool for navigating a composite presentation
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US9648372B2 (en) 2009-07-23 2017-05-09 Fmr Llc Inserting personalized information into digital content
US9294796B2 (en) * 2009-07-23 2016-03-22 Fmr Llc Inserting personalized information into digital content
US8266652B2 (en) * 2009-10-15 2012-09-11 At&T Intellectual Property I, L.P. Apparatus and method for transmitting media content
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US9830605B2 (en) * 2009-10-30 2017-11-28 At&T Intellectual Property I, L.P. Apparatus and method for product marketing
US8224756B2 (en) * 2009-11-05 2012-07-17 At&T Intellectual Property I, L.P. Apparatus and method for managing a social network
US8438484B2 (en) * 2009-11-06 2013-05-07 Sony Corporation Video preview module to enhance online video experience
US8760469B2 (en) 2009-11-06 2014-06-24 At&T Intellectual Property I, L.P. Apparatus and method for managing marketing
US8316303B2 (en) 2009-11-10 2012-11-20 At&T Intellectual Property I, L.P. Method and apparatus for presenting media programs
US9031379B2 (en) * 2009-11-10 2015-05-12 At&T Intellectual Property I, L.P. Apparatus and method for transmitting media content
US10708663B2 (en) 2009-11-13 2020-07-07 At&T Intellectual Property I, L.P. Apparatus and method for media on demand commentaries
US8387088B2 (en) * 2009-11-13 2013-02-26 At&T Intellectual Property I, Lp Method and apparatus for presenting media programs
US8839306B2 (en) 2009-11-20 2014-09-16 At&T Intellectual Property I, Lp Method and apparatus for presenting media programs
US9100550B2 (en) 2009-11-20 2015-08-04 At&T Intellectual Property I, L.P. Apparatus and method for managing a social network
US8373741B2 (en) * 2009-11-20 2013-02-12 At&T Intellectual Property I, Lp Apparatus and method for collaborative network in an enterprise setting
US20110138330A1 (en) * 2009-12-03 2011-06-09 Apple Inc. Display of relational datasets
US9094726B2 (en) 2009-12-04 2015-07-28 At&T Intellectual Property I, Lp Apparatus and method for tagging media content and managing marketing
US9554111B2 (en) 2010-03-08 2017-01-24 Magisto Ltd. System and method for semi-automatic video editing
US9502073B2 (en) 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US8568234B2 (en) 2010-03-16 2013-10-29 Harmonix Music Systems, Inc. Simulating musical instruments
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
EP2579955B1 (en) 2010-06-11 2020-07-08 Harmonix Music Systems, Inc. Dance game and tutorial
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
US9171578B2 (en) * 2010-08-06 2015-10-27 Futurewei Technologies, Inc. Video skimming methods and systems
US8555170B2 (en) 2010-08-10 2013-10-08 Apple Inc. Tool for presenting and editing a storyboard representation of a composite presentation
JP5625642B2 (ja) * 2010-09-06 2014-11-19 ソニー株式会社 情報処理装置、データ分割方法及びデータ分割プログラム
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
WO2012094564A1 (en) 2011-01-06 2012-07-12 Veveo, Inc. Methods of and systems for content search based on environment sampling
WO2013106264A2 (en) * 2012-01-12 2013-07-18 Home Box Office, Inc. Data management and selection/control system preferably for a video magazine
US8872850B2 (en) 2012-03-05 2014-10-28 Microsoft Corporation Juxtaposing still and dynamic imagery for cliplet creation
US8989503B2 (en) * 2012-08-03 2015-03-24 Kodak Alaris Inc. Identifying scene boundaries using group sparsity analysis
US9129640B2 (en) * 2012-12-12 2015-09-08 Crowdflik, Inc. Collaborative digital video platform that enables synchronized capture, curation and editing of multiple user-generated videos
USD750112S1 (en) * 2013-01-04 2016-02-23 Samsung Electronics Co., Ltd. Portable electronic device with graphical user interface
WO2014197354A1 (en) 2013-06-05 2014-12-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
KR102268052B1 (ko) * 2013-11-11 2021-06-22 삼성전자주식회사 디스플레이 장치, 서버 장치 및 그 제어 방법
WO2015096076A1 (zh) * 2013-12-25 2015-07-02 宇龙计算机通信科技(深圳)有限公司 暂态界面的显示处理方法和终端
WO2015161487A1 (en) * 2014-04-24 2015-10-29 Nokia Technologies Oy Apparatus, method, and computer program product for video enhanced photo browsing
US10652127B2 (en) 2014-10-03 2020-05-12 The Nielsen Company (Us), Llc Fusing online media monitoring data with secondary online data feeds to generate ratings data for online media exposure
KR101650153B1 (ko) * 2015-03-19 2016-08-23 네이버 주식회사 만화 데이터 편집 방법 및 만화 데이터 편집 장치
USD768682S1 (en) * 2015-04-24 2016-10-11 Layer3 Tv, Inc Display screen or portion thereof with a graphical user interface
US20170285912A1 (en) * 2016-03-30 2017-10-05 Google Inc. Methods, systems, and media for media guidance
KR102028198B1 (ko) * 2017-01-26 2019-10-04 한국전자통신연구원 동영상 장면과 메타데이터 저작 방법
US20180220197A1 (en) * 2017-01-27 2018-08-02 International Business Machines Corporation Identifying skipped offers of interest
US10904607B2 (en) 2017-07-10 2021-01-26 Dolby Laboratories Licensing Corporation Video content controller and associated method
CN109089128A (zh) * 2018-07-10 2018-12-25 武汉斗鱼网络科技有限公司 一种视频处理方法、装置、设备及介质
US11875781B2 (en) * 2020-08-31 2024-01-16 Adobe Inc. Audio-based media edit point selection
US11880408B2 (en) 2020-09-10 2024-01-23 Adobe Inc. Interacting with hierarchical clusters of video segments using a metadata search
US11887371B2 (en) 2020-09-10 2024-01-30 Adobe Inc. Thumbnail video segmentation identifying thumbnail locations for a video
US11887629B2 (en) 2020-09-10 2024-01-30 Adobe Inc. Interacting with semantic video segments through interactive tiles
US11631434B2 (en) 2020-09-10 2023-04-18 Adobe Inc. Selecting and performing operations on hierarchical clusters of video segments
US11450112B2 (en) 2020-09-10 2022-09-20 Adobe Inc. Segmentation and hierarchical clustering of video
US11810358B2 (en) 2020-09-10 2023-11-07 Adobe Inc. Video search segmentation
US11455731B2 (en) 2020-09-10 2022-09-27 Adobe Inc. Video segmentation based on detected video features using a graphical model
US11630562B2 (en) 2020-09-10 2023-04-18 Adobe Inc. Interacting with hierarchical clusters of video segments using a video timeline
US11995894B2 (en) 2020-09-10 2024-05-28 Adobe Inc. Interacting with hierarchical clusters of video segments using a metadata panel

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5191645A (en) 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
WO1993008664A1 (en) 1991-10-21 1993-04-29 Accom, Inc. On-line video editing system
US5404316A (en) 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
JP3332166B2 (ja) * 1992-09-30 2002-10-07 株式会社日立製作所 動画像の検索装置
US5635982A (en) * 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
JP3472659B2 (ja) * 1995-02-20 2003-12-02 株式会社日立製作所 映像供給方法および映像供給システム
JPH0993588A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 動画像処理方法
US5706097A (en) 1995-11-13 1998-01-06 Eastman Kodak Company Index print with a digital recording medium containing still images, motion sequences, and sound sequences
JPH10161837A (ja) 1996-10-03 1998-06-19 Nikon Corp 表示装置、表示方法、および、記録媒体
JPH10124361A (ja) * 1996-10-23 1998-05-15 Nikon Corp 画像ファイル編集装置、およびその装置を実現するためのプログラムを記録した媒体
JP3276596B2 (ja) 1997-11-04 2002-04-22 松下電器産業株式会社 動画像編集装置
US6807306B1 (en) * 1999-05-28 2004-10-19 Xerox Corporation Time-constrained keyframe selection method
US6983424B1 (en) * 2000-06-23 2006-01-03 International Business Machines Corporation Automatically scaling icons to fit a display area within a data processing system
JP2002084440A (ja) * 2000-09-06 2002-03-22 Olympus Optical Co Ltd デジタルカメラ、画像処理方法及び記録媒体

Also Published As

Publication number Publication date
US7383508B2 (en) 2008-06-03
EP1377047A2 (en) 2004-01-02
EP1377047A3 (en) 2006-06-28
JP2004023799A (ja) 2004-01-22
JP2009105900A (ja) 2009-05-14
US20030234805A1 (en) 2003-12-25

Similar Documents

Publication Publication Date Title
JP5091086B2 (ja) ビデオの短いセグメントを表示するための方法及びグラフィカルユーザインタフェース
US8238718B2 (en) System and method for automatically generating video cliplets from digital video
US7599554B2 (en) Method and apparatus for summarizing a music video using content analysis
Truong et al. Video abstraction: A systematic review and classification
US8818038B2 (en) Method and system for video indexing and video synopsis
US9502073B2 (en) System and method for semi-automatic video editing
US6807361B1 (en) Interactive custom video creation system
US9554111B2 (en) System and method for semi-automatic video editing
JP4778231B2 (ja) ビデオシーケンスに対してインデックス付けするシステムおよび方法
US20030117428A1 (en) Visual summary of audio-visual program features
US7904815B2 (en) Content-based dynamic photo-to-video methods and apparatuses
US20030237091A1 (en) Computer user interface for viewing video compositions generated from a video composition authoring system using video cliplets
JP2003179849A (ja) ビデオコラージュの作成方法および装置、ビデオコラージュ、ビデオコラージュ・ユーザ・インタフェース、ビデオコラージュ作成プログラム
KR20070118635A (ko) 오디오 및/또는 비주얼 데이터의 서머라이제이션
JP2002125174A (ja) ビデオスキミング方法及び装置
JP2004032763A (ja) ビデオクリップレットを使用してビデオコンポジションを自動的にオーサリングするシステム及び方法
JP2006155384A (ja) 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
US6925245B1 (en) Method and medium for recording video information
KR101440168B1 (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
US20050182503A1 (en) System and method for the automatic and semi-automatic media editing
JP2010531561A (ja) マルチメディアファイルのサマリを自動的に生成する方法及び装置
US11895377B1 (en) Systems and methods for presenting videos
JP2000069420A (ja) 映像処理装置
JP2006048405A (ja) 映像処理方法及び装置及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120206

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120717

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5091086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees