JP2007521736A - 映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラム - Google Patents

映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラム Download PDF

Info

Publication number
JP2007521736A
JP2007521736A JP2006516861A JP2006516861A JP2007521736A JP 2007521736 A JP2007521736 A JP 2007521736A JP 2006516861 A JP2006516861 A JP 2006516861A JP 2006516861 A JP2006516861 A JP 2006516861A JP 2007521736 A JP2007521736 A JP 2007521736A
Authority
JP
Japan
Prior art keywords
frame
content
frames
presentation
specific information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006516861A
Other languages
English (en)
Other versions
JP4584250B2 (ja
Inventor
賢太郎 谷川
優子 津坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JP2007521736A publication Critical patent/JP2007521736A/ja
Application granted granted Critical
Publication of JP4584250B2 publication Critical patent/JP4584250B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【解決手段】開始フレームとして特定すべきフレームの特徴を示す特定情報を、コンテンツの種類に対応づけて複数組記憶しているルール記憶部106と、開始フレームを特定する処理の対象となるコンテンツを取得する番組取得部104と、取得されたコンテンツの種類を示す種類情報を取得する情報取得部105と、取得された種類情報と対応関係にある特定情報を、ルール記憶部106から選択し取得する選択部107と、取得された特定情報により示される特徴に基づいて、取得されたコンテンツにおいて、開始フレームを特定する特定部108とを備える。
【選択図】図2

Description

本発明は、コンテンツに含まれる画像データや音声データを解析し、コンテンツを複数の視聴区間に分けるインデクシング技術に関する。
近年、HDDレコーダやDVDレコーダ等の大容量の家庭用レコーダ機器には、放送されたコンテンツをユーザの趣味嗜好に合わせて自動的に録画する機能等が搭載され、当該家庭用レコーダ機器に蓄積されるコンテンツの量は増加の一途を辿っている。
このような機能によってコンテンツは、EPG(Electric Program Guide)により提示される番組毎に録画されるが、ユーザは録画されたコンテンツを初めから終わりまで通して視聴するのではなく、例えばニュース番組において興味のあるニュースだけを視聴したり、音楽番組において好みの歌手が出演する部分のみを視聴するといった具合に、特定の内容を持つ部分を選択的に視聴することで膨大な量のコンテンツから所望の情報を効率よく得ることができる。
そこで、コンテンツの画像データや音声データの様々な特徴量を分析し、分析した複数の特徴を複合的に用いてコンテンツを複数の区間(以下、「視聴区間」という。)にインデクシングすることが試みられている。
具体的には、時間的に連続して撮影されたフレームのまとまりであるシーンが切り替わる切替フレームや、テロップが画像に出現するテロップ出現フレームを画像データから検出する技術を組み合わせて、テロップ出現フレームの直前に位置する切替フレームを検出し、検出されたフレームを相互に比較して類似度を算出し、類似度の高いフレーム間を一つの視聴区間として切り出す技術などがある。
特開平11−250081号公報 特開2001−126050号公報
しかしながら、地上波テレビ放送の多チャンネル化や、衛星放送、ケーブルTV、ビデオストリーミングなど多様な放送形態の普及により、一般家庭で視聴可能なコンテンツの種類が増大しており、従来の技術を適用するだけでは、すべてのコンテンツについて適切なインデクシング結果は得られないと言う問題がある。
なぜならテロップの大きさ、テロップの出現位置や出現時間などの特徴と、視聴区間の区切りのパターンとの関係が、番組のジャンル毎、または番組毎に異なっているからである。
本発明はかかる問題に鑑み、様々な種類のコンテンツを従来よりも適切にインデクシングすることができる映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る映像処理装置は、コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレーミングとなるフレームを特定する映像処理装置であって、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段と、コンテンツを取得するコンテンツ取得手段と、取得された前記コンテンツの種類を示す種類情報を取得する情報取得手段と、取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出する抽出手段と、抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定する特定手段とを備えることを特徴とする。
上記の構成により、映像処理装置は、複数の種類の特定情報を記憶し、コンテンツの種類に応じて特定情報を使い分けることが可能となる。従って、処理するコンテンツの画像や音声の特徴を考慮した特定情報を用いることで、様々な種類のコンテンツを、それぞれ適切に複数の視聴区間に区切ることができる。
また、それぞれの特定情報はさらに、各視聴区間を代表する静止画像として提示される提示フレームとして特定すべきフレームの特徴を示し、前記特定手段はさらに、前記抽出された特定情報に基づいて、前記コンテンツにおいて、提示フレームを特定するとしてもよい。
これによって、視聴区間毎に開始フレームと提示フレームとの2つのインデックスを特定することができる。従って、開始フレームが視聴区間の内容の把握に適さない画像である場合にも、内容の把握により適したフレームを提示フレームとすることで、静止画像を用いた視聴区間の内容の把握が容易になる。
また、前記映像処理装置はさらに、前記特定手段において特定された開始フレーム及び提示フレームの表示時刻を、前記取得されたコンテンツに対応づけて記憶するインデックス情報記憶手段を備えるとしてもよい。
これによって、コンテンツの視聴区間の区切りを時刻情報で管理することができる。
また、前記特定情報において示される特徴は、動画像解析、制止画像解析、及び音声解析のうちの少なくとも1つにより検出され、前記特定手段は、動画像解析、静止画像解析、及び、音声解析のうち少なくとも1つにより、開始フレーム、及び提示フレームを特定するとしてもよい。
これによって、画像、音声を解析する技術を用いて、様々な種類のコンテンツを適切にインデクシングできる。
また、前記特定情報は、提示フレームの候補として検出されるべきフレームの特徴を示す第1条件と、提示フレームの候補から除外されるべきフレームの特徴を示す除外条件と、開始フレームの候補として検出されるべきフレームの特徴を示す第2条件と、提示フレームと、開始フレームに選択されるべきフレームとの関係を示す選択条件とを含み、前記特定手段は、前記コンテンツに含まれるフレームから、第1条件を満たすフレームを検出し、その後、検出されたフレームから除外条件を満たすフレームを除くことにより提示フレームを特定し、さらに、前記コンテンツに含まれるフレームから、第2条件を満たすフレームを検出し、その後、検出されたフレームから、前記特定された提示フレームに対して選択条件により示される関係を満たすフレームを選択することにより開始フレームを特定するとしてもよい。
さらに、前記特定手段は、それぞれ異なる特徴を有するフレームを検出する複数の検出手段と、前記第1条件を満たすフレームから前記除外条件を満たすフレームを除外する除外手段と、前記第2条件を満たすフレームから、前記選択条件により示される関係を満たすフレームを選択する選択手段とを含み、前記第1条件、除外条件、及び第2条件は、それぞれ前記複数の検出手段のうちの何れかの使用を指定する識別子からなるとしてもよい。
これによって、コンテンツを複数の視聴区間に区切る場合に、複数の特徴を複合的に用いて各視聴区間の先頭を特定することができる。従って、単一の特徴に基づいて視聴区間の先頭を特定する場合に比較して、より適切に、コンテンツを内容のまとまり毎に切り分けることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する切替フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、CM区間ではなく、且つ、画面上に所定のサイズより大きいテロップが出現するフレームであって、その他に小さなテロップが表示されていないフレームが提示フレームに特定され、提示フレームの直前に画面が転換するフレームが視聴区間の先頭に特定される。
従って、所定の種類のコンテンツが、視聴区間毎に画面が転換し、画面転換した直後に視聴区間の内容を端的に表現したテロップが表示される番組構成であるならば、視聴区間の内容を表現したテロップが表示されているフレームが提示フレームとなり、視聴区間の開始時に画像が切り替るフレームが開始フレームとなる。例えば、1つの事件を報道する毎に画面が転換し、画面の転換後に事件の内容を端的に表現したテロップが画面上に表示されるニュース番組を、1つの事件を報道する毎に1つの視聴区間として区切ることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する切替フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、視聴区間毎に画面が転換し、画面転換した直後に視聴区間の内容を端的に表現したテロップが表示される番組構成のコンテンツをインデクシングする場合に、特定情報により示される特徴を持つフレームを検出するための処理量を減少させることができる。従って、処理時間の短縮をはかることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が所定の音量レベルより小さい無音フレームを検出し、大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する無音フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、CM区間ではなく、且つ、画面上に所定のサイズより大きいテロップが出現するフレームであって、その他に小さなテロップが表示されていないフレームが提示フレームに特定され、提示フレームの直前の無音区間が終わるフレームが視聴区間の先頭に特定される。
従って、所定の種類のコンテンツが、視聴区間の開始時に音声が流れ出し、その後に視聴区間の内容を端的に表現したテロップが表示される番組構成であるならば、視聴区間の内容を表現したテロップが表示されているフレームが提示フレームとなり、視聴区間の開始時に音声が流れ出すフレームが開始フレームとなる。例えば、1つの事件を報道する毎に一旦音声が途絶え、次の事件を報道する音声が開始された後に事件の内容を端的に表現したテロップが画面上に表示されるニュース番組を、1つの事件を報道する毎に1つの視聴区間として区切ることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が所定の音量レベルより小さい無音フレームを検出し、大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する無音フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、視聴区間の前後で一旦音声が途絶え、音声が再開した直後に視聴区間の内容を端的に表現したテロップが表示される番組構成のコンテンツをインデクシングする場合に、特定情報により示される特徴を持つフレームを検出するための処理量を減少させることができる。従って、処理時間の短縮をはかることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が音楽である一連のフレーム群の先頭のフレームである音楽先頭フレームを検出し、大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する音楽先頭フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、CM区間ではなく、且つ、画面上に所定のサイズより大きいテロップが出現するフレームであって、その他に小さなテロップが表示されていないフレームが提示フレームに特定され、提示フレームの直前の音楽区間の始まりのフレームが視聴区間の先頭に特定される。
従って、音楽の演奏が始まった後、画面に音楽のタイトルや、作曲者名がテロップで表示される音楽番組において、曲のタイトル等のテロップが出現するフレームが提示フレームに特定され、当該音楽が演奏開始されるフレームが、開始フレームに特定される。よって、当該音楽番組を、1曲演奏される毎に1つの視聴区間として区切ることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が音楽である一連のフレーム群の先頭のフレームである音楽先頭フレームを検出し、大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する音楽先頭フレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、音楽の演奏が始まった後、画面に音楽のタイトルや、作曲者がテロップ表示されるコンテンツをインデクシングする場合に、特定情報により示される特徴を持つフレームを検出するための処理量を減少させることができる。従って、処理時間の短縮をはかることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が特定の話者によるスピーチである一連のフレーム群の先頭のフレームである話しはじめフレームを検出し、大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する話しはじめフレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、CM区間ではなく、且つ、画面上に所定のサイズより大きいテロップが出現するフレームであって、その他に小さなテロップが表示されていないフレームが提示フレームに特定され、提示フレームの直前のスピーチ区間の始まりのフレームが視聴区間の先頭に特定される。
従って、所定の種類のコンテンツが、視聴区間の開始時に特定の話者が話し始め、その後に視聴区間の内容を端的に表現したテロップが表示される番組構成であるならば、視聴区間の内容を表現したテロップが表示されているフレームが提示フレームとなり、視聴区間の開始時に話者が話し始めるフレームが開始フレームとなる。例えば、1つの話題毎を話す毎に話者が話を一旦止めて、次の話題を話し始めた後に話題の内容を端的に表現したテロップが画面上に表示されるニュース番組、教育番組等を、1つの話題毎に1つの視聴区間として区切ることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が特定の話者によるスピーチである一連のフレーム群の先頭のフレームである話しはじめフレームを検出し、大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、それぞれの提示フレームより前に位置し、且つ最も近くに位置する話しはじめフレームを、それぞれの提示フレームに対する開始フレームとして特定するとしてもよい。
これによって、話題が変わる度に、画面に話題のタイトルがテロップで表示されるコンテンツをインデクシングする場合に、特定情報により示される特徴を持つフレームを検出するための処理量を減少させることができる。従って、インデクシングに要する処理時間の短縮をはかることができる。
また、所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、前記コンテンツに含まれるフレームから、コマーシャルメッセージを構成する一連のフレーム群の先頭のフレームであるCM先頭フレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、それぞれのCM先頭フレームを開始フレームとして特定し、それぞれの開始フレームより後に位置し、且つ最も近くに位置する切替フレームを、それぞれの開始フレームに対する提示フレームとして特定するとしてもよい。
これによって、コンテンツに挿入されたCMを1つづつ視聴区間として区切ることができる。
また、映像処理装置はさらに、前記特定手段により特定された開始フレームから、前記コンテンツを再生する再生手段を備えるとしてもよい。
これによって、映像処理装置は、コンテンツを各視聴区間の先頭から再生することができる。従って、ユーザは適切に区切られた各視聴区間の先頭からコンテンツを視聴することができる。
また、映像処理装置はさらに、各視聴区間について、前記特定手段により特定されたそれぞれの開始フレーム及び提示フレームの表示時刻を記憶するインデックス情報記憶手段と、それぞれの視聴区間について、前記特定手段により特定された提示フレームを提示する提示手段と、提示された提示フレームの少なくとも1つを、ユーザの選択に従って選択するユーザ選択手段とを備え、前記再生手段は、ユーザが選択した提示フレームが属する視聴区間の開始フレームから、コンテンツを再生するとしてもよい。
これによって、ユーザは、テロップなどで視聴区間の内容が把握できる提示フレームで内容を確認した上で、嗜好に合った内容の視聴区間を選択することができる。さらに、選択した提示フレームに対応する視聴区間の先頭からコンテンツを視聴することができる。
また、前記提示手段は、各提示フレームの縮小画像を生成し、当該生成した縮小画像を一覧表示することにより、提示フレームを提示するとしてもよい。
これによって、ユーザは、一覧表示された縮小制止画像により各視聴区間の内容を比較し、嗜好に合った視聴区間を用意に選択することができる。
また、前記ユーザ選択手段は、選択された提示フレームを、参照画像として前記特定情報記憶手段に記憶させ、前記特定手段は、キャプションが現れる領域の位置に関して、参照画像と類似するフレームを検出することにより、提示フレームを特定するとしてもよい。
これによって、ユーザが視聴するために選択した画像を、提示フレームの特定に用いることができる。従って、ユーザが内容を把握できた画像に類似した画像が、以降の提示フレームとして検出され、再生とインデクシングとを繰り返す毎に提示フレームによる内容の把握が容易になる。
また、映像処理装置はさらに、コンテンツと、当該コンテンツの種類情報とを取得し、当該コンテンツと種類情報とを対応づけて記録媒体に記録する録画手段を備え、前記コンテンツ取得手段は、前記録画手段が前記種類情報と、前記コンテンツの少なくとも一部分とを記録した後に、前記記録媒体から記録済みの前記一部分を逐次取得し、前記特定手段は、コンテンツ取得手段が取得した前記一部分に含まれるフレームから、開始フレームを逐次特定するとしてもよい。
これによって、コンテンツの録画と並行して、視聴区間の先頭を特定することができる。
従って、コンテンツの録画後に、改めてコンテンツをインデクシングする時間を必要とせず、本発明に係る映像処理装置のユーザは、インデクシングに要する時間を気にすることなく、当該コンテンツを利用することができる。
また、映像処理装置はさらに、コンテンツと、当該コンテンツの種類情報とを取得し、当該コンテンツを符号化し、符号化したコンテンツと種類情報とを対応づけて記録媒体に記録する録画手段を備え、前記コンテンツ取得手段は、前記録画手段が前記種類情報を記録し、前記コンテンツの少なくとも一部分を符号化した後に、前記コンテンツの符号化された一部分を逐次取得し、前記特定手段は、符号化のために録画手段により処理された前記一部分の解析結果を取得し、当該解析結果を用いて、前記符号化された一部分に含まれる開始フレームを逐次特定するとしてもよい。
これによって、エンコード時の画像の解析結果を、テロップの出現やシーンの切替え等の検出に共用することができる。
従って、インデクシングに要する処理量を減少させ、処理時間の短縮をはかることができる。
また、映像処理装置はさらに、コンテンツの所定の種類に対応する新たな特定情報を取得し、当該新たな特定情報を特定情報記憶手段に記録する更新手段を備えるとしてもよい。
これによって、本発明に係る映像処理装置は、新たな特定情報を取得し、当該特定情報を用いて、コンテンツの開始フレームを特定することができる。
また、前記更新手段は、通信回線を介して特定情報を提供する提供装置と接続し、前記新たな特定情報が利用できると判断した場合に、前記新たな特定情報を取得し、前記所定の種類に対応づけられて前記特定情報記憶手段に記録されている1の特定情報を、前記新たな特定情報に更新することにより、前記新たな特定情報は、特定情報記憶手段に記録されるとしてもよい。
これによって、本発明に係る映像処理装置は、サービス装置に新たな特定情報があるか否かを判定し、取得することができる。
従って、本発明に係る映像処理装置は、任意のタイミングで、特定情報の更新を試みることができる。
また、前記新たな特定情報が利用できるか否かの判定は、前記特定手段が前記所定の種類のコンテンツを処理する度になされるとしてもよい。
これによって、常に最新の特定情報を用いて、コンテンツを複数の視聴区間に区切ることができる。
上記目的を達成するために、本発明に係る集積回路は、コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを特定する映像処理装置の集積回路であって、前記映像処理装置は、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、集積回路は、コンテンツを取得するコンテンツ取得モジュールと、取得された前記コンテンツの種類を示す種類情報を取得する情報取得モジュールと、取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出する抽出モジュールと、抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定する特定モジュールとを備えることを特徴とする。
これによって、コンテンツの種類に応じて特定情報を使い分けることが可能となる。従って、処理するコンテンツの画像や音声の特徴を考慮した特定情報を用いることで、様々な種類のコンテンツを、それぞれ適切に複数の視聴区間に区切ることができる。
上記目的を達成するために、本発明に係る映像処理方法は、コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを特定する映像処理装置における映像処理方法であって、前記映像処理装置は、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、映像処理方法は、コンテンツを取得するステップと、取得された前記コンテンツの種類を示す種類情報を取得するステップと、取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出するステップと、抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定するステップとを含むことを特徴とする。
これによって、複数の種類の特定情報からコンテンツの種類に応じた特定情報を選択し、使い分けることが可能となる。
従って、処理するコンテンツの画像や音声の特徴を考慮した特定情報を用いることで、様々な種類のコンテンツを、それぞれ適切に複数の視聴区間に区切ることができる。
上記目的を達成するために、本発明に係る映像処理プログラムは、コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを、デバイスに特定させる映像処理プログラムであって、前記デバイスは、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、映像処理プログラムは、コンテンツを取得するステップと、取得された前記コンテンツの種類を示す種類情報を取得するステップと、取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出するステップと、抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定するステップとを含むことを特徴とする。
これによって、複数の種類の特定情報からコンテンツの種類に応じた特定情報を選択し、使い分けることが可能となる。
従って、処理するコンテンツの画像や音声の特徴を考慮した特定情報を用いることで、様々な種類のコンテンツを、それぞれ適切に複数の視聴区間に区切ることができる。
以下、本発明の実施の形態について、図を用いて説明する。
(第1実施形態)
<概要>
本実施形態では、本発明に係る映像処理装置の一例として、コンテンツに含まれる各視聴区間の内容を示す提示フレームと、各視聴区間の開始点となる開始フレームとをコンテンツを構成するフレーム群から特定することにより、コンテンツを複数の視聴区間にインデンシングする録画装置100について説明する。
本明細書において、視聴区間とは、コンテンツを特定の内容ごとに切り分けた映像区間のことである。
録画装置100は、どのような条件で提示フレーム及び開始フレームを特定するかを示す特定情報を、コンテンツの種類(ジャンル名、番組名)毎に使い分ける構成を特徴としている。
<構成>
図1は、本発明に係る録画装置100の使用形態を示す図である。
放送局10は、番組のジャンル名、番組名、放送時間等の情報を含む電子番組ガイド(以下、EPG)等のデータ放送と、コンテンツとを伝送する放送波を送信する。
サービス装置20は、インターネットなどの通信網により録画装置100と接続されたコンピュータ等であって、内蔵するHDD等の記録装置に、後述する特定情報(ルール情報、及び検出手順情報)の常に最新の情報を保持し、当該特定情報を、録画装置100の要求に応じて提供する。
録画装置100は、具体的には、HDD内蔵DVDレコーダ、DVDレコーダ、HDDレコーダ等であって、放送局10が送信する放送波を受信し、受信した放送波により伝送されるコンテンツを録画する。録画装置100はさらに、受信した放送波により伝送されるEPGから、ユーザの趣味嗜好に合わせたコンテンツを特定し、当該コンテンツを自動的に録画する自動録画機能と、録画したコンテンツを視聴区間毎にインデクシングするインデクシング機能とを備える。
録画装置100は、プロセッサ、RAM、プログラムを記録したROM等を内部に備え、当該プロセッサが当該ROMに記録されたプログラムを実行することでインデクシング機能を実現する。
以下に、録画装置100の機能構成を説明する。
図2は、録画装置100のインデクシング機能に係る構成を示す図である。録画装置100は、受信部101、録画制御部102、コンテンツ記憶部103、番組取得部104、情報取得部105、ルール記憶部106、選択部107、特定部108、インデックス情報記憶部109、及びルール更新部110の各機能ブロックを含む。
受信部101は、アンテナ、及び受信回路等からなり、放送局10が送信する放送波を受信し、受信した放送波からコンテンツと、EPGとを取得して録画制御部102へ出力する。
録画制御部102は、ユーザによる録画指示、録画予約、及び、ユーザの趣味嗜好に合わせた自動録画等によりコンテンツを録画する録画機能を制御する機能ブロックであり、受信部101から取得したコンテンツをデジタルデータに変換した後、Mpeg2(Moving Picture Experts Group phase 2)等の圧縮符号化技術を用いて圧縮符号化し、圧縮符号化したコンテンツを、コンテンツ記憶部103に記録する。また、録画制御部102は、コンテンツを録画する場合に、当該コンテンツのジャンル名、及び番組名を示す種類情報をEPGに基づいて生成し、当該種類情報をコンテンツに対応付けてコンテンツ記憶部103に記録する。
尚、ユーザの趣味嗜好に合わせた自動録画や、録画予約等により、コンテンツを録画する技術は公知の技術であるので詳細な説明を省略する。
コンテンツ記憶部103は、具体的にはハードディスク、DVD等の記録媒体であり、コンテンツと、種類情報とを対応づけて記録している。コンテンツ記憶部103に記録されているコンテンツは、時間軸に沿って連続した複数のフレーム(静止画像)からなる画像データと、各フレームでの音声を示す音声データとからなる。種類情報は、図3に示すように、コンテンツID、ジャンル名、及び番組名からなる。ここでコンテンツIDとは、コンテンツ記憶部103に記録されているコンテンツを一意に識別する識別子であり、当該録画装置100が録画時に付与するとしてもよいし、EPGにおける番組の識別子を用いるとしてもよい。
尚、通常NTSC(National Television System Committee)方式で放送されているコンテンツは1秒あたり30フレームの画像データを含み、各フレームの表示時刻(コンテンツ先頭からの経過時間)は約33m秒単位で特定できるが、本実施の形態では説明が煩雑になることを避けるため、各フレームの表示時刻を秒単位で説明する。
番組取得部104は、コンテンツ記憶部103に、新たなコンテンツが録画された場合に、当該コンテンツをコンテンツ記憶部103から取得し、特定部108へ出力する。
情報取得部105は、番組取得部104がコンテンツを取得する場合に、当該コンテンツに対応する種類情報をコンテンツ記憶部103から取得し、選択部107へ出力する。
ルール記憶部106は、具体的にはハードディスク、DVD等の記録媒体や、EEPROM等の書き換え可能な不揮発性メモリであって、ルール情報テーブル301と、検出手順情報テーブル302とを記憶している機能ブロックである。また、ルール記憶部106は、内部に参照フレーム記憶領域を含み、当該参照フレーム記憶領域に、後述の類似画像検出部147における画像の解析に用いる参照フレームを、ルール情報テーブル301に登録されているルール情報毎に、番号を付して記憶している。
本実施の形態1においては、1つのルール情報と、当該ルール情報により指定される検出手順情報とによって、特定情報が示される。
各検出手順情報は、インデックス情報記憶部109への提示フレームの表示時刻(以下、「提示時刻」という。)の登録、提示時刻の削除、及び開始フレームの表示時刻(以下、「区間開始時刻」という。)の登録の何れかの指示を示す情報であって、表示時刻がインデックス情報記憶部109への登録、または削除の対象となるフレームの条件と、何れの処理(提示時刻登録、提示時刻削除、区間開始時刻登録)を指示するかを示す情報とからなる。
各ルール情報は、対応づけられた種類のコンテンツを複数の視聴区間にインデクシングする場合に、検出制御部121において処理する検出手順情報の数と、検出手順情報を処理する順番とを示す情報である。
以下に、ルール情報テーブル301と、検出手順情報テーブル302との詳細を説明する。
図4は、ルール記憶部106が記憶しているルール情報テーブル301のデータ構造を示す図である。
ルール情報テーブル301には、コンテンツのジャンル名毎にルール情報が登録されている。
各ルール情報は、番組種類、手順数、及び手順数に示される数の手順IDとからなる。
番組種類は、当該ルール情報が対応するコンテンツのジャンル名を示し、手順数は、当該ルール情報において指定する検出手順情報の数を示す。
手順IDには、検出手順情報の識別子である手順IDが、インデクシング動作時に用いられる順番で配列する。
例えば、ニュース番組1に対応するルール情報は、手順IDが001、004、002、及び003である各検出手順情報を、上記の順番で処理することを示す。
図5は、ルール記憶部106が記憶している検出手順情報テーブル302のデータ構造を示す図である。
検出手順情報テーブル302には、表示時刻がインデックス情報記憶部109への登録または削除の対象となるフレームの条件と、何れの処理(提示時刻登録、提示時刻削除、区間開始時刻登録)を指示するかを示す情報とからなる検出手順情報が登録されている。
各検出手順情報は、手順ID、検出対象フレーム、検出パラメータ、インデックス処理、選択用フレーム、及び前後情報の各情報から構成される。
手順IDは検出手順情報を一意に示す識別子である。
検出対象フレームは、特徴フレーム検出部123において検出の対象となるフレームを示し、検出パラメータは、特徴フレーム検出部123において対象のフレームの検出に用いるパラメータを示す。
インデックス処理は、検出処理部124における、提示時刻、区間開始時刻の登録、または削除を指示する情報であって、具体的には、提示時刻の登録を指示する場合は「提示時刻登録」、提示時刻の削除を指示する場合は「提示時刻削除」、区間開始時刻の登録を指示する場合は「開始時刻登録」の各情報がインデックス処理に設定される。
選択用フレームは、検出処理部124において、表示時刻の登録、または削除の対象となるフレームの選択に用いるフレームを示す情報であって、0:検出対象フレーム、1:登録済みの提示フレーム、及び、2:登録済みの開始フレームの何れかの値をとる。
前後情報は、表示時刻が登録または削除の対象となるフレームを、選択用フレームと、検出対象フレームとの関係によって示す情報であって、0:選択用フレームと一致する検出対象フレーム、1:選択用フレームの直前に位置する検出対象フレーム、及び、2:選択用フレームの直後に位置する検出対象フレームの何れかの値をとる。
例えば、手順ID001の検出手順情報は、特徴フレーム検出部123において、検出パラメータの領域[(X,Y)−(x,y)]によって示される画像の領域内に、閾値[(x,y)]によって示されるサイズより大きなテロップが出現する大テロップ先頭フレームを検出し、検出処理部124において、大テロップ先頭フレーム(選択用フレーム(大テロップ先頭フレーム)と一致する検出対象フレーム(大テロップ先頭フレーム))の表示時刻を、提示時刻として、インデックス情報記憶部109に登録する処理を示す。
また、手順ID002の検出手順情報は、特徴フレーム検出部123において、検出パラメータの領域[(X,Y)−(x,y)]によって示される画面の領域内に、閾値[(x,y)]によって示されるサイズより小さなテロップが存在する小テロップフレームを検出し、検出処理部124において、選択用フレーム(登録済みの提示フレーム)と一致する検出対象フレーム(小テロップフレーム)の表示時刻を、インデックス情報記憶部109に登録済みの提示時刻から削除する処理を示す。
また、手順ID003の検出手順情報は、特徴フレーム検出部123において、時間的に連続して変化する画像から不連続な他の画像に切り替わるフレームである、切替フレームを検出し、検出処理部124において、選択用フレーム(登録済みの提示フレーム)の直前に位置する検出対象フレーム(切替フレーム)の表示時刻を、区間開始時刻として、インデックス情報記憶部109に登録する処理を示す。
図2に示す選択部107は、番組取得部104から取得した種類情報のジャンル名に対応するルール情報と、当該ルール情報により手順IDが示される検出手順情報とを、ルール情報テーブル301、及び検出手順情報テーブル302から取得し、取得したルール情報、及び検出手順情報を特定部108へ出力する。選択部107は、取得したルール情報により複数の手順IDが示されている場合、ルール情報により示される順番で、検出手順情報を特定部108へ出力する。
特定部108は、内部に検出制御部121、データ解析部122、特徴フレーム検出部123、検出処理部124の各機能ブロックを含み、番組取得部104から取得したコンテンツの画像データを構成する複数のフレーム群から、コンテンツを複数の視聴区間に区切る場合に各視聴区間の先頭となるフレームを特定する機能ブロックである。
検出制御部121は、ルール情報により示される順番で、選択部107から検出手順情報を取得し、取得した検出手順情報毎に、当該検出手順情報が示す処理に基づいて、検出パラメータを特徴フレーム検出部123へ出力し、特徴フレーム検出部123、及び検出処理部124の動作を制御する。
データ解析部122は、番組取得部104から取得したコンテンツをデコードし、特徴フレーム検出部123の指示に従ってデコード後の画像データ、及び音声データの特徴量を解析する機能ブロックであり、内部に静止画データ解析部131、動画データ解析部132、及び音声データ解析部133の各機能ブロックを含む。
静止画データ解析部131は、デコードされた画像データにおいて、各フレームの輝度、及び色の分布を解析する。
動画データ解析部132は、デコードされた画像データにおいて、前後する複数のフレーム間の輝度、及び色の変化を解析する。
音声データ解析部133は、デコードされた音声データにおいて、音量レベルの測定、波形の解析、及び音声認識を行う。
特徴フレーム検出部123は、内部に切替検出部141、大テロップ検出部142、小テロップ検出部143、無音検出部144、CM検出部145、音楽先頭検出部146、類似画像検出部147、及びスピーチ先頭検出部148の各機能ブロックを含み、検出制御部121の制御に従って、後述する特徴を持つフレームを、データ解析部122による解析結果を用いてコンテンツから検出する特徴フレーム検出処理を実行する機能ブロックである。さらに、特徴フレーム検出部123は、特徴フレーム検出処理により検出したフレームの表示時刻を、検出処理部124に出力する。
切替検出部141は、時間的に連続して撮影されたフレームの固まりであるシーンが、他のシーンに切り替る切替フレームを検出する機能ブロックであって、時間的に連続するフレーム間での色の分布の変化に基づいて、所定のアルゴリズムによりコンテンツに含まれる切替フレームを全て検出し、検出した切替フレームの表示時刻を検出処理部124に出力する。
大テロップ検出部142は、画像の所定の領域に閾値より大きいテロップが存在するフレームが、画像データにおいて連続する区間の先頭に位置するフレームである、大テロップ先頭フレームを検出する機能ブロックである。大テロップ検出部142は、画像の所定の領域を示す座標データと、テロップの大きさ判定する閾値とを検出制御部121よりバラメータとして取得し、取得したパラメータと、時間的に連続するフレーム間での水平方向の輝度のエッジ画素数の変化とに基づいて、所定のアルゴリズムにより画像の所定の領域に閾値より大きいテロップが出現する大テロップ先頭フレームをコンテンツから全て検出し、検出した大テロップ先頭フレームの表示時刻を検出処理部124に出力する。
小テロップ検出部143は、画像の所定の領域に閾値より小さいテロップが存在するフレームである、小テロップフレームを検出する機能ブロックであって、画像の所定の領域を示す座標データと、テロップの大きさ判定する閾値とを検出制御部121よりバラメータとして取得し、取得したパラメータと、各フレームでの水平方向の輝度のエッジに基づいて、所定のアルゴリズムにより画像の所定の領域に閾値より小さいテロップが存在する小テロップフレームをコンテンツから全て検出し、検出した小テロップフレームの表示時刻を検出処理部124に出力する。
尚、大テロップ検出部142、及び小テロップ検出部143は、画像を解析することで、テロップが表示されるフレームを検出しているが、コンテンツにクローズドキャプション等のテロップに関する詳細なメタ情報が含まれる場合は、画像を解析することなく、メタ情報を利用することも可能である。
無音検出部144は、音声データの音量が閾値より小さい無音区間に相当するフレームである無音フレームを、所定のアルゴリズムによりコンテンツから全て検出し、検出した無音フレームの表示時刻を検出処理部124に出力する。
CM検出部145は、コンテンツのコマーシャルメッセージ(以下、CMとする)区間に相当するフレームであるCMフレームを、所定のアルゴリズムにより検出する機能ブロックであって、無音区間が所定の時間(例えば15秒)間隔で繰り返される区間に相当するフレームを、CMフレームとしてコンテンツから全て検出し、検出したCMフレームの表示時刻を検出処理部124に出力する。
音楽先頭検出部146は、音声データにおいて、特徴音が周期的に繰り返す区間である音楽区間の先頭に位置する音楽先頭フレームを、所定のアルゴリズムによりコンテンツから全て検出し、検出した音楽先頭フレームの表示時刻を検出処理部124に出力する。
類似画像検出部147は、検出制御部121から取得したパラメータにより示される参照フレームを、ルール記憶部106の参照フレーム記憶領域から取得し、取得した参照フレームと、インデックス情報記憶部109に提示時刻として表示時刻が登録されているフレームのうちの参照フレームと画像が類似するフレームである、類似画像フレームを提示フレームから全て検出し、検出した類似画像フレームの表示時刻を検出処理部124に出力する。
尚、参照フレームと画像が類似するフレームの検出とは、参照フレームの特徴的なテロップであるメインテロップの表示位置を特定領域とし、特定領域内の水平方向のエッジ画素数を画像特徴量とし、対象とするフレーム群から類似するフレームを検出する処理としてもよいし、参照フレームのテロップ表示位置を画像特徴として、表示位置が類似するフレームを検出する処理としてもよいし、さらに、その他の特徴に基づいて、フレームの画像を比較するとしてもよい。
スピーチ先頭検出部148は、音声データにおいて、一人の話者によるスピーチが継続する区間であるスピーチ区間の先頭に位置する話はじめフレームを、所定のアルゴリズムによりコンテンツから全て検出し、検出した話はじめフレームの表示時刻を検出処理部124に出力する。
検出処理部124は、内部に代表候補特定部151、代表候補削除部152、及び先頭フレーム特定部153の各機能ブロックを含み、検出制御部121の制御に従って、インデックス情報記憶部109が保持するインデックス情報の書き換え処理を行う機能ブロックである。
代表候補特定部151は、インデックス情報へ提示時刻を登録し、代表候補削除部152は、インデックス情報に登録されている提示時刻を削除し、先頭フレーム特定部153は、インデックス情報へ区間開始時刻を登録する。
インデックス情報記憶部109は、具体的にはハードディスク、DVD等の記録媒体であり、コンテンツ記憶部103に記録されているコンテンツ毎に、コンテンツに含まれる各視聴区間の区間開始時刻と提示時刻とを登録したインデックス情報を記録している。
ルール更新部110は、最新の特定情報(ルール情報、及び検出手順情報)を、インターネット等の通信網を介して接続しているサービス装置20から取得し、ルール記憶部106が保持するルール情報テーブル301と、検出手順情報テーブル302とを最新の情報に更新する機能ブロックである。
ルール更新部110は、録画制御部102によるコンテンツの録画開始を契機として、選択部107による特定情報の選択に先立って、当該コンテンツに対応した最新の特定情報の有無をサービス装置20に確認し、サービス装置20が当該録画装置100のルール記憶部106に記憶している特定情報よりも新しい情報を保持している場合は、新しい特定情報の提供を受ける。
以上の構成により、録画装置100は、複数の特定情報を記憶し、コンテンツの種類に応じて特定情報を使い分けることが可能となり、各コンテンツのジャンル毎に最適なアルゴリズムで構成された特定情報を用意することで、様々な種類のコンテンツを適切にインデクシングすることができる。
尚、録画制御部102、番組取得部104、情報取得部105、選択部107、特定部108、及びルール更新部110の各機能ブロックは、プロセッサがROMに記録されたプログラムを実行することで実現されるが、ワイヤードロジック、ASIC等によりその機能を実現するとしてもよい。
<動作>
次に、上述のように構成された録画装置100において、コンテンツをインデクシングする動作について図を用いて説明する。
図6は、録画装置100のインデクシング動作時の処理の流れを示す図である。
先ず、番組取得部104が、コンテンツ記憶部103に録画されているコンテンツを取得し、特定部108へ出力する(S1)。
次に、情報取得部105は、S1において取得されたコンテンツと対応づけて記録されている種類情報をコンテンツ記憶部103から取得し、当該種類情報を選択部107へ出力する(S2)。種類情報を取得した選択部107は、当該種類情報によって示される「ジャンル名」に対応するルール情報を、ルール記憶部106が保持するルール情報テーブル301から取得し、さらに、取得したルール情報において手順IDが指定されてる検出手順情報を、検出手順情報テーブル302から取得し、取得したルール情報と検出手順情報とを特定部108へ出力する(S3)。
特定部108は、選択部107から取得したルール情報及び、検出手順情報に基づいて、番組取得部104から取得したコンテンツの画像データを構成する複数のフレーム群から、当該コンテンツを複数の視聴区間に区切る場合に各視聴区間の先頭となるフレームを特定する区間特定処理を実行し(S4)、インデクシング動作を終了する。
以上の動作により、本実施の形態1に係る録画装置100は、コンテンツの種類に応じて特定情報を使い分け、適切にインデクシングすることができる。
次に、図6のS4に示す、ルール情報及び、検出手順情報に基づいて、各視聴区間の先頭となるフレームを特定する区間特定処理の詳細について説明する。
図7は、区間特定処理の流れを示す図である。
先ず、検出制御部121は、選択部107から取得した検出手順情報のうち未処理の検出手順情報があるか否かを判定する(S11)。
未処理の検出手順情報がある場合は(S11:Yes)、未処理の検出手順情報のうち、ルール情報により示される順番で最も先頭に近い検出手順情報を処理対象に決定し(S12)、決定した検出手順情報に従って、特徴フレーム検出部123、及び検出処理部124を制御し、検出手順情報が示す条件のフレームをコンテンツから特定してインデックス情報記憶部109が記憶しているインデックス情報を更新するフレーム検出処理を実行する(S13)。
フレーム検出処理の終了後、S11にもどり他の未処理の検出手順情報についても同様に処理を行う。
検出制御部121が、上記のステップを繰り返し、全ての検出手順情報に基づいてフレーム検出処理を完了する(S11:No)ことにより、インデックス情報には、各視聴区間の区間開始時刻と、提示時刻とが登録される。
以上の動作により、特定部108は、選択部107において選択されたルール情報により指示される順番で、検出手順情報を処理することができる。
続いて、図7のS13において、特徴フレーム検出部123、及び検出処理部124が、検出手順情報が示す条件のフレームをコンテンツから特定し、検出したフレームを用いてインデックス情報を更新するフレーム検出処理の詳細について説明する。
図8は、フレーム検出処理の流れを示す図である。
先ず、特徴フレーム検出部123は、番組取得部104から取得したコンテンツの画像データを構成するフレーム群に、未解析のフレームがあるか否かを判定する(S21)。
未解析のフレームがある場合は(S21:Yes)、特徴フレーム検出部123は、未解析のフレームのうちの先頭のフレームを解析対象として選択し(S22)、当該フレームが、処理中の検出手順情報により示される検出対象フレームか否かを、検出対象のフレームを検出する内部の機能ブロックを用いて判定する(S23)。解析対象のフレームが検出対象フレームではない場合は(S23:No)、S21に戻り、次のフレームの解析に移る。解析対象のフレームが検出対象フレームである場合は(S23:Yes)、当該フレームの表示時刻をメモリ上に確保した領域に記録し(S24)、その後、S21に戻り、次のフレームの解析に移る。
特徴フレーム検出部123は、上記のステップを繰り返し、コンテンツに含まれる検出対象のフレームの表示時刻のリストをメモリ上の領域に作成する。コンテンツの全てのフレームについて解析が終了した場合(S21:No)、検出処理部124は、メモリ上の領域に作成された検出対象のフレームの表示時刻のリストを取得し、取得した検出対象のフレームとの表示時刻と、処理中の検出手順情報が示す選択用フレームとを用いて、当該検出手順情報が示す条件でインデックス情報を更新する(S25)。
以上の動作により、特徴フレーム検出部123は、検出手順情報により示される検出対象のフレームを、コンテンツの画像データを構成するフレームからもれなく検出することができる。
<動作例1>
以下に、本実施の形態1に係る録画装置100におけるインデクシングの具体例を、60分間のニュース番組であるコンテンツ401を用いて説明する。
図9は、コンテンツの一例であるコンテンツ401の映像特徴を模式的に示す図である。図の横軸は時間軸である。上端に付された数字は、コンテンツ401開始後の経過時間(分単位)を示す。
時間軸402上の矩形は、画像下部に閾値より大きいテロップが表示されるフレームの表示区間を示し、時間軸403上の矩形は、コンテンツ401に広告目的で挿入されている、CMに相当するフレームの表示区間示す。また、時間軸404上の矩形は、画面下部以外の領域に閾値より小さいテロップが表示されるフレームの表示区間を示し、時間軸405上の縦線は、時間的に連続して撮影されたフレームの固まりであるシーンが、他のシーンに切り替わる時刻を示す。
インデクシングの対象となるコンテンツ401のジャンル名は、「ニュース番組1」であり、選択部107は、図4に示すルール情報テーブル301から、ニュース番組1に対応づけられたルール情報を取得し、さらに、取得したルール情報により手順IDが示される001、004、002、003の4つの検出手順情報を図5に示す検出手順情報テーブル302から取得し、それぞれを特定部108に出力する。
特定部108は、「ニュース番組1」のルール情報により手順IDが示される順番に従い、検出手順情報が示すフレーム検出処理を実行する。
先ず、ルール情報により示される順番が1番目である手順ID001の検出手順情報に基づいて、大テロップ検出部142が、コンテンツ401から、大テロップ先頭フレームを全て検出し、代表候補特定部151が、検出された大テロップ先頭フレームの表示時刻を、提示時刻としてインデックス情報に登録する。
図10は、手順ID001の検出手順情報に基づいて、大テロップ検出部142が検出した大テロップ先頭フレームの表示時刻リストを示す図であり、図11は、手順ID001の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図である。
次に、ルール情報により示される順番が2番目である手順ID004の検出手順情報に基づいて、CM検出部145が、コンテンツ401から、CMフレームを全て検出する。図12は、手順ID004の検出手順情報に基づいて、CM検出部145が検出したCMフレームの表示時刻リストを示す図である。実際には、CM検出部145は、コンテンツ401に含まれる全てのCMフレームを検出するが、図12では、図の表記を簡略化するためCMフレームが連続する区間の開始時刻と、終了時刻によりCMフレームの表示時刻を示している。
CM検出部145によるCMフレームの検出が完了すると、代表候補削除部152が、手順ID004の検出手順情報に従い、検出されたCMフレームの表示時刻と一致する区間開始時刻を、インデックス情報から削除する。
具体的には、図11に示すインデックス情報から、13:00、29:00、45:00、58:00の各提示時刻が削除される。図13は、手順ID004の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図である。
次に、ルール情報により示される順番が3番目である手順ID002の検出手順情報に基づいて、小テロップ検出部143が、コンテンツ401から、小テロップフレームを全て検出する。図14は、手順ID002の検出手順情報に従い、小テロップ検出部143が検出した小テロップフレームの表示時刻リストを示す図である。尚、図14では、図12と同様に、小テロップフレームが連続する区間の開始時刻と、終了時刻により小テロップフレームの表示時刻を示している。
小テロップ検出部143による小テロップフレームの検出が完了すると、代表候補削除部152が、検出された小テロップフレームの表示時刻と一致する区間開始時刻を、インデックス情報から削除する。
具体的には、図13に示すインデックス情報から、08:00、24:00、33:00、40:00、45:30の各提示時刻が削除される。図15は、手順ID002の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図である。
次に、ルール情報により示される順番が4番目である手順ID003の検出手順情報に基づいて、切替検出部141が、コンテンツ401から、切替フレームを全て検出する。図16は、手順ID003の検出手順情報に基づいて、切替検出部141が検出した切替フレームの表示時刻リストを示す図である。実際には、切替検出部141は、コンテンツ401に含まれる全ての切替フレームを検出するが、CM区間中のフレームが手順ID002の検出手順情報により提示フレームから除外されているため、CM区間に中に含まれる切替フレームは、手順ID003の検出手順情報が指定するフレーム(提示フレームの直前に位置する切替フレーム)にはなりえない。そこで、図16では、CM区間に中に含まれる切替フレームの表示時刻の記載を省略している。
切替検出部141による切替フレームの検出が完了すると、最後に手順ID003の検出手順情報に従い、先頭フレーム特定部153が、インデックス情報に登録済みの提示フレームの直前に位置する切替フレームの表示時刻を、区間開始時刻としてインデックス情報に登録する。
具体的には、図15に示すインデックス情報に登録されている提示時刻00:45、19:30、30:30、及び51:15に対して、区間開始時刻00:00、19:00、30:30、及び50:00が登録される。図17は、ニュース番組1に対応付けられたルール情報に従って、コンテンツ401のインデクシングが完了した場合のインデックス情報を示す図である。
図9の時間軸406上の丸の位置は、開始フレームに特定されたフレームを示し、時間軸407上の三角形の位置は、提示フレームに特定されたフレームを示す。
以上の処理によれば、一つの事件を報道する毎に、報道する事件の内容を端的に表現したテロップが、画面上に表示されるニュース番組を適切にインデクシングする事ができる。
具体的には、事件内容を表現したテロップが出現するフレームが、提示フレームに特定され、当該事件を読み出す前に、事件を読み上げる話者に画像が切り替るフレームが、開始フレームに特定される。
図18の(a)に示す画像は、開始フレームの一例であり、図18の(b)に示す画像は、提示フレームの一例であり、図18の(c)に示す画像は、手順ID001の検出手順情報に基づいた処理において、インデックス情報に提示フレームとして表示時刻が登録されるが、その後、手順ID002の検出手順情報に基づいた処理において、インデックス情報から削除されるために、最終的に提示フレームとはならないフレームの一例である。
<動作例2>
次に、録画装置100におけるインデクシングの他の具体例を説明する。
上記説明したコンテンツ401のジャンル名が「ニュース番組3」であった場合、ルール情報テーブル301からニュース番組3に対応づけられたルール情報が取得される。
「ニュース番組3」のルール情報には、手順ID001、004、002、及び005が指定されており、「ニュース番組3」のルール情報に基づいてコンテンツ401をインデクシングする場合、1から3番目までの検出手順情報(手順IDが001、004、及び002の検出手順情報)については、「ニュース番組1」のルール情報に基づくインデクシングと同様に処理される。
その後に、ルール情報により示される順番が4番目である手順ID005の検出手順情報に基づいて、無音検出部144が、コンテンツ401から、無音フレームを全て検出する。
無音検出部144による無音フレームの検出が完了すると、最後に手順ID005の検出手順情報に従い、先頭フレーム特定部153が、インデックス情報に登録済みの提示フレームの直前に位置する無音フレームの表示時刻を、区間開始時刻としてインデックス情報に登録する。
以上の処理によれば、一つの事件を報道する毎に、報道する事件の内容を端的に表現したテロップが、画面上に表示されるニュース番組を適切にインデクシングする事ができる。
具体的には、事件内容を表現したテロップが出現するフレームが、提示フレームに特定され、当該事件を読み出す前直前の無音区間の末尾のフレームが、開始フレームに特定される。
<動作例3>
次に、録画装置100におけるインデクシングのさらに他の具体例を説明する。
上記説明したコンテンツ401のジャンル名が「音楽番組1」であった場合、ルール情報テーブル301から音楽番組1に対応づけられたルール情報が取得される。
「音楽番組1」のルール情報には、手順ID001、004、002、及び006が指定されており、「音楽番組1」のルール情報に基づいてコンテンツ401をインデクシングする場合、1から3番目までの検出手順情報(手順IDが001、004、及び002の検出手順情報)については、「ニュース番組1」のルール情報に基づくインデクシングと同様に処理される。
その後に、ルール情報により示される順番が4番目である手順ID006の検出手順情報に基づいて、音楽先頭検出部146が、コンテンツ401から、音楽先頭フレームを全て検出する。
音楽先頭検出部146による音楽先頭フレームの検出が完了すると、最後に手順ID006の検出手順情報に従い、先頭フレーム特定部153が、インデックス情報に登録済みの提示フレームの直前に位置する音楽先頭フレームの表示時刻を、区間開始時刻としてインデックス情報に登録する。
以上の処理によれば、音楽の演奏が始まった後、画面に曲のタイトルや、作曲者がテロップ表示される音楽番組を適切にインデクシングする事ができる。
具体的には、音楽が演奏開始されるフレームが、開始フレームに特定され、曲のタイトル等のテロップ表示が出現するフレームが提示フレームに特定される。
<動作例4>
次に、録画装置100におけるインデクシングのさらに他の具体例を説明する。
上記説明したコンテンツ401のジャンル名が「ニュース番組5」であった場合、ルール情報テーブル301から音楽番組1に対応づけられたルール情報が取得される。
「ニュース番組5」のルール情報には、手順ID001、004、002、及び010が指定されており、「ニュース番組5」のルール情報に基づいてコンテンツ401をインデクシングする場合、1から3番目までの検出手順情報(手順IDが001、004、及び002の検出手順情報)については、「ニュース番組1」のルール情報に基づくインデクシングと同様に処理される。
その後に、ルール情報により示される順番が4番目である手順ID010の検出手順情報に基づいて、スピーチ先頭検出部148が、コンテンツ401から、話はじめフレームを全て検出する。
スピーチ先頭検出部148による話はじめフレームの検出が完了すると、最後に手順ID010の検出手順情報に従い、先頭フレーム特定部153が、インデックス情報に登録済みの提示フレームの直前に位置する話はじめフレームの表示時刻を、区間開始時刻としてインデックス情報に登録する。
以上の処理によれば、一つの事件を報道する毎に、報道する事件の内容を端的に表現したテロップが、画面上に表示されるニュース番組を適切にインデクシングする事ができる。
具体的には、事件内容を表現したテロップが出現するフレームが、提示フレームに特定され、当該事件の内容を話者が話始めるフレームが、開始フレームに特定される。
尚、「ニュース番組1」、「ニュース番組3」、「音楽番組1」、及び「ニュース番組5」のルール情報に基づいたインデクシングでは、録画装置100は、ルール情報に指定される各検出手順情報が示す検出対象のフレームを、コンテンツ401の画像データ全体から検出する。しかし、コンテンツにCM区間が含まれていることがあるが、CMはコンテンツの内容とはかかわりがないため、CMフレームは開始フレームにも提示フレームにもなりえない。
そこで、コンテンツ401をインデクシングする場合に、コンテンツ401の画像データ全体からCMフレームを検出する処理を示する検出手順情報を最初に実行し、2番目以降の検出手順情報に基づいた処理では、コンテンツ401の画像データからCMフレームに相当するフレームを除外した残りのフレームから、検出対象のフレームを検出することで、データ解析部122における解析の処理量を減少させることができる。これにより処理時間の短縮をはかることができる。
例えば、「ニュース番組2」のルール情報は、1番めにコンテンツからCM区間を除外する処理を示す検出手順情報の実行を指示し、続いて手順ID001、002、003の検出手順情報の実行を指示する。また、「ニュース番組4」のルール情報は、1番めにコンテンツからCM区間を除外する処理を示す検出手順情報の実行を指示し、続いて手順ID001、002、005の検出手順情報の実行を指示する。また、「音楽番組2」のルール情報は、1番めにコンテンツからCM区間を除外する処理を示す検出手順情報の実行を指示し、続いて手順ID001、002、006の検出手順情報の実行を指示する。「ニュース番組6」のルール情報は、1番めにコンテンツからCM区間を除外する処理を示す検出手順情報の実行を指示し、続いて手順ID001、002、010の検出手順情報の実行を指示する。
録画装置100は、さらに、上記以外のルール情報によりコンテンツをインデクシングしてもよい。
例えば、コンテンツにおいて、手順ID001の検出手順情報に基づいて、大テロップ先頭フレームの表示時刻を、提示時刻としてインデックス情報に登録し、次に、手順ID004の検出手順情報に基づいて、CMフレームの表示時刻を、インデックス情報に登録されている提示時刻から削除し、手順ID009の検出手順情報に基づいて、インデックス情報に提示時刻が登録されているフレームのそれぞれと、ルール記憶部106の参照フレーム記憶領域に記憶されている参照フレームとを比較し、参照フレームとテロップの表示位置が類似するフレームである、類似画像フレーム以外のフレームを、インデックス情報の提示時刻から削除することで、提示フレームを特定してもよい。
また、インデックス情報に、表示時刻が提示時刻として登録されたフレーム間で、画像中でテロップが表示される領域の矩形の重なりや重心間距離を比較し、類似度の低いフレームを提示フレームから削除することによって、さらに提示フレームを絞り込むとしてもよい。
また他の例として、コンテンツにおいてコンテンツの各CM区間の先頭のCM先頭フレームを検出し、検出したフレームのそれぞれを開始フレームに特定し、さらに、コンテンツの画像データに含まれる切替フレームを検出し、検出した切替フレームのうちの開始フレームの直後に位置するフレームを提示フレームに特定するすることで、コンテンツのCM区間に含まれるCMを1つづつ切り分けてもよい。
尚、本実施の形態1に係る録画装置100は、特徴フレーム検出部123において切替フレーム、小テロップフレーム、大テロップ先頭フレーム、無音フレーム、CMフレーム、音楽先頭フレーム、及び類似フレームを検出するとしたが、さらに他の特徴を持つフレームを検出するとしてもよい。
また、録画装置100は、図5の検出手順情報テーブル302に示す例に限定されず、他の処理を指示する検出手順情報を備えるとしてもよい。
例えば、以下のような検出手順情報を備えるとしてもよい。
1.CMフレームの直前に位置する提示時刻を、インデックス情報から削除する処理を示す検出手順情報
2.CMフレームの表示時刻から、閾値時間以前までの提示時刻を、インデックス情報から削除する処理を示す検出手順情報
3.所定の閾値時間内に含まれる登録済みの提示時刻のうち、先頭以外の提示時刻を、インデックス情報から削除する処理を示す検出手順情報
4.画像の所定の領域にテロップが存在するフレームが所定の時間以下連続する短期テロップ区間の先頭に位置するフレームである、短期テロップ先頭フレームを検出し、検出した短期テロップ先頭フレームの表示時刻を、提示時刻としてインデックス情報へ登録する処理を示す検出手順情報
5.画面の所定の領域に垂直方向のテロップが存在する縦テロップフレームを検出し、検出した縦テロップフレームの表示時刻と一致する提示時刻を、インデックス情報から削除する処理を示す検出手順情報
6.インデックス情報に登録済みの提示時刻のうち、CMフレームの直後に位置する提示時刻以外の提示時刻を、インデックス情報から削除する処理を示す検出手順情報
7.提示時刻から、閾値時間以前までの時間内で、最も長く連続する無音区間の先頭に位置するフレームを検出し、当該検出したフレームの表示時刻を、区間開始時刻としてインデックス情報に登録する処理を示す検出手順情報
8.切替フレームであり且つ無音フレームであるフレームを検出し、当該検出したフレームのうちの提示フレームの直前に位置するフレームの表示時刻を、区間開始時刻としてインデックス情報に登録する処理を示す検出手順情報
9.切替フレームであり且つ音楽先頭フレームであるフレームを検出し、当該検出したフレームのうちの提示フレームの直前に位置するフレームの表示時刻を、区間開始時刻としてインデックス情報に登録する処理を示す検出手順情報
以上のような様々な検出手順情報を組み合わせた特定情報をコンテンツの種類毎に使い分けることで、本実施の形態1に係る録画装置100は、それぞれが異なる映像特徴を持つ様々なコンテンツを高い精度で視聴区間に切り分けることができる。尚、視聴区間の切り分けの精度とは、人がコンテンツを視聴して、内容のまとまり毎に切り分けた視聴区間と、映像処理装置によって切り分けた視聴区間とを比較した場合の適合率を指す。
尚、本実施の形態1に係る録画装置100は、検出手順情報を逐次処理することにより開始フレーム、及び提示フレームを特定しているが、各検出手順情報が示す検出対象のフレームの検出を一括して処理し、検出したフレームから、各検出手順情報が示す条件により開始フレーム、及び提示フレームを選択するとしてもよい。
また、検出手順情報が示す検出対象のフレームをコンテンツの全体から検出する必要はなく、既知のフレームから、時間軸の逆方向にフレームの検出処理を実行するとしてもよい。例えば、提示フレームの直前に位置する切替フレームを開始フレームとする場合、コンテンツ全体から切替フレームを検出し、検出したフレームから提示フレームの直前に位置するフレームを選択するのではなく、各提示フレームから、時間軸の逆方向に切替フレームの検出処理を行い、最初に検出された切替フレームを開始フレームとするとしてもよい。これにより、コンテンツの画像解析に要する処理量を抑えることができる。
また、コンテンツのインデクシングは、コンテンツの複数の区間で並列して処理するとしてもよい。これによりインデクシングの処理時間の短縮を図ることができる。
(第2実施形態)
本実施形態では、本発明に係る映像処理装置の一例として、再生装置200について説明する。
図19は、本発明に係る再生装置200の使用形態を示す図である。
再生装置200は、内部に備えるコンテンツ記憶部103に記録しているコンテンツを、モニタ30において再生することができる。また、再生装置200は、コンテンツ記憶部103に記録しているコンテンツを複数の視聴区間にインデクシングし、インデクシングした各視聴区間の提示フレームのサムネイル画像を、モニタ30に一覧表示することができる。さらに、再生装置200は、ユーザによるリモコン40の操作によって、提示フレームのサムネイル画像の一覧表示から、何れかの提示フレームのサムネイル画像の選択を受け付け、提示フレームのサムネイル画像が選択された視聴区間の先頭から、コンテンツを再生することができる。
図20は、再生装置200の機能構成を示す図である。
再生装置200は、録画装置100から録画にかかわる機能ブロックである受信部101と、録画制御部102とを取り除き、再生にかかわる機能ブロックであるサムネイル画像生成部201と、サムネイル一覧表示部202と、ユーザ選択部203と、再生制御部204とを追加した構成である。
尚、録画装置100と同様の機能ブロックには同一の符号を付し、それらの説明を省略する。
サムネイル画像生成部201は、コンテンツの各提示フレームの縮小静止画像である代表サムネイル画像を生成する機能ブロックであって、インデックス情報記憶部109のインデックス情報に登録されている各視聴区間の提示時刻を参照し、コンテンツ記憶部103に記録されているコンテンツの画像データから、提示フレームを取得し、取得した提示フレームから代表サムネイル画像を生成する。
サムネイル一覧表示部202は、サムネイル画像生成部201により生成された各視聴区間の代表サムネイル画像を、モニタ30に一覧表示する機能ブロックである。サムネイル一覧表示部202は、代表サムネイル画像を一覧表示すると共に、各画像毎に区間開始時刻と、提示時刻とを管理し、ユーザ選択部203から代表サムネイル画像の選択が通知されると、選択された代表サムネイル画像の区間開始時刻を再生制御部204へ通知する。
ユーザ選択部203は、ユーザによる操作を受け付け、一覧表示された代表サムネイル画像のうちの1つ以上の代表サムネイル画像を選択し、選択結果をサムネイル一覧表示部202に通知する機能ブロックである。また、ユーザ選択部203は、何れかの代表サムネイル画像を選択した場合に、選択した代表サムネイル画像を、ルール記憶部106の参照フレーム記憶領域へ記録する。
再生制御部204は、コンテンツの生成を制御する機能ブロックであって、サムネイル一覧表示部202から区間開始時刻の通知を受けた場合は、当該区間開始時刻により示される開始フレームから、コンテンツ記憶部103に記録されているコンテンツを再生する。
以上の構成により、再生装置200は、各視聴区間の内容をテロップなどにより把握することができる画像(提示フレーム)のサムネイルを一覧表示でユーザに提示しつつ、ユーザが何れかのサムネイルを選択した場合には、選択されたサムネイルの元になったフレーム(提示フレーム)からではなく、選択されたサムネイルが対応する視聴区間の先頭(開始フレーム)から再生を開始することができる。
以下に、図9に示すコンテンツ401を例として、サムネイル一覧表示、及び再生の処理について具体的に説明する。尚、コンテンツ401は既にインデクシングされ、インデックス情報記憶部109には、コンテンツ401のインデックス情報が記憶されているものとする。
先ず、サムネイル画像生成部201は、インデックス情報記憶部109に記憶されているコンテンツ401のインデックス情報を参照し、コンテンツ記憶部103に記録されているコンテンツ401の画像データから、表示時刻がインデックス情報に登録されている各提示時刻情報と一致するフレームを取得し、取得したフレーム毎に縮小静止画像である代表サムネイル画像を生成する。
具体的には、インデックス情報に登録されている各提示時刻00:45、19:30、30:30、51:15に対応する4つのフレームから、代表サムネイル画像が生成される。
サムネイル一覧表示部202は、サムネイル画像生成部201が生成した各代表サムネイル画像を取得し、モニタ30に一覧表示する。
ユーザ選択部203は、ユーザによる操作に従い、何れか代表サムネイル画像を選択し、選択結果をサムネイル一覧表示部202に通知し、さらに、選択された代表サムネイル画像をルール記憶部106の参照フレーム記憶領域へ記録する。尚、参照フレーム記憶領域には、代表サムネイル画像の画像データそのものでなく、コンテンツ401において、代表サムネイル画像の元となったフレームを特定する情報であってもよい。
サムネイル一覧表示部202は、ユーザ選択部203からの通知をうけ、選択された代表サムネイル画像の区間開始時刻を再生制御部204へ通知する。
再生制御部204は、通知された区間開始時刻から、コンテンツ401を再生する。
具体的には、提示時刻00:45のフレームから生成された代表サムネイル画像が選択された場合は、区間開始時刻00:00からコンテンツ401が再生され、提示時刻19:30のフレームから生成された代表サムネイル画像が選択された場合は、区間開始時刻19:00からコンテンツ401が再生され、提示時刻30:30のフレームから生成された代表サムネイル画像が選択された場合は、区間開始時刻30:30からコンテンツ401が再生され、提示時刻51:15のフレームから生成された代表サムネイル画像が選択された場合は、区間開始時刻50:00からコンテンツ401が再生される。
尚、ユーザ選択部203により、複数の代表サムネイル画像が選択された場合、選択された複数の代表サムネイル画像を、ルール記憶部106の参照フレーム記憶領域へ記録する。
また、複数の代表サムネイル画像が選択された場合、再生制御部204は、選択された複数の代表サムネイル画像に対応する視聴区間を順次再生するプレイリスト機能を備えるとしてもよい。
(第3実施形態)
<概要>
Mpeg2形式への圧縮符号化処理には、画像データ及び音声データを解析して特徴量を検出する処理が含まれる。本実施形態では、圧縮符号化処理の過程で得られる画像データ及び音声データの解析結果をコンテンツの切り分けに用いることにより、特定部の構成を簡素化した録画装置について説明する。
<構成>
図21は、第3実施形態に係る録画装置300の機能構成を示す図である。録画装置300は、録画装置100から番組取得部104を取り除き、特定部108を特定部111に置換した構成である。尚、録画装置100と同様の機能ブロックには同一の符号を付し、それらの説明を省略する。
特定部111は、特定部108からデータ解析部122を取り除いた構成である。特定部111は、コンテンツを圧縮符号化する際に解析された画像データ及び音声データの解析結果を、録画制御部102から取得し、取得した解析結果を用いてインデックス情報を生成する。
以上の構成により、録画装置300は、録画の際に得られる解析結果を用いて、録画制御部102におけるコンテンツの録画と並行してインデックス情報を生成するので、再生装置200と比較して装置構成を簡素化することができる。
さらに、録画済みのコンテンツの画像データ及び音声データを解析する必要がないので、インデックスに要するデータ処理量を抑えることができる。
(その他の変形例)
本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(1)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(2)本発明は、映像処理装置の制御を行うLSIとしても実施可能である。このようなLSIは、図2、図20、及び図21で図示するように、破線で囲んだ機能ブロックの一部または全部を集積化することで実現できる。これらの機能ブロックは、個別に1チップ化されても良いし一部または全てを含むように1チップ化されてもよい。
例えば、図22は、第2実施形態に係る特定部108を集積化したLSI400を示す図である。LSI400は、インデクシングを指示する命令を受け付けると、コンテンツ記憶部103から読み出された再生信号を解析して、インデックス情報を生成し、インデックス情報記憶部109へ出力する。
また、図23は、第3実施形態に係る録画制御部102、及び特定部111を集積化したLSI500を示す図である。LSI500は、録画命令を受け付けると、受信部101で受信された映像データ及び音声データをデジタルデータに変換後、Videoエンコーダ及びAudioエンコーダにおいて圧縮符号化してエレメンタリーストリーム(以下、「ES」という。)を生成する。その後、システムエンコーダにおいて映像及び音声のESを多重化してプログラムストリーム(以下、「PS」という。)を生成し、コンテンツ記憶部103へ出力する。さらに、LSI500は、受け付けた録画命令にインデクシングを指示するタグが付されている場合、Videoエンコーダ及びAudioエンコーダにおける圧縮符号化の際に得られた解析結果を用いて、特徴フレーム検出部及び検出処理部においてインデックス情報を生成し、インデックス情報記憶部109へ出力する。
尚、ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または、汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。このような技術には、バイオ技術の適応等が可能性としてありえる。
(3)本発明は、録画装置、及び再生装置に限定されないことは勿論であって、本発明は、本実施の形態に係る録画装置100が備える機能ブロックと、本実施の形態に係る再生装置200が備える機能ブロックとを共にそなえた録画再生装置にも適用可能であることは言うまでもない。
(4)本実施の形態では、コンテンツを放送波から取得するとしたが、コンテンツは、地上波アナログ放送、地上波デジタル放送、衛生放送、衛生デジタル放送、ケーブルテレビ放送等の放送から取得するとしてもよいし、インターネット等におけるオンデマンド配信により取得するとしてもよいし、DVD、CD、SDカード等の記録媒体に記録された情報から取得するとしてもよい。また、ユーザがホームビデオにより撮影した映像コンテンツであってもよい。
(5)本実施の形態では、コンテンツのジャンル名に対応づけられた特定情報を選択する構成を示したが、特定情報は、コンテンツの番組名に対応づけられているとしてもよい。
また、番組名に対応づけられた特定情報と、ジャンル名に対応づけられた特定情報とを混在させてルール記憶部に記憶させ、所定のコンテンツをインデクシングする場合に、当該所定のコンテンツの番組名に対応づけられた特定情報がルール記憶部に記憶されていれば、当該番組名に対応づけられた特定情報を用いてコンテンツをインデクシングし、前記所定のコンテンツの番組名に対応づけられた特定情報がルール記憶部に記憶されていなければ、ジャンル名に対応づけられた特定情報を用いて前記所定のコンテンツをインデクシングするとしてもよい。
(6)本実施の形態に係る録画装置は、コンテンツの録画完了を契機として、コンテンツのインデクシングを開始するとしてもよいし、コンテンツの録画開始を契機として、コンテンツのインデクシングを開始するとしてもよい。
コンテンツの録画開始を契機として、コンテンツのインデクシングを開始する場合、コンテンツのデータが、コンテンツ記憶部に所定量記録される毎に、または、コンテンツ記憶部への記録が所定時間経過する毎に、コンテンツ記憶部から当該所定量のデータを取得し、取得した所定量のデータにおいてインデクシングするとしてもよい。このような動作は、書込用バッファと、読込用バッファとを用いて、所謂「追っかけ再生」を実現する動作と同様に、
1.書込用バッファ中のデータをコンテンツ記憶部へ記録し、読込用バッファ中のデータにおいてインデクシングを実行するステップ
2.コンテンツを書込用バッファへ書き込み、コンテンツ記憶部から記録済みのデータを読込用バッファへ読み出すステップ
の各ステップを交互に実行することで実現される。
(7)本実施の形態に係る録画装置は、所定のコンテンツの録画が予約されたことを契機として、当該所定のコンテンツの種類に対応する特定情報を更新するとしてもよい。
また、本実施の形態に係る録画装置は、最新の特定情報の有無を、定期的にサービス装置へ確認し、サービス装置が最新の特定情報を記憶している場合に、当該特定情報を取得するとしてもよい。
さらに、本実施の形態に係る録画装置は、定期的な更新によりサービス装置から最新の特定情報を取得した場合に、既にインデクシングされているコンテンツを、当該最新の特定情報に基づいて、インデクシングし直すとしてもよい。
(8)本実施の形態においては、特定情報の一例として、ルール情報と複数の検出手順情報とからなる情報群を説明したが、特定情報の実現方法は、本実施の形態に限定されないのは勿論である。
特定情報は、それぞれ何らかの特徴を持つフレームをコンテンツから検出する複数のアルゴリズムを、実行する順番を定めた情報と、検出するフレームの特徴を示すパラメータとを示す情報であればよく、例えば、特定情報を、提示フレームと開始フレームとを特定する手順を記述した機械語プログラムとして実現するとしてもよい。
(9)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明の適用例としては、録画したコンテンツを、複数の視聴区間に分割し、視聴区間毎に再生する録画再生装置等がある。
本発明に係る録画装置100の使用形態を示す図。 録画装置100の機能構成を示す図。 種類情報のデータ構成を示す図。 ルール記憶部106が記憶しているルール情報テーブル301のデータ構造を示す図。 ルール記憶部106が記憶している検出手順情報テーブル302のデータ構造を示す図。 録画装置100のインデクシング動作時の処理の流れを示す図。 区間特定処理の流れを示す図。 フレーム検出処理の流れを示す図。 コンテンツの一例であるコンテンツ401の映像特徴を模式的に示す図。 手順ID001の検出手順情報に基づいて、大テロップ検出部142が検出した大テロップ先頭フレームの表示時刻リストを示す図。 手順ID001の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図。 手順ID004の検出手順情報に基づいて、CM検出部145が検出したCMフレームの表示時刻リストを示す図。 手順ID004の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図。 手順ID002の検出手順情報に基づいて、小テロップ検出部143が検出した小テロップフレームの表示時刻リストを示す図。 手順ID002の検出手順情報に示される処理が終了した段階でのコンテンツ401のインデックス情報を示す図。 手順ID003の検出手順情報に基づいて、切替検出部141が検出した切替フレームの表示時刻リストを示す図。 ニュース番組1に対応付けられたルール情報に従って、コンテンツ401のインデクシングが完了した場合のインデックス情報を示す図。 コンテンツ401を構成するフレームの一例を示す図。 本発明に係る再生装置200の使用形態を示す図。 再生装置200の機能構成を示す図。 第3実施形態に係る録画装置300の機能構成を示す図。 第2実施形態に係る特定部108を集積化したLSI400を示す図。 第3実施形態に係る録画制御部102、及び特定部111を集積化したLSI500を示す図。
符号の説明
10 放送局
20 サービス装置
30 モニタ
40 リモコン
100 録画装置
101 受信部
102 録画制御部
103 コンテンツ記憶部
104 番組取得部
105 情報取得部
106 ルール記憶部
107 選択部
108 特定部
109 インデックス情報記憶部
110 ルール更新部
111 特定部
121 検出制御部
122 データ解析部
123 特徴フレーム検出部
124 検出処理部
131 静止画データ解析部
132 動画データ解析部
133 音声データ解析部
141 切替検出部
142 大テロップ検出部
143 小テロップ検出部
144 無音検出部
145 CM検出部
146 音楽先頭検出部
147 類似画像検出部
148 スピーチ先頭検出部
151 代表候補特定部
152 代表候補削除部
153 先頭フレーム特定部
200 再生装置
201 サムネイル画像生成部
202 サムネイル一覧表示部
203 ユーザ選択部
204 再生制御部
300 録画装置
301 ルール情報テーブル
302 検出手順情報テーブル
400、500 LSI
401 コンテンツ
402〜407 時間軸

Claims (27)

  1. コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレーミングとなるフレームを特定する映像処理装置であって、
    開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段と、
    コンテンツを取得するコンテンツ取得手段と、
    取得された前記コンテンツの種類を示す種類情報を取得する情報取得手段と、
    取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出する抽出手段と、
    抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定する特定手段と
    を備えることを特徴とする映像処理装置。
  2. それぞれの特定情報はさらに、各視聴区間を代表する静止画像として提示される提示フレームとして特定すべきフレームの特徴を示し、
    前記特定手段はさらに、前記抽出された特定情報に基づいて、前記コンテンツにおいて、提示フレームを特定すること
    を特徴とする請求項1に記載の映像処理装置。
  3. 前記特定手段において特定された開始フレーム及び提示フレームの表示時刻を、前記取得されたコンテンツに対応づけて記憶するインデックス情報記憶手段をさらに備えること
    を特徴とする請求項2に記載の映像処置装置。
  4. 前記特定情報において示される特徴は、動画像解析、制止画像解析、及び音声解析のうちの少なくとも1つにより検出され、
    前記特定手段は、動画像解析、静止画像解析、及び、音声解析のうち少なくとも1つにより、開始フレーム、及び提示フレームを特定すること
    を特徴とする請求項2に記載の映像処理装置。
  5. 前記特定情報は、
    提示フレームの候補として検出されるべきフレームの特徴を示す第1条件と、
    提示フレームの候補から除外されるべきフレームの特徴を示す除外条件と、
    開始フレームの候補として検出されるべきフレームの特徴を示す第2条件と、
    提示フレームと、開始フレームに選択されるべきフレームとの関係を示す選択条件とを含み、
    前記特定手段は、
    前記コンテンツに含まれるフレームから、第1条件を満たすフレームを検出し、その後、検出されたフレームから除外条件を満たすフレームを除くことにより提示フレームを特定し、
    さらに、前記コンテンツに含まれるフレームから、第2条件を満たすフレームを検出し、その後、検出されたフレームから、前記特定された提示フレームに対して選択条件により示される関係を満たすフレームを選択することにより開始フレームを特定すること
    を特徴とする請求項4に記載の映像処理装置。
  6. 前記特定手段は、
    それぞれ異なる特徴を有するフレームを検出する複数の検出手段と、
    前記第1条件を満たすフレームから前記除外条件を満たすフレームを除外する除外手段と、
    前記第2条件を満たすフレームから、前記選択条件により示される関係を満たすフレームを選択する選択手段とを含み、
    前記第1条件、除外条件、及び第2条件は、それぞれ前記複数の検出手段のうちの何れかの使用を指定する識別子からなること
    を特徴とする請求項5に記載の映像処理装置。
  7. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する切替フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  8. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、
    残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する切替フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に記載の映像処理装置。
  9. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が所定の音量レベルより小さい無音フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する無音フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  10. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、
    残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が所定の音量レベルより小さい無音フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する無音フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に記載の映像処理装置。
  11. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が音楽である一連のフレーム群の先頭のフレームである音楽先頭フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する音楽先頭フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  12. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、
    残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が音楽である一連のフレーム群の先頭のフレームである音楽先頭フレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する音楽先頭フレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  13. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれるフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、コンテンツのコマーシャルメッセージを構成するCMフレーム、及び、音声が特定の話者によるスピーチである一連のフレーム群の先頭のフレームである話しはじめフレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームとCMフレームとを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する話しはじめフレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  14. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれる全てのフレームから、コマーシャルメッセージを構成するフレームを除外し、
    残りのフレームから、所定の領域に閾値よりも大きいサイズのキャプションが連続して現れる一連のフレーム群の先頭のフレームである大キャプション先頭フレーム、前記所定の領域以外の領域に閾値よりも小さいサイズのキャプションが現れる小キャプションフレーム、及び、音声が特定の話者によるスピーチである一連のフレーム群の先頭のフレームである話しはじめフレームを検出し、
    大キャプション先頭フレームから、小キャプションフレームを除外した残りのフレームを、提示フレームとして特定し、
    それぞれの提示フレームより前に位置し、且つ最も近くに位置する話しはじめフレームを、それぞれの提示フレームに対する開始フレームとして特定すること
    を特徴とする請求項4に映像処理装置。
  15. 所定の種類のコンテンツに対応する特定情報に基づいて、前記特定手段は、
    前記コンテンツに含まれるフレームから、コマーシャルメッセージを構成する一連のフレーム群の先頭のフレームであるCM先頭フレーム、及び、類似した画像が連続する一連のフレーム群の先頭のフレームである切替フレームを検出し、
    それぞれのCM先頭フレームを開始フレームとして特定し、
    それぞれの開始フレームより後に位置し、且つ最も近くに位置する切替フレームを、それぞれの開始フレームに対する提示フレームとして特定すること
    を特徴とする請求項4に示す映像処理装置。
  16. 前記コンテンツを、前記特定手段により特定された開始フレームから再生する再生手段をさらに備えること
    を特徴とする請求項2に示す映像処理装置。
  17. 映像処理装置はさらに、
    各視聴区間について、前記特定手段により特定されたそれぞれの開始フレーム及び提示フレームの表示時刻を記憶するインデックス情報記憶手段と、
    それぞれの視聴区間について、前記特定手段により特定された提示フレームを提示する提示手段と、
    提示された提示フレームの少なくとも1つを、ユーザの選択に従って選択するユーザ選択手段とを備え、
    前記再生手段は、ユーザが選択した提示フレームが属する視聴区間の開始フレームから、コンテンツを再生すること
    を特徴とする請求項16に示す映像処理装置。
  18. 前記提示手段は、各提示フレームの縮小画像を生成し、当該生成した縮小画像を一覧表示することにより、提示フレームを提示すること
    を特徴とする請求項17に示す映像処理装置。
  19. 前記ユーザ選択手段は、選択された提示フレームを、参照画像として前記特定情報記憶手段に記憶させ、
    前記特定手段は、キャプションが現れる領域の位置に関して、参照画像と類似するフレームを検出することにより、提示フレームを特定すること
    を特徴とする請求項17に示す映像処理装置。
  20. 映像処理装置はさらに、
    コンテンツと、当該コンテンツの種類情報とを取得し、当該コンテンツと種類情報とを対応づけて記録媒体に記録する録画手段を備え、
    前記コンテンツ取得手段は、前記録画手段が前記種類情報と、前記コンテンツの少なくとも一部分とを記録した後に、前記記録媒体から記録済みの前記一部分を逐次取得し、
    前記特定手段は、コンテンツ取得手段が取得した前記一部分に含まれるフレームから、開始フレームを逐次特定すること
    を特徴とする請求項1に示す映像処理装置。
  21. 映像処理装置はさらに、
    コンテンツと、当該コンテンツの種類情報とを取得し、当該コンテンツを符号化し、符号化したコンテンツと種類情報とを対応づけて記録媒体に記録する録画手段を備え、
    前記コンテンツ取得手段は、前記録画手段が前記種類情報を記録し、前記コンテンツの少なくとも一部分を符号化した後に、前記コンテンツの符号化された一部分を逐次取得し、
    前記特定手段は、符号化のために録画手段により処理された前記一部分の解析結果を取得し、当該解析結果を用いて、前記符号化された一部分に含まれる開始フレームを逐次特定すること
    を特徴とする請求項1に示す映像処理装置。
  22. コンテンツの所定の種類に対応する新たな特定情報を取得し、当該新たな特定情報を特定情報記憶手段に記録する更新手段をさらに備えること
    を特徴とする請求項1に示す映像処理装置。
  23. 前記更新手段は、通信回線を介して特定情報を提供する提供装置と接続し、前記新たな特定情報が利用できると判断した場合に、前記新たな特定情報を取得し、
    前記所定の種類に対応づけられて前記特定情報記憶手段に記録されている1の特定情報を、前記新たな特定情報に更新することにより、前記新たな特定情報は、特定情報記憶手段に記録されること
    を特徴とする請求項22に示す映像処理装置。
  24. 前記新たな特定情報が利用できるか否かの判定は、前記特定手段が前記所定の種類のコンテンツを処理する度になされること
    を特徴とする請求項23に示す映像処理装置。
  25. コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを特定する映像処理装置の集積回路であって、
    前記映像処理装置は、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、
    集積回路は、
    コンテンツを取得するコンテンツ取得モジュールと、
    取得された前記コンテンツの種類を示す種類情報を取得する情報取得モジュールと、
    取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出する抽出モジュールと、
    抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定する特定モジュールと
    を備えることを特徴とする集積回路。
  26. コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを特定する映像処理装置における映像処理方法であって、
    前記映像処理装置は、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、
    映像処理方法は、
    コンテンツを取得するステップと、
    取得された前記コンテンツの種類を示す種類情報を取得するステップと、
    取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出するステップと、
    抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定するステップと
    を含むことを特徴とする映像処理方法。
  27. コンテンツを複数の視聴区間に区切る場合に、各視聴区間の開始フレームとなるフレームを、デバイスに特定させる映像処理プログラムであって、
    前記デバイスは、開始フレームとして特定すべきフレームの特徴を示す特定情報を、それぞれ異なるコンテンツの種類毎に対応付けて記憶している特定情報記憶手段を有し、
    映像処理プログラムは、
    コンテンツを取得するステップと、
    取得された前記コンテンツの種類を示す種類情報を取得するステップと、
    取得された種類情報が示す種類に対応する特定情報を、前記特定情報記憶手段から抽出するステップと、
    抽出された特定情報に基づいて、前記コンテンツにおいて、開始フレームを特定するステップと
    を含むことを特徴とする映像処理プログラム。
JP2006516861A 2003-07-03 2004-07-02 映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラム Expired - Lifetime JP4584250B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003191430 2003-07-03
PCT/JP2004/009782 WO2005004159A1 (en) 2003-07-03 2004-07-02 Video processing apparatus, ic circuit for video processing apparatus, video processing method, and video processing program

Publications (2)

Publication Number Publication Date
JP2007521736A true JP2007521736A (ja) 2007-08-02
JP4584250B2 JP4584250B2 (ja) 2010-11-17

Family

ID=33562360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006516861A Expired - Lifetime JP4584250B2 (ja) 2003-07-03 2004-07-02 映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラム

Country Status (7)

Country Link
US (1) US7941031B2 (ja)
EP (1) EP1642295A1 (ja)
JP (1) JP4584250B2 (ja)
KR (1) KR20060027826A (ja)
CN (1) CN1816879A (ja)
TW (1) TW200509676A (ja)
WO (1) WO2005004159A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109852A (ja) * 2008-10-31 2010-05-13 Hitachi Ltd 映像インデクシング方法、映像録画再生装置、及び映像再生装置

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US8574074B2 (en) 2005-09-30 2013-11-05 Sony Computer Entertainment America Llc Advertising impression determination
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US8458754B2 (en) 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US8751310B2 (en) 2005-09-30 2014-06-10 Sony Computer Entertainment America Llc Monitoring advertisement impressions
US8763157B2 (en) * 2004-08-23 2014-06-24 Sony Computer Entertainment America Llc Statutory license restricted digital media playback on portable devices
JP4613867B2 (ja) * 2005-05-26 2011-01-19 ソニー株式会社 コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム
US8626584B2 (en) * 2005-09-30 2014-01-07 Sony Computer Entertainment America Llc Population of an advertisement reference list
US10657538B2 (en) 2005-10-25 2020-05-19 Sony Interactive Entertainment LLC Resolution of advertising rules
US8676900B2 (en) 2005-10-25 2014-03-18 Sony Computer Entertainment America Llc Asynchronous advertising placement based on metadata
US11004089B2 (en) 2005-10-25 2021-05-11 Sony Interactive Entertainment LLC Associating media content files with advertisements
US20070118425A1 (en) 2005-10-25 2007-05-24 Podbridge, Inc. User device agent for asynchronous advertising in time and space shifted media network
US8280195B2 (en) 2006-03-24 2012-10-02 Nec Corporation Video data indexing system, video data indexing method and program
WO2007114241A1 (ja) * 2006-03-29 2007-10-11 Pioneer Corporation 映像処理装置
CN103279874B (zh) 2006-05-05 2016-08-03 美国索尼电脑娱乐公司 广告旋转
JP4327827B2 (ja) * 2006-07-28 2009-09-09 株式会社東芝 映像記録再生システムおよび映像記録再生方法
JP4945236B2 (ja) * 2006-12-27 2012-06-06 株式会社東芝 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
US20080235587A1 (en) * 2007-03-23 2008-09-25 Nextwave Broadband Inc. System and method for content distribution
US8955030B2 (en) * 2007-03-23 2015-02-10 Wi-Lan, Inc. System and method for personal content access
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
US8769558B2 (en) 2008-02-12 2014-07-01 Sony Computer Entertainment America Llc Discovery and analytics for episodic downloaded media
US8320717B2 (en) 2008-03-31 2012-11-27 Brother Kogyo Kabushiki Kaisha Image processor
JP5091806B2 (ja) * 2008-09-01 2012-12-05 株式会社東芝 映像処理装置及びその方法
GB2470570B (en) * 2009-05-27 2014-07-16 Snell Ltd Determining a regional shot change parameter
US9565479B2 (en) * 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
US8763090B2 (en) 2009-08-11 2014-06-24 Sony Computer Entertainment America Llc Management of ancillary content delivery and presentation
US8126987B2 (en) 2009-11-16 2012-02-28 Sony Computer Entertainment Inc. Mediation of content-related services
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US10372758B2 (en) * 2011-12-22 2019-08-06 Tivo Solutions Inc. User interface for viewing targeted segments of multimedia content based on time-based metadata search criteria
CN103686032A (zh) * 2012-09-14 2014-03-26 晨星软件研发(深圳)有限公司 产生略缩图的方法与装置
US9680689B2 (en) 2013-02-14 2017-06-13 Comcast Cable Communications, Llc Fragmenting media content
US9094618B1 (en) * 2013-03-14 2015-07-28 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a bug-overlay DVE with absolute timing restrictions
US9185309B1 (en) 2013-03-14 2015-11-10 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a snipe-overlay DVE
US9049386B1 (en) 2013-03-14 2015-06-02 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a bug-overlay DVE
US9473801B1 (en) 2013-03-14 2016-10-18 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a bug-removal DVE
US9549208B1 (en) 2013-03-14 2017-01-17 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a multi-video-source DVE
US9532086B2 (en) 2013-11-20 2016-12-27 At&T Intellectual Property I, L.P. System and method for product placement amplification
CN111050201B (zh) * 2019-12-10 2022-06-14 Oppo广东移动通信有限公司 数据处理方法、装置、电子设备及存储介质
KR20210107480A (ko) 2020-02-24 2021-09-01 삼성전자주식회사 전자장치 및 그 제어방법

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219835A (ja) * 1996-02-13 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法および装置
JPH09233422A (ja) * 1996-02-26 1997-09-05 Oki Electric Ind Co Ltd 動画像処理システムにおける動画像情報検出装置
JPH11167583A (ja) * 1997-12-04 1999-06-22 Nippon Telegr & Teleph Corp <Ntt> テロップ文字認識方法および映像蓄積表示装置、テロップ文字認識・検索端末、映像検索端末
JPH11205679A (ja) * 1998-01-20 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 映像中字幕文字検出方法およびその装置およびその方法を記録した記録媒体
JPH11239363A (ja) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 映像中文字領域抽出装置および方法およびその方法を記録した記録媒体
WO1999051022A1 (en) * 1998-03-31 1999-10-07 Mate - Media Access Technologies Ltd. Method of selecting key-frames from a video sequence
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2002044572A (ja) * 2000-07-21 2002-02-08 Sony Corp 情報信号処理装置及び情報信号処理方法および情報信号記録装置
JP2002199333A (ja) * 2000-12-27 2002-07-12 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2002330392A (ja) * 2001-04-27 2002-11-15 Toshiba Corp 映像概要作成装置および方法およびプログラム
JP2003101939A (ja) * 2001-07-17 2003-04-04 Pioneer Electronic Corp 映像情報要約装置、映像情報要約方法及び映像情報要約プログラム
JP2003513564A (ja) * 1999-11-04 2003-04-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動的閾値を使用する視覚的索引付けシステムの重要シーン検出及びフレームフィルタリング

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366699B1 (en) * 1997-12-04 2002-04-02 Nippon Telegraph And Telephone Corporation Scheme for extractions and recognitions of telop characters from video data
JPH11250081A (ja) 1998-02-27 1999-09-17 Toshiba Corp マルチメディア情報処理装置および記録媒体
US7209942B1 (en) 1998-12-28 2007-04-24 Kabushiki Kaisha Toshiba Information providing method and apparatus, and information reception apparatus
JP2000250944A (ja) 1998-12-28 2000-09-14 Toshiba Corp 情報提供方法、情報提供装置、情報受信装置、並びに情報記述方法
US7184100B1 (en) * 1999-03-24 2007-02-27 Mate - Media Access Technologies Ltd. Method of selecting key-frames from a video sequence
JP4253410B2 (ja) 1999-10-27 2009-04-15 シャープ株式会社 ニュース記事切り出し装置
US7548565B2 (en) * 2000-07-24 2009-06-16 Vmark, Inc. Method and apparatus for fast metadata generation, delivery and access for live broadcast program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219835A (ja) * 1996-02-13 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 映像要約方法および装置
JPH09233422A (ja) * 1996-02-26 1997-09-05 Oki Electric Ind Co Ltd 動画像処理システムにおける動画像情報検出装置
JPH11167583A (ja) * 1997-12-04 1999-06-22 Nippon Telegr & Teleph Corp <Ntt> テロップ文字認識方法および映像蓄積表示装置、テロップ文字認識・検索端末、映像検索端末
JPH11205679A (ja) * 1998-01-20 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 映像中字幕文字検出方法およびその装置およびその方法を記録した記録媒体
JPH11239363A (ja) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 映像中文字領域抽出装置および方法およびその方法を記録した記録媒体
WO1999051022A1 (en) * 1998-03-31 1999-10-07 Mate - Media Access Technologies Ltd. Method of selecting key-frames from a video sequence
JP2000299829A (ja) * 1999-04-13 2000-10-24 Canon Inc 画像処理装置及び方法
JP2003513564A (ja) * 1999-11-04 2003-04-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動的閾値を使用する視覚的索引付けシステムの重要シーン検出及びフレームフィルタリング
JP2002044572A (ja) * 2000-07-21 2002-02-08 Sony Corp 情報信号処理装置及び情報信号処理方法および情報信号記録装置
JP2002199333A (ja) * 2000-12-27 2002-07-12 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2002330392A (ja) * 2001-04-27 2002-11-15 Toshiba Corp 映像概要作成装置および方法およびプログラム
JP2003101939A (ja) * 2001-07-17 2003-04-04 Pioneer Electronic Corp 映像情報要約装置、映像情報要約方法及び映像情報要約プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109852A (ja) * 2008-10-31 2010-05-13 Hitachi Ltd 映像インデクシング方法、映像録画再生装置、及び映像再生装置

Also Published As

Publication number Publication date
US20060143650A1 (en) 2006-06-29
EP1642295A1 (en) 2006-04-05
TW200509676A (en) 2005-03-01
KR20060027826A (ko) 2006-03-28
JP4584250B2 (ja) 2010-11-17
WO2005004159A8 (en) 2006-04-20
CN1816879A (zh) 2006-08-09
US7941031B2 (en) 2011-05-10
WO2005004159A1 (en) 2005-01-13

Similar Documents

Publication Publication Date Title
JP4584250B2 (ja) 映像処理装置、映像処理装置の集積回路、映像処理方法、及び映像処理プログラム
JP4000171B2 (ja) 再生装置
US8165306B2 (en) Information retrieving method, information retrieving device, information storing method and information storage device
JP4491700B2 (ja) 音響検索処理方法、音響情報検索装置、音響情報蓄積方法、音響情報蓄積装置および音響映像検索処理方法、音響映像情報検索装置、音響映像情報蓄積方法、音響映像情報蓄積装置
JP2008124574A (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
US20070179786A1 (en) Av content processing device, av content processing method, av content processing program, and integrated circuit used in av content processing device
JP2007336283A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP3988205B2 (ja) 映像信号記録再生装置、映像信号記録再生方法、映像信号再生装置及び映像信号再生方法
JP4432823B2 (ja) 特定条件区間検出装置および特定条件区間検出方法
JP2010016521A (ja) 映像処理装置および映像処理方法
JP4276042B2 (ja) 索引データ生成装置、索引データ生成方法、索引データ生成プログラムおよびそれを記録した情報記録媒体、並びに、コンテンツデータ再生装置、コンテンツデータ再生方法、コンテンツデータ再生プログラムおよびそれを記録した情報記録媒体
US20050232598A1 (en) Method, apparatus, and program for extracting thumbnail picture
KR101396964B1 (ko) 녹화물 재생방법 및 장치
CN101169958B (zh) 存储和再现交互数字广播信号的方法及其装置
JP2007288687A (ja) 放送記録装置及び放送記録方法
JP2007243501A (ja) 映像再生装置
JP4168395B2 (ja) 録画番組一覧用サムネイル画像の作成方法、及び映像信号記録再生装置
US20060048204A1 (en) Method of storing a stream of audiovisual data in a memory
JP4858214B2 (ja) 映像信号記録再生装置及び映像信号記録再生方法
KR20070075728A (ko) 디지털 방송 수신기에서 녹화물 탐색 방법 및 그 장치
JP2004023589A (ja) Cm削除装置
JP2006303868A (ja) 信号属性判定装置、信号属性判定方法、情報信号記録装置、情報信号記録方法、情報信号再生装置、情報信号再生方法、情報信号記録再生装置および情報信号記録再生方法並びに記録媒体
JP4760893B2 (ja) 動画記録再生装置
JP2005136558A (ja) 放送番組記録装置、放送番組再生装置、放送番組記録再生装置及び放送番組記録再生方法
JP2011004197A (ja) 録画再生装置及び再生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100901

R150 Certificate of patent or registration of utility model

Ref document number: 4584250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term