JP2011151605A - Image creation device, image creation method, and program - Google Patents

Image creation device, image creation method, and program Download PDF

Info

Publication number
JP2011151605A
JP2011151605A JP2010011127A JP2010011127A JP2011151605A JP 2011151605 A JP2011151605 A JP 2011151605A JP 2010011127 A JP2010011127 A JP 2010011127A JP 2010011127 A JP2010011127 A JP 2010011127A JP 2011151605 A JP2011151605 A JP 2011151605A
Authority
JP
Japan
Prior art keywords
image
common part
moving image
representative
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010011127A
Other languages
Japanese (ja)
Inventor
Atsumi Okita
敦美 沖田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010011127A priority Critical patent/JP2011151605A/en
Publication of JP2011151605A publication Critical patent/JP2011151605A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To identify the contents of distributed programs based on reproduced images by selecting and reproducing moving picture parts different from each other even if a plurality of pieces of moving picture content include the common moving picture. <P>SOLUTION: A cellular phone terminal configured as a moving picture reproducing device has a common part search section 37 which searches the common part for the plurality of pieces of moving picture content, a representative image selecting section 38 which selects a representative image of each moving picture content from parts other than the searched common part, and a thumbnail reproduction processor 34 which displays the representative image as a thumbnail image when displaying the representative image on a display device 12. Thumbnail images not included in the common part of moving picture content are displayed, so that the same thumbnail image is not displayed for different pieces of moving picture content and the contents of distributed programs can be identified based on reproduced thumbnail images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像作成装置、画像作成方法、及びプログラムに関し、より詳細には、動画コンテンツを取得して、その動画コンテンツの代表画像を作成して表示可能とする画像作成装置、画像作成方法、及びプログラムに関する。   The present invention relates to an image creation device, an image creation method, and a program. More specifically, the present invention relates to an image creation device, an image creation method, and an image creation method capable of acquiring moving image content and creating and displaying a representative image of the moving image content And the program.

受信した放送番組やBD(blu-ray Disc(登録商標))等の記録媒体や、インターネット等のネットワークから取得した動画コンテンツを再生して出力する機能を有する動画再生装置がある。このような動画再生装置では、例えば、取得した動画コンテンツに含まれる画像を静止画のサムネイルとして出力したり、動画サムネイル(サムネイルを動画により表示するもの)を生成して出力する処理が行われるものがある。   There is a moving image reproducing apparatus having a function of reproducing and outputting a moving image content acquired from a recording medium such as a received broadcast program or BD (blu-ray Disc (registered trademark)) or a network such as the Internet. In such a moving image playback device, for example, an image included in the acquired moving image content is output as a still image thumbnail, or a processing for generating and outputting a moving image thumbnail (a thumbnail that is displayed as a moving image) is performed. There is.

従来、動画コンテンツの静止画または動画をサムネイル画像にして表示させる場合、
その動画コンテンツの先頭付近の静止画、または動画の一部が使用されることが多い。しかしながら、単に動画コンテンツの先頭付近を抽出してサムネイルを生成するだけでは、その動画コンテンツの特徴を常に適切に反映したものにはなるとは限らない。このような問題に対する対策として、その動画コンテンツの特徴を適切に表したサムネイル画像を生成するための技術がいくつか提案されている。
Conventionally, when displaying still images or videos of video content as thumbnail images,
In many cases, a still image near the top of the moving image content or a part of the moving image is used. However, simply extracting the vicinity of the beginning of the moving image content and generating a thumbnail does not always reflect the characteristics of the moving image content appropriately. As countermeasures against such problems, several techniques for generating thumbnail images that appropriately represent the characteristics of the moving image content have been proposed.

例えば、特許文献1には、映像信号及び音声信号を多重化した動画像データの記録再生を行う際に、映像信号及び音声信号の両方の物理変化量から不要シーンを特定し、特定した不要シーン以外のシーンからサムネイルを作成する技術が開示されている。   For example, in Patent Document 1, when recording and reproducing moving image data in which a video signal and an audio signal are multiplexed, an unnecessary scene is specified from the physical change amount of both the video signal and the audio signal, and the specified unnecessary scene is specified. A technique for creating thumbnails from scenes other than the above is disclosed.

特開2009−124298号公報JP 2009-124298 A

例えば、毎回同じオープニングが放送される所謂続きもの等の番組を複数の放送回分録画した場合を考える。この場合、録画した番組の先頭付近でサムネイルを作成すると、複数回分録画した番組のいずれの場合にも同じようなサムネイル画像になってしまう。またこのときに、動画サムネイルを作成したとしても、しばらくの間再生しないとどのような内容であるのかをユーザが把握することが難しい。このような放送番組は、放送回が異なる番組であっても登場人物が同じであったり、画像のシチュエーションが似通っており、ユーザとしては、何回目の放送でどのような内容であるかがピンポイントに分かるようなサムネイル画像であって欲しいという要望がある。   For example, consider a case where a program such as a so-called continuation in which the same opening is broadcast every time is recorded for a plurality of broadcast times. In this case, if a thumbnail is created near the beginning of the recorded program, a similar thumbnail image is obtained for any of the programs recorded for a plurality of times. At this time, even if a moving image thumbnail is created, it is difficult for the user to understand what the content is unless it is played back for a while. In such broadcast programs, even if the broadcast times are different, the characters are the same or the situation of the image is similar. There is a demand for the thumbnail image to be understood by the point.

このような要望に応えるために、例えば、動画の先頭付近以外の画像を選択することが考えられる。しかしながら、例えば上記特許文献1のように不要シーンを特定し、不要シーン以外からサムネイルを作成する手法では、映像信号及び音声信号の物理変化量を計算して比較する必要があり、処理負荷が大きい。また、動画に含まれるCMの部分や変化の乏しい部分などは物理変化量によりある程度省くことができるが、番組の内容が濃く表されているオープニングの映像などは番組ごとにさまざまであり、物理変化量からはこのようなオープニング映像を削除することができないこともある。例えば、連続して放送される番組では、毎回共通のオープニング部分が放送されることも多く、異なる放送回の番組であってもサムネイルが共通となってしまい、ユーザが番組を区別することができなくなる、という課題が生じる。   In order to meet such a demand, for example, it is conceivable to select an image other than the vicinity of the top of the moving image. However, in the method of specifying an unnecessary scene and creating a thumbnail from other than the unnecessary scene as in Patent Document 1, for example, it is necessary to calculate and compare the physical change amounts of the video signal and the audio signal, and the processing load is large. . In addition, the part of CM included in the video and the part with little change can be omitted to some extent by the amount of physical change, but the opening video etc. where the contents of the program are expressed deeply vary from program to program, and the physical change Depending on the amount, such an opening video may not be deleted. For example, in a program that is broadcast continuously, a common opening portion is often broadcast each time, and even in a program of different broadcast times, the thumbnail is common, and the user can distinguish the program. The problem of disappearing arises.

本発明は、上述のごとき実情に鑑みてなされたもので、異なる動画コンテンツであるにもかかわらず共通の動画像が含まれる動画コンテンツであっても、互いに異なる動画の部分を抽出して代表画像を作成することにより、その代表画像から番組の内容を区別することができるようにした画像作成装置、画像作成方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and even if the moving image content includes a common moving image even though the moving image content is different, a portion of the moving image that is different from each other is extracted and the representative image is extracted. It is an object of the present invention to provide an image creating apparatus, an image creating method, and a program that can distinguish the contents of a program from the representative image.

上記課題を解決するために、本発明の第1の技術手段は、動画コンテンツを取得して該動画コンテンツの代表画像を作成する画像作成装置であって、複数の動画コンテンツ間の共通部分を探索する共通部分探索部と、該共通部分探索部によって探索された共通部分以外の部分から、各動画コンテンツの代表画像を作成する画像作成部を有することを特徴としたものである。   In order to solve the above-described problem, a first technical means of the present invention is an image creation device that acquires moving image content and creates a representative image of the moving image content, and searches for a common portion between the plurality of moving image contents And an image creation unit that creates a representative image of each moving image content from a part other than the common part searched by the common part search unit.

第2の技術手段は、第1の技術手段において、前記画像作成部が、前記動画コンテンツの画像データから前記代表画像とする画像データを選択し、もしくは前記動画コンテンツから前記代表画像を取得可能な動画再生情報を選択する代表画像選択部と、
該代表画像選択部が選択した画像データ、もしくは該代表画像選択部が選択した前記動画再生情報に基づいて前記動コンテンツから代表画像を取得することにより、所定の表示手段に表示可能な前記代表画像を作成する表示画像処理部とを有することを特徴としたものである。
According to a second technical means, in the first technical means, the image creation unit can select image data to be the representative image from the image data of the moving image content, or can acquire the representative image from the moving image content A representative image selection unit for selecting video playback information;
The representative image that can be displayed on a predetermined display means by acquiring a representative image from the moving content based on the image data selected by the representative image selection unit or the moving image reproduction information selected by the representative image selection unit And a display image processing unit for generating the image data.

第3の技術手段は、第1または第2の技術手段において、前記画像作成部は、前記共通部分の終了直後の画像を前記代表画像として作成することを特徴としたものである。   According to a third technical means, in the first or second technical means, the image creation unit creates an image immediately after the end of the common part as the representative image.

第4の技術手段は、第1または第2の技術手段において、前記画像作成部は、前記共通部分の開始直前の画像を前記代表画像として作成することを特徴としたものである。   According to a fourth technical means, in the first or second technical means, the image creating unit creates an image immediately before the start of the common part as the representative image.

第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記画像作成部は、少なくとも前記共通部分の一部を含む特定期間の画像を前記代表画像として作成することを特徴としたものである。   According to a fifth technical means, in any one of the first to fourth technical means, the image creation unit creates an image of a specific period including at least a part of the common part as the representative image. It is what.

第6の技術手段は、第1〜第5のいずれか1の技術手段において、前記画像作成部は、前記共通部分の終了から所定期間分後の画像、もしくは前記共通部分の開始から所定期間分前の画像を前記代表画像として作成することを特徴としたものである。   A sixth technical means is the technical means according to any one of the first to fifth technical means, wherein the image creating unit is an image after a predetermined period from the end of the common part or a predetermined period from the start of the common part. A previous image is created as the representative image.

第7の技術手段は、第1〜第6のいずれか1の技術手段において、前記画像作成部が作成した前記代表画像を表示する表示装置を備えることを特徴としたものである。   A seventh technical means is any one of the first to sixth technical means, comprising a display device for displaying the representative image created by the image creating unit.

第8の技術手段は、第1〜第7のいずれか1の技術手段において、前記画像作成部が作成した代表画像を記録する記録装置を備えることを特徴としたものである。   According to an eighth technical means, in any one of the first to seventh technical means, a recording device for recording the representative image created by the image creating unit is provided.

第9の技術手段は、動画コンテンツを取得して、該動画コンテンツの代表画像を作成する画像作成方法であって、複数の動画コンテンツ間の共通部分を探索する共通部分探索ステップと、該共通部分探索ステップによって探索された共通部分以外の部分から、各動画コンテンツの代表画像を作成する代表画像作成ステップとを有することを特徴としたものである。   A ninth technical means is an image creation method for acquiring moving image content and generating a representative image of the moving image content, a common portion search step for searching for a common portion between a plurality of moving image contents, and the common portion A representative image creating step of creating a representative image of each moving image content from a portion other than the common portion searched by the searching step.

第10の技術手段は、第1〜第8のいずれか1の技術手段の画像作成装置の機能をコンピュータに実現させるためのプログラムである。   The tenth technical means is a program for causing a computer to realize the function of the image creating apparatus of any one of the first to eighth technical means.

本発明によれば、異なる動画コンテンツであるにもかかわらず共通の動画像が含まれる動画コンテンツであっても、互いに異なる動画の部分を抽出して概評画像を作成することにより、その代表画像から番組の内容を区別することができるようにした画像作成装置、画像作成方法、及びプログラムを提供することができる。   According to the present invention, even for moving image content that includes a common moving image even though it is different moving image content, by extracting a portion of moving images that are different from each other and creating an overview image, It is possible to provide an image creation apparatus, an image creation method, and a program that can distinguish the contents of a program.

本発明による画像作成装置の実施形態の外観構成例を説明する図である。It is a figure explaining the external appearance structural example of embodiment of the image production apparatus by this invention. 図1の携帯電話端末におけるコンテンツ画像及びコンテンツ情報の表示例を説明するための図である。It is a figure for demonstrating the example of a display of the content image and content information in the mobile telephone terminal of FIG. 本発明による画像作成装置の一実施形態における機能を説明するためのブロック図である。It is a block diagram for demonstrating the function in one Embodiment of the image production apparatus by this invention. 本発明の実施形態に係る携帯電話端末の主要な処理の流れを説明するための図である。It is a figure for demonstrating the flow of the main processes of the mobile telephone terminal which concerns on embodiment of this invention. 図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)を更に詳しく説明するフローチャートである。5 is a flowchart for explaining in more detail a process for specifying a common part of video A in FIG. 4 to a process for extracting feature data (steps S1 and S2). 図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)の他の例を更に詳しく説明するフローチャートである。5 is a flowchart for explaining in further detail another example of the common part identification process to the feature data extraction process (steps S1 and S2) of the moving image A in FIG. 図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)の他の例を更に詳しく説明するフローチャートである。5 is a flowchart for explaining in further detail another example of the common part identification process to the feature data extraction process (steps S1 and S2) of the moving image A in FIG. 図4における動画Bの共通部分の探索処理(ステップS3)をさらに説明するフローチャートである。FIG. 5 is a flowchart for further explaining a search process (step S3) for a common part of moving image B in FIG. 代表画像の探索処理例を説明するための図である。It is a figure for demonstrating the example of a search process of a representative image. 本発明による画像作成装置の他の実施形態における機能を説明するためのブロック図である。It is a block diagram for demonstrating the function in other embodiment of the image production apparatus by this invention.

本発明に係る画像作成装置の実施形態では、オープニングなどの毎回共通する部分を持つ動画を動画再生装置で複数保持している場合、その共通部分を1つの動画データから特定し、その共通部分の特徴データを抽出する。そして、抽出した特徴データを使って他の動画の共通部分を検索する。そして共通部分以外から代表画像を選択する。選択した代表画像は、サムネイル表示に用いることができる。   In the embodiment of the image creating apparatus according to the present invention, when a plurality of moving images having a common part each time such as opening are held in the moving image reproducing apparatus, the common part is specified from one moving picture data, and the common part Extract feature data. Then, the common part of other moving images is searched using the extracted feature data. A representative image is selected from a portion other than the common portion. The selected representative image can be used for thumbnail display.

例えば、動画A、動画Bがあるときに、動画Aから共通部分の特徴データを抽出し、共通部分以外の部分からサムネイルAを作成し、抽出した特徴データを一旦保存しておく。動画Bに対しては、保存した特徴データ(動画Aで除外した部分の特徴データ)から動画Aで除外した部分と同じ特徴を持つBの部分を探索し、その結果である動画Bでの共通部分以外の部分からサムネイルBを作成する。こうして、動画Aと動画Bとにおいて、共通部分以外の部分からサムネイル表示可能な代表画像を選択することができる。   For example, when there is a moving image A and a moving image B, feature data of the common part is extracted from the movie A, a thumbnail A is created from a part other than the common part, and the extracted feature data is temporarily stored. For video B, a portion of B having the same characteristics as the portion excluded from video A is searched from the saved feature data (feature data excluded from video A), and the result is common to video B as a result. A thumbnail B is created from a portion other than the portion. In this way, in the moving image A and the moving image B, it is possible to select a representative image that can be displayed as a thumbnail from a portion other than the common portion.

以下、添付された図面を参照しながら、本発明に係る画像作成装置の実施形態をさらに具体的に説明する。以下の実施形態では、本発明に係る画像作成装置として携帯電話端末を適用した例を説明するが、本発明は、携帯電話端末に限定されることなく、記録媒体に蓄積した、あるいはインターネットやオンデマンドを利用してストリーミングで取得した動画コンテンツを再生して出力する機能を有する各種の動画再生装置に適用することができる。あるいは取得した動画コンテンツの代表画面を動画リストに使用したり、動画フォルダの内容表示等に使用したりするための各種の画像処理装置に適用することができる。   Hereinafter, embodiments of an image creating apparatus according to the present invention will be described in more detail with reference to the accompanying drawings. In the following embodiment, an example in which a mobile phone terminal is applied as an image creating apparatus according to the present invention will be described. However, the present invention is not limited to a mobile phone terminal, but is stored in a recording medium, or the Internet or on The present invention can be applied to various video playback devices having a function of playing back and outputting video content acquired by streaming using demand. Alternatively, the present invention can be applied to various image processing apparatuses for using the acquired moving image content representative screen for a moving image list or for displaying the contents of a moving image folder.

図1は、本発明による画像作成装置の実施形態の外観構成例を説明する図で、携帯電話端末として構成した画像作成装置の一例を示すものである。携帯電話端末1は、スピーカ11、表示装置12、タッチパネル13、記憶装置14、キー入力装置15、マイク16、及び放送受信用アンテナ17等を備えている。   FIG. 1 is a diagram for explaining an external configuration example of an embodiment of an image creating apparatus according to the present invention, and shows an example of an image creating apparatus configured as a mobile phone terminal. The mobile phone terminal 1 includes a speaker 11, a display device 12, a touch panel 13, a storage device 14, a key input device 15, a microphone 16, a broadcast receiving antenna 17, and the like.

表示装置12は、例えば、液晶表示パネル(LCD)により構成された表示装置である。また、表示装置12は携帯電話端末1に付属していてもよいが、出力端子を通じて出力した画像を表示する装置(液晶モニタ、TV画面等)でもよい。また、記憶装置14は、携帯電話端末1の本体に内蔵された記憶装置であって、記憶媒体として内蔵のフラッシュメモリや、装脱可能なSDカード等を適用することができる。記憶装置14の記憶媒体には、動画コンテンツのファイルを複数保存させることができる。   The display device 12 is a display device configured by, for example, a liquid crystal display panel (LCD). The display device 12 may be attached to the mobile phone terminal 1, but may be a device (liquid crystal monitor, TV screen, etc.) that displays an image output through the output terminal. The storage device 14 is a storage device built in the main body of the mobile phone terminal 1, and a built-in flash memory, a removable SD card, or the like can be applied as a storage medium. A plurality of moving image content files can be stored in the storage medium of the storage device 14.

キー入力装置15及びタッチパネル13は、ユーザによる操作入力を行うための入力デバイスである。例えば、ユーザは、記憶装置14で記憶した複数の動画コンテンツの情報を一覧表示させるための操作を行うことができる。   The key input device 15 and the touch panel 13 are input devices for performing an operation input by a user. For example, the user can perform an operation for displaying a list of information on a plurality of moving image contents stored in the storage device 14.

また、携帯電話端末1は、放送受信用アンテナ17により放送波を受信し、選局・復調を行って表示装置12及びスピーカ11から出力させる機能を備える。なお携帯電話端末1では、放送波を受信して出力する機能は必須ではなく、この場合、放送波の受信機能に代えて、もしくは放送波の受信機能に加えて、BDレコーダ等の録画機器で録画された動画コンテンツを入力して出力させる機能や、インターネットを通じてダウンロードした動画コンテンツを出力させる機能などを付与したものであってもよい。   In addition, the mobile phone terminal 1 has a function of receiving a broadcast wave by the broadcast receiving antenna 17, performing channel selection / demodulation, and outputting it from the display device 12 and the speaker 11. The mobile phone terminal 1 does not necessarily have a function of receiving and outputting broadcast waves. In this case, a recording device such as a BD recorder is used instead of the broadcast wave reception function or in addition to the broadcast wave reception function. It may be provided with a function of inputting and outputting recorded moving image content, a function of outputting moving image content downloaded through the Internet, and the like.

図2は、図1の携帯電話端末におけるコンテンツ画像及びコンテンツ情報の表示例を説明するための図である。携帯電話端末1の表示装置12には、携帯電話端末1で出力(表示・音声出力)が可能なコンテンツの一覧を表示させることができる。この例では、表示装置12には、所定のユーザ操作に応じて動画コンテンツ一覧表示画面21を表示させることができる。   FIG. 2 is a diagram for explaining a display example of content images and content information on the mobile phone terminal of FIG. The display device 12 of the mobile phone terminal 1 can display a list of contents that can be output (display / audio output) by the mobile phone terminal 1. In this example, the moving image content list display screen 21 can be displayed on the display device 12 in accordance with a predetermined user operation.

動画コンテンツ一覧表示画面21には、複数(この例では4つ)のコンテンツ画像表示部22〜25と、各コンテンツ画像表示部22〜25に対応したコンテンツ情報表示部26〜29が設定される。コンテンツ画像表示部22〜25には、記憶装置14の記憶媒体に格納されている動画コンテンツ(video1〜video4)のサムネイル画像が表示される。コンテンツ画像表示部22〜25に表示させるサムネイル画像としては、各動画コンテンツに含まれる静止画像であってもよく、動画像のサムネイルであってもよい。この場合、コンテンツ画像表示部22〜25には、所謂続きものとして放送される同じ放送番組であっても、異なる放送回の番組であれば、互いに異なるサムネイル画像が表示される。
また、動画コンテンツ一覧表示画面21には、コンテンツ画像表示部22〜25に対応して、その動画コンテンツのタイトル(title)や、録画日や放送日などの日付(date)、及びその動画コンテンツに付与されたコメント(comment)などの情報が表示される。
A plurality (four in this example) of content image display units 22 to 25 and content information display units 26 to 29 corresponding to the content image display units 22 to 25 are set on the moving image content list display screen 21. In the content image display units 22 to 25, thumbnail images of the moving image contents (video1 to video4) stored in the storage medium of the storage device 14 are displayed. The thumbnail images displayed on the content image display units 22 to 25 may be still images included in each moving image content or may be thumbnails of moving images. In this case, different thumbnail images are displayed on the content image display units 22 to 25 even if they are the same broadcast program broadcast as a so-called continuation, if they are different broadcast times.
The moving image content list display screen 21 displays the title of the moving image content, the date such as the recording date and the broadcast date, and the moving image content corresponding to the content image display units 22 to 25. Information such as the attached comment is displayed.

図3は、本発明による画像作成装置の一実施形態における機能を説明するためのブロック図で、図1に示す携帯電話端末の構成例を示すものである。
携帯電話端末1は、表示装置12、タッチパネル13、記憶装置14、及びキー入力装置15を備え、さらに携帯電話端末1の各部を制御する制御部30を備えている。制御部30は、例えばCPU(Central Processing Unit)によってその機能が実現される。
記憶装置14は、動画コンテンツを保存するための記憶媒体を含むもので、記憶媒体としては、上記のようにフラッシュメモリやSDカードなどを適用することができる。
FIG. 3 is a block diagram for explaining functions in an embodiment of the image creating apparatus according to the present invention, and shows a configuration example of the mobile phone terminal shown in FIG.
The mobile phone terminal 1 includes a display device 12, a touch panel 13, a storage device 14, and a key input device 15, and further includes a control unit 30 that controls each unit of the mobile phone terminal 1. The function of the control unit 30 is realized by, for example, a CPU (Central Processing Unit).
The storage device 14 includes a storage medium for storing moving image content, and a flash memory, an SD card, or the like can be applied as the storage medium as described above.

制御部30の入力装置インタフェイス31は、キー入力装置15及びタッチパネル13とのインタフェイスを構成する。また、処理統括部32は、動画コンテンツの通常再生及びサムネイル再生を行うときの一連の処理を統括する。
記憶装置I/Oインタフェイス39は、記憶装置14へのデータの読み書きを管理するインタフェイスで、動画像再生処理部33、サムネイル再生処理部34、特徴データ抽出部35、共通部分特定部36、共通部分探索部37、及び代表画像選択部38からのデータ読み出し要求に応じて、記憶装置14から要求データを読み出して返信する。
メモリ43は、各種データやプログラムを記憶する記憶手段であり、例えば、一般的に広く利用されているDRAM(Dynamic Random Access Memory)等を使用することができる。
The input device interface 31 of the control unit 30 constitutes an interface with the key input device 15 and the touch panel 13. The processing supervision unit 32 supervises a series of processes when performing normal reproduction and thumbnail reproduction of moving image content.
The storage device I / O interface 39 is an interface that manages reading and writing of data to and from the storage device 14. The moving image playback processing unit 33, the thumbnail playback processing unit 34, the feature data extraction unit 35, the common part specifying unit 36, In response to a data read request from the common part search unit 37 and the representative image selection unit 38, the request data is read from the storage device 14 and returned.
The memory 43 is a storage unit that stores various data and programs. For example, a DRAM (Dynamic Random Access Memory) that is generally widely used can be used.

動画像再生処理部33は、記憶装置14に記録された動画コンテンツをデコード処理部40に読み出し、読み出した動画コンテンツから順次動画像データを復号して表示画像処理部44に送出させる制御を行う。
サムネイル再生処理部34は、記憶装置14に記録された動画コンテンツをデコード処理部40によって読み出して復号し、代表画像選択部38にて特定した箇所の静止画または動画データを表示画像処理部44に送出させる制御を行う。
The moving image reproduction processing unit 33 performs control to read the moving image content recorded in the storage device 14 to the decoding processing unit 40, sequentially decode moving image data from the read moving image content, and send it to the display image processing unit 44.
The thumbnail reproduction processing unit 34 reads out and decodes the moving image content recorded in the storage device 14 by the decoding processing unit 40, and displays the still image or moving image data at the location specified by the representative image selection unit 38 in the display image processing unit 44. Control to send.

共通部分特定部36は、複数回にわたって連続して放送される番組の動画コンテンツが複数録画されているときに、その複数の動画コンテンツのうちの1つから、共通部分の開始時刻と終了時刻を特定する。
特徴データ抽出部35は、共通部分特定部36で特定した共通部分の動画データから、特徴となるデータを抽出し、メモリ43に一時保管、あるいは記憶装置14に記憶する。
The common part specifying unit 36 determines the start time and end time of the common part from one of the plurality of moving image contents when a plurality of moving image contents of a program broadcast continuously for a plurality of times are recorded. Identify.
The feature data extraction unit 35 extracts feature data from the moving image data of the common part specified by the common part specification unit 36 and temporarily stores it in the memory 43 or stores it in the storage device 14.

共通部分探索部37は、特徴データ抽出部35で取得した特徴となるデータを使用し、他の動画コンテンツとの共通部分を探索する。例えば、連続して放送される同じ番組で放送回の異なる番組同士の共通部分を探索する。
代表画像選択部38は、共通部分特定部36で特定した共通部分の開始時刻と終了時刻、及び共通部分探索部37で探索した共通部分の開始時刻と終了時刻を使用して、動画コンテンツの共通部分以外の部分からサムネイル画像(静止画または動画)として表示可能な代表画像、あるいは代表画像を取得するための動画再生情報を選択する。動画再生情報とは、動画コンテンツから代表画像データを取得可能な情報であり、例えば、画像データのフレーム番号や、時刻情報を用いることができる。
The common part search unit 37 uses the data that is the feature acquired by the feature data extraction unit 35 to search for a common part with other moving image content. For example, a common part of programs having different broadcast times in the same program broadcast continuously is searched.
The representative image selection unit 38 uses the start time and end time of the common part specified by the common part specification unit 36 and the start time and end time of the common part searched by the common part search unit 37 to share the video content. A representative image that can be displayed as a thumbnail image (still image or moving image) from a portion other than the portion or moving image reproduction information for acquiring the representative image is selected. The moving image reproduction information is information capable of acquiring representative image data from moving image content. For example, the frame number of image data and time information can be used.

デコード処理部40は、一般的に利用されている動画データ及び音声データの復号処理部で、音声データの復号処理を行う音声処理部41と、動画データの復号処理を行う動画像復号処理部42とを有している。
表示画像処理部44は、代表画像選択部38で選択した画像データ、あるいは代表画像選択部38で選択した動画再生情報を元に動画像再生処理部33から受け取った画像データから代表画像を作成し、表示画面の更新を行う。上記の代表画像選択部38及び表示画像処理部38は、本発明の画像作成部に該当するブロックである。
The decoding processing unit 40 is a commonly used moving image data and audio data decoding processing unit, an audio processing unit 41 that performs decoding processing of audio data, and a moving image decoding processing unit 42 that performs decoding processing of moving image data. And have.
The display image processing unit 44 creates a representative image from the image data received from the moving image reproduction processing unit 33 based on the image data selected by the representative image selection unit 38 or the moving image reproduction information selected by the representative image selection unit 38. Update the display screen. The representative image selection unit 38 and the display image processing unit 38 are blocks corresponding to the image creation unit of the present invention.

次に上記のごとくの構成を備えた携帯電話端末1によるサムネイル画像の生成処理例を説明する。図4は、本発明の実施形態に係る携帯電話端末の主要な処理の流れを説明するための図である。ここで、携帯電話端末1には、同じ番組で異なる放送回に放送された2つの動画コンテンツ(動画A、動画Bとする)を記憶装置14に保持しているものとする。以降に説明する全ての処理例においても同様とする。   Next, an example of thumbnail image generation processing by the mobile phone terminal 1 having the above-described configuration will be described. FIG. 4 is a diagram for explaining the main processing flow of the mobile phone terminal according to the embodiment of the present invention. Here, it is assumed that the mobile phone terminal 1 holds two moving image contents (moving image A and moving image B) broadcast on the same program at different broadcast times in the storage device 14. The same applies to all processing examples described below.

図4において、まず携帯電話端末1の共通部分特定部36は、動画Aにおける共通部分の特定を行い(ステップS1)、特徴データ抽出部35は、特定した共通部分から特徴データを抽出する(ステップS2)。抽出した特徴データは、メモリ43に一時保管、あるいは記憶装置14に記憶される。
ここでいう共通部分とは、他の動画コンテンツ(例えば動画B)との共通部分を示すもので、最初に動画Aに対して指定した共通部分と同じ動画データを動画Bから検索することで、動画Aと動画Bとの共通部分を検索する。
4, first, the common part specifying unit 36 of the mobile phone terminal 1 specifies a common part in the moving image A (step S1), and the feature data extracting unit 35 extracts feature data from the specified common part (step S1). S2). The extracted feature data is temporarily stored in the memory 43 or stored in the storage device 14.
The common part here refers to a common part with other video content (for example, video B), and by searching the video B for the same video data as the common part first specified for the video A, The common part between the moving image A and the moving image B is searched.

動画Aにおける共通部分を特定する方法(ステップS1)としては、
a)動画Aを再生しながらユーザに共通部分の最初と最後を指定させる方法
b)動画Aの再生中にユーザが共通部分を早送りすることにより、早送りした部分の再生時刻から共通部分を特定する方法
c)複数の動画から二つの動画A,Bを比較し、一致率の高い箇所を共通部分として特定する方法、等を適宜用いることができる。
動画同士を比較することにより共通部分の特定を行う場合には、一致率の高い箇所の比較データをそのまま特徴データとして保存しておくことが可能である。
As a method (step S1) for specifying the common part in the video A,
a) Method of allowing the user to specify the beginning and end of the common part while playing back video A. b) When the user fast-forwards the common part during playback of video A, the common part is identified from the playback time of the fast-forwarded part. Method c) A method of comparing two moving images A and B from a plurality of moving images and specifying a portion having a high matching rate as a common portion can be appropriately used.
When specifying a common part by comparing moving images, it is possible to store comparison data of a part with a high matching rate as feature data as it is.

また、特徴データの抽出処理(ステップS2)では、ステップS1で特定した動画Aの共通部分のなかから特徴データを抽出する。
特徴データとしては、一般に画像比較を行うことができるデータでよい。例えば、
a)共通部分の開始点・終了点の画像データそのもの
b)上記画像データの輝度、色差データ
c)H264で圧縮された動画の場合、共通部分の開始点・終了点前後のキーフレーム(Iピクチャ、IDRピクチャ等)の全部あるいは一部分(例えば、画面の中央部の1スライス分など)のデータ
d)共通部分の再生時刻がいつも同じである場合は、開始点または終了点のどちらか片方の時刻のみの特徴データ
e)音声データ
等を用いることができる。
In the feature data extraction process (step S2), the feature data is extracted from the common part of the moving image A specified in step S1.
The feature data may be data that can generally perform image comparison. For example,
a) Image data itself at the start and end points of the common part b) Luminance and color difference data of the image data c) In the case of a moving picture compressed with H264, key frames (I picture) before and after the start and end points of the common part , IDR picture, etc.) All or part of data (for example, one slice in the center of the screen) d) If the playback time of the common part is always the same, either the start point or the end point Only feature data e) Voice data etc. can be used.

次に、共通部分探索部37は、ステップS2で抽出した動画Aの共通部分の特徴データを使用して、動画Bの共通部分を探索する(ステップS3)。ここでは、ステップS2で抽出した動画Aの特徴データと動画Bとを比較し、動画Bの共通部分を探索する。この動作は、同じ番組の動画コンテンツを複数保持している状態からスタートするので、例えば同じ番組の2回目以降の録画完了した際に自動で動作を開始させるなどの処理が考えられる。   Next, the common part search unit 37 searches for the common part of the moving picture B using the feature data of the common part of the moving picture A extracted in step S2 (step S3). Here, the feature data of the moving image A extracted in step S2 is compared with the moving image B, and the common part of the moving image B is searched. Since this operation starts from a state in which a plurality of moving image contents of the same program are held, for example, a process of automatically starting the operation when the second and subsequent recordings of the same program are completed can be considered.

次いで、代表画像選択部38は、動画コンテンツ一覧表示画面21(図2参照)に表示させる動画Aのサムネイル画像として代表画像を選択する(ステップS4)。
ここでは、ステップS1及びステップS3で記録した動画Aと動画Bの共通部分の時間データを使用して、基本的にはその共通部分以外の部分の画像データを選択する。この場合、
a)共通部分の終了直後のフレームの画像から代表画像を選択する
b)共通部分の開始前のフレームの画像から代表画像を選択する、等の処理が基本である。
なお、代表画像の選択とは、上記のように、動画コンテンツの共通部分以外の部分からサムネイル画像(静止画または動画)として表示可能な代表画像を選択する処理、あるいは代表画像を取得するための動画再生情報を選択する処理を含む。
Next, the representative image selection unit 38 selects a representative image as a thumbnail image of the moving image A to be displayed on the moving image content list display screen 21 (see FIG. 2) (step S4).
Here, using the time data of the common part of the moving picture A and the moving picture B recorded in step S1 and step S3, the image data of the part other than the common part is basically selected. in this case,
a) Selecting a representative image from an image of a frame immediately after the end of the common part b) Selecting a representative image from an image of a frame before the start of the common part is fundamental.
The selection of the representative image is a process for selecting a representative image that can be displayed as a thumbnail image (still image or moving image) from a portion other than the common portion of the moving image content as described above, or for acquiring a representative image. Includes processing for selecting video playback information.

また、例えば、共通部分の最初または最後に、その放送回ごとのタイトルが付加されているような場合、その付加されているフレームの画像を代表画像に含ませた方がユーザが動画の内容をより把握しやすい場合も考えられる。その場合、
c)代表画像は共通部分の一部を含ませて作成する
ことも可能である。
さらに、放送番組であれば、共通部分の前後にCMが放送されている場合も考えられる。このような場合には、CMを代表画像として選択しないように、
d)共通部分の終了から一定時間分経過したフレームの画像から代表画像を選択する、ことが考えられる。あるいは共通部分の一定時間前のフレームの画像から代表画像を選択するようにしてもよい。
In addition, for example, when a title for each broadcast time is added at the beginning or end of the common part, it is better for the user to include the contents of the moving image by including the image of the added frame in the representative image. It may be easier to grasp. In that case,
c) The representative image can be created by including a part of the common part.
Further, in the case of a broadcast program, a CM may be broadcast before and after the common part. In such a case, do not select CM as a representative image.
d) It is conceivable to select a representative image from an image of a frame after a certain amount of time has elapsed from the end of the common part. Alternatively, the representative image may be selected from an image of a frame of a certain time before the common part.

代表画像選択部38が代表画像を選択すると、選択したフレームの画像をサムネイル画像としてメモリ43に保存し、サムネイル再生などの処理を行う(ステップS5)。ここでは、メモリ43に保存したサムネイル画像は、動画コンテンツ一覧表示画面21によりサムネイル表示を行うときに呼び出すことが可能である。また、代表画像として選択した画像のフレーム番号(何枚目か)、あるいはそのフレームの再生時刻をそれぞれ動画のメタデータに保存しておき、サムネイルの再生時にデコードする等の処理を行うようにしてもよい。   When the representative image selection unit 38 selects a representative image, the image of the selected frame is stored as a thumbnail image in the memory 43, and processing such as thumbnail reproduction is performed (step S5). Here, the thumbnail image stored in the memory 43 can be called when the thumbnail display is performed on the moving image content list display screen 21. In addition, the frame number (number of frames) of the image selected as the representative image or the playback time of the frame is stored in the moving image metadata, and processing such as decoding is performed at the time of thumbnail playback. Also good.

次に、上記図1のフローにおける個々の処理例をさらに具体的に説明する。
図5は、図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)を更に詳しく説明するフローチャートで、ユーザが指定した再生時刻から共通部分を特定する処理例を示すものである。ここではまず、複数保持している、もしくは複数保持する予定の同じ番組の1つ(動画Aとする)をユーザが視聴しようとしたものとする(ステップS11)。
Next, each example of processing in the flow of FIG. 1 will be described more specifically.
FIG. 5 is a flowchart for explaining in more detail the common part identification process to the feature data extraction process (steps S1 and S2) of the moving image A in FIG. 4, and a process example for identifying the common part from the reproduction time designated by the user. It is shown. Here, first, it is assumed that the user tries to view one of the same programs that are held or scheduled to be held (referred to as moving image A) (step S11).

携帯電話端末1の制御部30は、動画Aについて共通部分の特定を行うかどうかを判別する(ステップS12)。ここでは、共通部分の特定処理を行うか否かを選択させるための表示を行う。例えば、「共通部分の特定を行いますか?」との表示を行い、ユーザに選択させる。
共通部分の特定を行わない場合には、処理を終了する。また、共通部分の特定を行う場合には、さらに共通部分の開始時と終了時を指定するようユーザに要求する(ステップS13)。ここでは、例えば、「共通部分の開始と終了時にボタンを押してください」との表示を行う。
The control unit 30 of the mobile phone terminal 1 determines whether or not the common part is specified for the moving image A (step S12). Here, a display for selecting whether or not to perform the common part specifying process is performed. For example, a message “Do you want to specify the common part?” Is displayed and the user is allowed to select.
If the common part is not specified, the process ends. When specifying the common part, the user is further requested to specify the start time and end time of the common part (step S13). Here, for example, “Please press the button when the common part starts and ends” is displayed.

そして、携帯電話端末1では、動画像再生処理部33によって動画Aの再生を開始する(ステップS14)。そして、ユーザが共通部分の動画の開始時及び終了時にそれぞれタッチパネル13等の入力デバイスに対して所定の入力操作を行う(ステップS15)。
特徴データ抽出部35は、入力操作された開始時及び終了時の再生時刻を元に、共通部分を特定する(ステップS16)。そして動画Aの共通部分の再生時刻データを動画Aのメタデータに記録し(ステップS17)、特定した共通部分の特徴データをメモリ43に記録する(ステップS18)。
Then, in the mobile phone terminal 1, the moving image reproduction processing unit 33 starts reproduction of the moving image A (step S14). And a user performs predetermined input operation with respect to input devices, such as the touch panel 13, respectively at the time of the start of the moving image of a common part, and completion | finish (step S15).
The feature data extraction unit 35 identifies the common part based on the reproduction time at the start and end when the input operation is performed (step S16). Then, the reproduction time data of the common part of the moving picture A is recorded in the metadata of the moving picture A (step S17), and the characteristic data of the specified common part is recorded in the memory 43 (step S18).

上記の例では、ステップS11〜S17が動画Aの共通部分の特定処理(ステップS1)に相当し、ステップS18が特徴データの抽出処理(ステップS2)に相当する。   In the above example, steps S11 to S17 correspond to the common part identification process (step S1) of the moving picture A, and step S18 corresponds to the feature data extraction process (step S2).

図6は、図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)の他の例を更に詳しく説明するフローチャートで、ユーザが視聴動作から共通部分を特定する処理例を示すものである。ここではまず、複数保持している、もしくは複数保持する予定の同じ番組コンテンツの1つ(動画Aとする)をユーザが視聴したものとする(ステップS21)。   FIG. 6 is a flowchart for explaining in further detail another example of the common part identification process to the feature data extraction process (steps S1 and S2) of the moving image A in FIG. 4, in which the user identifies the common part from the viewing operation. An example is given. Here, first, it is assumed that the user views one of the same program contents that are held or are scheduled to be held (referred to as moving image A) (step S21).

携帯電話端末1の制御部30は、動画Aについて共通部分の特定を行うか判別する(ステップS22)。ここでは、共通部分の特定処理を行うか否かを選択させるための表示を行う。例えば、「共通部分の特定を行いますか?」との表示を行い、ユーザに選択させる。
共通部分の特定を行わない場合には、処理を終了する。また、共通部分の特定を行う場合には、さらにユーザに共通部分を早送りさせるようユーザに要求する。例えば、「共通部分は早送りしてください」との表示を行う。
The control unit 30 of the mobile phone terminal 1 determines whether or not the common part is specified for the moving image A (step S22). Here, a display for selecting whether or not to perform the common part specifying process is performed. For example, a message “Do you want to specify the common part?” Is displayed and the user is allowed to select.
If the common part is not specified, the process ends. When specifying the common part, the user is further requested to fast-forward the common part. For example, the message “Please fast forward common parts” is displayed.

そして、携帯電話端末1では、動画像再生処理部33によって動画Aの再生を開始する(ステップS24)。そして、ユーザが共通部分の再生箇所で早送りを開始し、共通部分が終了したら早送りを停止する操作を行う(ステップS25)。
特徴データ抽出部35は、早送りを開始したときの再生時刻と、早送りを終了したときの再生時刻を元に、共通部分を特定する(ステップS26)。そして動画Aの共通分の再生時刻データを動画Aのメタデータに記録し(ステップS27)、特定した共通部分の特徴データをメモリ43に記録する(ステップS28)。
Then, in the mobile phone terminal 1, the moving image reproduction processing unit 33 starts reproduction of the moving image A (step S24). Then, the user starts fast-forwarding at the reproduction portion of the common part, and performs an operation of stopping fast-forwarding when the common part ends (step S25).
The feature data extraction unit 35 specifies the common part based on the reproduction time when the fast forward is started and the reproduction time when the fast forward is finished (step S26). Then, the reproduction time data corresponding to the moving image A is recorded in the metadata of the moving image A (step S27), and the characteristic data of the specified common part is recorded in the memory 43 (step S28).

上記の例では、ステップS21〜S27が動画Aの共通部分の特定処理(ステップS1)に相当し、ステップS28が特徴データの抽出処理(ステップS2)に相当する。   In the above example, steps S21 to S27 correspond to the common part identification process (step S1) of the moving image A, and step S28 corresponds to the feature data extraction process (step S2).

図7は、図4における動画Aの共通部分の特定処理〜特徴データの抽出処理(ステップS1〜S2)の他の例を更に詳しく説明するフローチャートで、同じ番組の動画データが2つ以上蓄積されたときに、自動で共通部分を特定する処理例を示すものである。ここではまず、携帯電話端末1に同じ番組の動画データが2つ以上(この例では動画A、動画B)蓄積されたものとする(ステップS31)。   FIG. 7 is a flowchart for explaining in more detail another example of the common part identification process to feature data extraction process (steps S1 and S2) of the moving picture A in FIG. 4, in which two or more moving picture data of the same program are accumulated. Shows an example of a process for automatically specifying a common part. Here, it is assumed that two or more moving image data of the same program (moving image A and moving image B in this example) are stored in the mobile phone terminal 1 (step S31).

携帯電話端末1の共通部分特定部36は、動画A、動画Bのそれぞれの動画データのうち、キーフレームのデータをデコードする(ステップS32)。ここで言うデータとは、上記の特徴データ抽出部35により抽出する特徴データの定義と同様の画像比較を行うことができるデータである。そしてデコードしたデータを比較し、一致率の高いフレームを検索する(ステップS33)。ここで言う一致率とは、画像比較によって同じと判断されるかどうかを示す値であり、一致率が高ければ高いほど、比較した画像が同じシーンである可能性が高いということになる。そして、一致率の高いフレームが続く期間を共通部分として特定し、その時刻データを動画A、動画Bのそれぞれのメタデータに記憶する(ステップS34)。一致率が高いか否かの比較条件は適宜定めておくことができる。例えば、画像比較するデータを画素データそのもので行う場合を考える。まずキーフレーム間の対応する画素値同士を比較し、所定の閾値を使用して一致しているか否かを画素ごとに判別し、一致率が所定値以上であるときに一致率が高いもの、つまり同じシーンであると判別する、等の処理を行うことができる。ここでの一致率の検索処理は、例えば、上記の特徴データ抽出部35により抽出する特徴データの定義と同様のデータを用いて実行する画像比較を指している。
そして最後に、共通部分としたキーフレームの最初と最後のフレームのデータを特徴データとし、メモリ43に記録する(ステップS35)。
The common part specifying unit 36 of the mobile phone terminal 1 decodes key frame data among the moving image data of the moving image A and the moving image B (step S32). The data referred to here is data that can be subjected to image comparison similar to the definition of feature data extracted by the feature data extraction unit 35 described above. The decoded data is compared to search for a frame with a high match rate (step S33). The coincidence rate here is a value indicating whether or not they are determined to be the same by image comparison. The higher the coincidence rate, the higher the possibility that the compared images are the same scene. Then, a period in which a frame with a high coincidence rate continues is specified as a common part, and the time data is stored in the metadata of the moving image A and the moving image B (step S34). A comparison condition as to whether or not the coincidence rate is high can be determined as appropriate. For example, let us consider a case where image comparison data is performed using pixel data itself. First, the corresponding pixel values between key frames are compared with each other to determine whether or not they match using a predetermined threshold, and when the matching rate is equal to or higher than a predetermined value, the matching rate is high, That is, it is possible to perform processing such as determining that the scenes are the same. Here, the matching rate search processing refers to image comparison executed using data similar to the definition of feature data extracted by the feature data extraction unit 35 described above, for example.
Finally, the data of the first and last frames of the key frame as the common part are recorded as feature data in the memory 43 (step S35).

上記の例では、ステップS31〜S34が動画Aの共通部分の特定処理(ステップS1)に相当し、ステップS35が特徴データの抽出処理(ステップS2)に相当する。
なお、本例の処理により動画A,Bのみの共通部分を特定する場合には、図4のステップS3の検索処理は不要となる。つまり、一致率を判断する処理において、動画Aの共通部分の特定と、動画Bの共通部分の探索とが同時に実行されるからである。動画Aと動画Bから動画Aの共通部分を特定し、その特徴データを使用して動画B以外の他の動画データを検索するときに、ステップS3の処理が必要となる。
In the above example, steps S31 to S34 correspond to the common part identification process (step S1) of the moving image A, and step S35 corresponds to the feature data extraction process (step S2).
Note that when the common part of only the moving images A and B is specified by the process of this example, the search process of step S3 in FIG. 4 is not necessary. That is, in the process of determining the match rate, the common part of the moving picture A is specified and the common part of the moving picture B is searched simultaneously. When the common part of the moving image A is specified from the moving image A and the moving image B and the moving image data other than the moving image B is searched using the feature data, the process of step S3 is necessary.

次に、図4のステップS3の動画Bの共通部分の探索処理について更に説明する。
共通部分の探索処理では、動画Aの共通部分の特徴データから、動画Bの共通部分を特定する。ここでは、ステップS2で取得した特徴データと、動画Bの動画データとを比較し、動画Bの共通部分を特定する。この動作の開始タイミングは、同じ番組を複数蓄積している状態からスタートするので、例えば同じ番組の2回目以降の録画が完了した際に自動で動作させる、などの処理が適用できる。
Next, the search process for the common part of the moving image B in step S3 in FIG. 4 will be further described.
In the common part search process, the common part of the moving picture B is specified from the feature data of the common part of the moving picture A. Here, the feature data acquired in step S2 and the moving image data of moving image B are compared, and the common part of moving image B is specified. Since the start timing of this operation starts from a state where a plurality of the same programs are accumulated, for example, a process such as automatic operation when the second and subsequent recordings of the same program are completed can be applied.

図8は、図4における動画Bの共通部分の探索処理(ステップS3)をさらに説明するフローチャートである。まず、携帯電話端末1の共通部分探索部37は、動画Aから抽出した特徴データをメモリ43から読み出す(ステップS41)。そして、共通部分探索部37は、メモリ43から読み出した特徴データと動画Bのデータとを比較し、一致率の高い箇所を動画Bの共通部分として特定する(ステップS42)。特徴データと比較する動画Bのデータは、特徴データと同じ形態のデータであり、例えば、特徴データがIDRピクチャの画像データであれば、動画BのIDRピクチャデータをデコードして順次比較する。一致率が高いか否かの条件は適宜定めておくことができる。例えば、特徴データ同士の比較結果が所定の閾値以内であるときに一致しているものと判断することができる。そして、特定した動画Bの共通部分の開始時及び終了時の再生時刻データを動画Bのメタデータに記録する(ステップS43)。   FIG. 8 is a flowchart for further explaining the search process (step S3) for the common part of the moving image B in FIG. First, the common part search unit 37 of the mobile phone terminal 1 reads the feature data extracted from the moving image A from the memory 43 (step S41). Then, the common part search unit 37 compares the feature data read from the memory 43 with the data of the moving image B, and specifies a portion with a high matching rate as a common part of the moving image B (step S42). The data of the moving image B to be compared with the feature data is data having the same form as the feature data. For example, if the feature data is image data of an IDR picture, the IDR picture data of the moving image B is decoded and sequentially compared. The condition as to whether the coincidence rate is high can be determined as appropriate. For example, it can be determined that the comparison results are obtained when the comparison result between the feature data is within a predetermined threshold. Then, the reproduction time data at the start and end of the common part of the specified moving image B is recorded in the metadata of the moving image B (step S43).

次に、図4のステップS4の代表画像の探索処理について更に説明する。ここでは、図4のステップS1で特定した動画Aの共通部分、及びステップS3で探索した動画Bの共通部分のそれぞれの時間データを使用して、その共通部分以外の部分を選択し、代表画像とする。代表画像は、例えば図2の動画コンテンツ一覧表示画面でコンテンツ画像表示部22〜25に表示させるものであり、例えば同じ番組であって放送回が異なる番組のときに、同じ代表画像が選択されると、番組の区別がつかなくなる。このため、番組ごとに内容を把握できるように、共通部分以外から代表画像を選択できるようにする。   Next, the representative image search process in step S4 of FIG. 4 will be further described. Here, using the time data of the common part of the moving picture A identified in step S1 in FIG. 4 and the common part of the moving picture B searched in step S3, a part other than the common part is selected, and the representative image And For example, the representative image is displayed on the content image display units 22 to 25 on the moving image content list display screen of FIG. 2. For example, the same representative image is selected in the case of the same program and different broadcast times. And the program cannot be distinguished. For this reason, the representative image can be selected from other than the common part so that the contents can be grasped for each program.

図9は、代表画像の探索処理例を説明するための図である。
図9(A)の例では、動画Aと動画Bの共通部分の開始画像をS、終了画像をEとするとき、共通部分S〜Eの終了直後の画像を代表画像Rとして選択する。動画コンテンツ一覧表示画面21のコンテンツ画像表示部22〜25に静止画像のサムネイルを用いる場合には、代表画像Rを表示させるが、動画サムネイルを用いる場合には、代表画像Rを動画サムネイルの開始位置とする。
FIG. 9 is a diagram for explaining an example of a representative image search process.
In the example of FIG. 9A, when the start image of the common part of the moving images A and B is S and the end image is E, the image immediately after the end of the common parts S to E is selected as the representative image R. When still image thumbnails are used in the content image display sections 22 to 25 of the moving image content list display screen 21, the representative image R is displayed. However, when the moving image thumbnail is used, the representative image R is displayed at the start position of the moving image thumbnail. And

また、図9(B)の例では、動画Aと動画Bの共通部分S〜Eの開始前の画像を代表画像Rとして選択する。コンテンツ画像表示部に静止画像のサムネイルを用いる場合には、代表画像Rを表示させるが、動画サムネイルを用いる場合には、代表画像Rは、動画サムネイルの終了位置とする。例えば、共通部分とする放送番組のオープニング前に、今回の放送の内容が一部放送されている場合などでは、共通部分(この場合、オープニング)の開始直前の画像を代表画像Rとする方がよい。   In the example of FIG. 9B, the image before the start of the common portions S to E of the moving image A and the moving image B is selected as the representative image R. When the thumbnail of the still image is used in the content image display unit, the representative image R is displayed. However, when the moving image thumbnail is used, the representative image R is the end position of the moving image thumbnail. For example, when the contents of the current broadcast are partly broadcast before the opening of the broadcast program as the common part, the image immediately before the start of the common part (in this case, the opening) should be the representative image R. Good.

図9(C)の例では、代表画像を動画サムネイルとして表示する場合において、動画Aと動画Bの共通部分S〜Eの画像の少なくとも一部を代表画像に含ませるようにする。この例では、共通部分の開始画像Sを、代表画像とする動画サムネイルの終了画像Reに一致させるようにしている。つまり、共通部分の開始画像Sが動画サムネイルに含まれるようにしている。
例えば、動画Aと動画Bを放送番組とするとき、その共通部分の最初あるいは最後に放送回ごとのタイトルが付加されているような場合、タイトルが付加されている画像を代表画像として含ませて選択した方が、ユーザがその動画の内容をより把握しやすい場合も考えられる。このような場合、動画サムネイルとして表示する代表画像には、共通部分の少なくとも一部を含ませて作成するとよい。
In the example of FIG. 9C, when the representative image is displayed as a moving image thumbnail, at least a part of the images of the common portions S to E of the moving image A and the moving image B is included in the representative image. In this example, the start image S of the common part is made to coincide with the end image Re of the moving image thumbnail as the representative image. That is, the common part start image S is included in the moving image thumbnail.
For example, when moving picture A and moving picture B are broadcast programs, if a title for each broadcast time is added at the beginning or end of the common part, the image with the title added is included as a representative image. It can be considered that the user can easily understand the contents of the moving image. In such a case, the representative image displayed as the moving image thumbnail may be created by including at least a part of the common part.

図9(D)の例では、動画Aと動画Bの共通部分S〜Eの終了後、所定時間分経過した画像を代表画像Rとして選択する。例えば、共通部分の前後すぐの画像に、放送番組であればCMが放送される場合も考えられる。その場合は、共通部分の終了から一定時間分経過した画像を代表画像Rとして選択するようにしてもよい。この場合、静止画像のサムネイルを用いる場合には代表画像Rを表示させるが、動画サムネイルを用いる場合には、代表画像Rを動画サムネイルの開始位置とする。
また、共通部分の前にCMが放送される場合を考慮し、共通部分の開始から一定時間分前の画像を代表画像として選択するようにしてもよい。この場合、動画サムネイルを用いる場合には、代表画像を動画サムネイルの終了位置とする。
In the example of FIG. 9D, after the end of the common portions S to E of the moving image A and the moving image B, an image that has passed for a predetermined time is selected as the representative image R. For example, a CM may be broadcast on an image immediately before and after the common part if it is a broadcast program. In that case, an image that has passed for a fixed time from the end of the common portion may be selected as the representative image R. In this case, the representative image R is displayed when the thumbnail of the still image is used, but the representative image R is set as the start position of the moving image thumbnail when the moving image thumbnail is used.
In consideration of a case where a CM is broadcast before the common part, an image a predetermined time before the start of the common part may be selected as the representative image. In this case, when a moving image thumbnail is used, the representative image is set as the end position of the moving image thumbnail.

携帯電話端末1では、以上の図9(A)から図9(D)の代表画像の選択処理のいずれかを使用する。このときのいずれの選択処理を使用するかは、ユーザによって決定させるようにしてもよく、あるいは、動画データからCMを検出するCM自動検出機能を設けて、自動的に決定できるようにしてもよい。CMを検出する機能としては、例えば、本編部がモノラルあるいは二か国語放送である場合に、ステレオ放送に音声が切替えられることでCMとして検出する手法や、画面の変化と音声レベルの変動によりCMを検出する手法等の従来公知の技術を適用することができる。   The cellular phone terminal 1 uses one of the representative image selection processes shown in FIGS. 9A to 9D. Which selection process to use at this time may be determined by the user, or may be automatically determined by providing a CM automatic detection function for detecting CM from moving image data. . As a function of detecting the CM, for example, when the main part is a monaural or bilingual broadcast, a method of detecting as a CM by switching the sound to a stereo broadcast, or a CM depending on a change in the screen and a change in the audio level. A conventionally known technique such as a technique for detecting the image can be applied.

選択した代表画像は、サムネイル画像として記録装置14に保存しておき、動画コンテンツ一覧表示画面21等にてサムネイル表示を行う際に呼び出すことができる。また、選択した代表画像のフレームの番号(何枚目か)、あるいはそのフレームの再生時刻をそれぞれ動画のメタデータに保存しておき、サムネイル再生時にデコードするようにすることも可能である。   The selected representative image is stored in the recording device 14 as a thumbnail image, and can be called when thumbnail display is performed on the moving image content list display screen 21 or the like. It is also possible to save the frame number (number of frames) of the selected representative image or the playback time of the frame in the metadata of the moving image, and decode it during thumbnail playback.

また、上記の処理により得られた共通部分や代表画像のデータを、サムネイル再生以外の形態で利用することもできる。例えば、特定された共通部分の再生時刻データを使用して、動画の通常再生時にその共通部分をスキップさせることができる。
また、選択した代表画像はサムネイル再生に使用するほか、ユーザが保持する動画リストに使用するなどの目的で他の媒体にコピーしたり、動画が格納されているフォルダの内容表示を行うためにフォルダの代表画像として使用することができる。あるいは、携帯電話端末が保持する動画アプリケーションと融合させ、携帯電話端末における待ち受け画面で代表画面をランダム再生させるようにしてもよい。さらに録画終了案内時に録画内容がわかるようなアプリケーションと融合させ、録画終了案内時に代表画面を再生させるようにしてもよい。
In addition, the common portion and representative image data obtained by the above processing can be used in a form other than thumbnail reproduction. For example, using the reproduction time data of the specified common part, the common part can be skipped during the normal reproduction of the moving image.
In addition to using the selected representative image for thumbnail playback, the selected representative image is copied to another medium for the purpose of, for example, being used for a movie list held by the user, or a folder for displaying the contents of the folder in which the movie is stored. It can be used as a representative image. Alternatively, it may be combined with a moving picture application held by the mobile phone terminal so that the representative screen is randomly reproduced on the standby screen of the mobile phone terminal. Further, it may be combined with an application that can understand the recording contents at the time of recording end guidance, and the representative screen may be reproduced at the time of recording end guidance.

また、上記の処理中に得られた共通部分を特定する特徴データを記録装置14に保存させておくことも可能である。これにより、次に同じ番組を録画した時に特徴データを抽出する必要がなく、また見終わった回の動画データを消してしまっていても、共通部分以外から代表画像を選択することが可能になる。   It is also possible to store the characteristic data specifying the common part obtained during the above processing in the recording device 14. This eliminates the need to extract feature data the next time the same program is recorded, and it is possible to select a representative image from a portion other than the common portion even if the video data has been erased once. .

また、上記の実施例では画像比較で抽出した画像データのみを特徴データとしているが、特徴データに動画Aの共通部分の開始、終了時刻データを付加しておき、動画B以降の共通部分探索を行う際に、その時刻データに近い箇所から画像比較を行うことで、共通部分探索のスピード向上を図ることもできる。   In the above embodiment, only the image data extracted by the image comparison is used as the feature data. However, the start and end time data of the common part of the moving image A is added to the feature data, and the common part search after the moving image B is performed. When performing the comparison, it is possible to improve the speed of the common part search by comparing the images from a location close to the time data.

また、上記の実施例では、サムネイル表示する動画コンテンツの画像データは、記録装置14に蓄積された動画データであったが、インターネットやオンデマンド放送を利用してストリーミングで配信される動画コンテンツであっても実施可能である。その場合の構成図を図10に示す。   In the above embodiment, the image data of the moving image content to be displayed as thumbnails is the moving image data stored in the recording device 14, but is the moving image content distributed by streaming using the Internet or on-demand broadcasting. However, it can be implemented. FIG. 10 shows a configuration diagram in that case.

図10は、本発明による画像作成装置の他の実施形態における機能を説明するためのブロック図で、携帯電話端末の他の構成例を示すものである。図10において、図3と同様の機能を有する部分には、図3と同じ符号が付してある。
第2の表示画像処理部45は、表示画像処理部44と同様の機能を有するもので、代表画像データ選択部38で選択した画像データ、あるいは代表画像選択部38で選択した動画再生情報を元に動画再生処理部33から受け取った画像データを選択し、記憶装置I/Oインタフェイス16に出力する。記憶装置I/Oインタフェイス16は、外部記憶装置とのインタフェイスを構成するもので、外部装置のへのデータの読み書きを管理する。ここでは、記憶装置I/Oインタフェイス16は、表示画像処理部44からのデータ読み書き要求に対して、外部記憶装置からのデータの読み出し、または外部記憶装置に対するデータの書き込み行う。
FIG. 10 is a block diagram for explaining functions in another embodiment of the image creating apparatus according to the present invention, and shows another configuration example of the mobile phone terminal. 10, parts having functions similar to those in FIG. 3 are denoted by the same reference numerals as in FIG.
The second display image processing unit 45 has the same function as the display image processing unit 44, and based on the image data selected by the representative image data selection unit 38 or the moving image reproduction information selected by the representative image selection unit 38. The image data received from the moving image reproduction processing unit 33 is selected and output to the storage device I / O interface 16. The storage device I / O interface 16 constitutes an interface with an external storage device, and manages reading and writing of data to and from the external device. Here, the storage device I / O interface 16 reads data from the external storage device or writes data to the external storage device in response to a data read / write request from the display image processing unit 44.

通信装置46は、インターネットや携帯電話などの通信網を通じて動画コンテンツをストリーミング受信可能とする装置である。動画コンテンツは、例えば、インターネット上のストリーミングサーバー17におかれているが、抽出した特徴データや探索した共通部分を特定するための時刻データ(開始、終了時刻)、代表画像の画像データや時刻データは一時的にはメモリ43に記憶させる。また、一度サムネイル表示させた動画コンテンツに対して2度目以降すばやくサムネイル表示をさせる場合には、上記のデータを外部記憶装置に記憶させておく必要がある。   The communication device 46 is a device that enables streaming reception of moving image content through a communication network such as the Internet or a mobile phone. The moving image content is, for example, stored in the streaming server 17 on the Internet. The extracted feature data, time data (start time and end time) for specifying the searched common part, image data of the representative image and time data Is temporarily stored in the memory 43. Further, in order to quickly display thumbnails for the second and subsequent video contents once displayed as thumbnails, it is necessary to store the above data in an external storage device.

本発明の画像作成装置で動作するプログラムは、本発明に係る各手段(あるいは各手段の一部)の機能を実現するようにCPU等を制御するプログラム(コンピュータを機能させるプログラム)である。このプログラムは、装置をユーザが使用する際に容易となるように、表示装置用のグラフィカルユーザインタフェース(GUI)を備えるようにするとよい。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAMに蓄積され、その後、各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。   The program that operates in the image creating apparatus of the present invention is a program (a program that causes a computer to function) that controls a CPU or the like so as to realize the function of each unit (or part of each unit) according to the present invention. This program may be provided with a graphical user interface (GUI) for a display device so that the device can be easily used by a user. Information handled by these devices is temporarily stored in the RAM at the time of processing, then stored in various ROMs and HDDs, read out by the CPU as necessary, and corrected and written.

また、読み出したプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。   In addition, by executing the read program, not only the functions of the above-described embodiment are realized, but also based on the instructions of the program, the program is processed in cooperation with the operating system or other application programs. The functions of the invention may be realized.

プログラムを格納する記録媒体としては、半導体媒体(例えば、ROM、不揮発性メモリカード等)、光記録媒体(例えば、BD(blu-ray Disc),DVD,MO、MD、CD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。プログラムを市場に流通させる場合には、上記のような可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータからPC等の情報処理装置に転送させるようにすることができる。   As a recording medium for storing the program, a semiconductor medium (for example, ROM, nonvolatile memory card, etc.), an optical recording medium (for example, BD (blu-ray disc), DVD, MO, MD, CD, etc.), a magnetic recording medium (For example, magnetic tape, flexible disk, etc.) may be used. When distributing a program to the market, store the program in a portable recording medium as described above for distribution, or transfer it from a server computer connected via a network such as the Internet to an information processing device such as a PC. You can make it.

1…携帯電話端末、11…スピーカ、12…表示装置、13…タッチパネル、14…記憶装置、15…キー入力装置、16…マイク、17…放送受信用アンテナ、21…動画コンテンツ一覧表示画面、22〜25…コンテンツ画像表示部、26…コンテンツ情報表示部、30…制御部、31…入力装置インタフェイス、32…処理統括部、33…動画像再生処理部、34…サムネイル再生処理部、35…特徴データ抽出部、36…共通部分特定部、37…共通部分探索部、38…代表画像選択部、39…記録装置I/Oインタフェイス、40…デコード処理部、41…音声処理部、42…動画像復号処理部、43…メモリ、44…表示画像処理部。 DESCRIPTION OF SYMBOLS 1 ... Cell-phone terminal, 11 ... Speaker, 12 ... Display apparatus, 13 ... Touch panel, 14 ... Memory | storage device, 15 ... Key input device, 16 ... Microphone, 17 ... Broadcast receiving antenna, 21 ... Moving image content list display screen, 22 -25 ... content image display unit, 26 ... content information display unit, 30 ... control unit, 31 ... input device interface, 32 ... processing control unit, 33 ... moving image playback processing unit, 34 ... thumbnail playback processing unit, 35 ... Feature data extraction unit 36... Common part specifying unit 37 37 Common part search unit 38 38 Representative image selection unit 39 39 Recording device I / O interface 40 Decoding processing unit 41 Audio processing unit 42 Moving picture decoding processing unit, 43... Memory, 44.

Claims (10)

動画コンテンツを取得して、該動画コンテンツの代表画像を作成する画像作成装置であって、
複数の動画コンテンツ間の共通部分を探索する共通部分探索部と、該共通部分探索部によって探索された共通部分以外の部分から、各動画コンテンツの代表画像を作成する画像作成部とを有することを特徴とする画像作成装置。
An image creation device that acquires video content and creates a representative image of the video content,
A common part search unit that searches for a common part between a plurality of video contents, and an image creation unit that creates a representative image of each video content from a part other than the common part searched by the common part search unit. A featured image creation device.
請求項1に記載の画像作成装置において、
前記画像作成部は、前記動画コンテンツの画像データから前記代表画像とする画像データを選択し、もしくは前記動画コンテンツから前記代表画像を取得可能な動画再生情報を選択する代表画像選択部と、
該代表画像選択部が選択した画像データ、もしくは該代表画像選択部が選択した前記動画再生情報に基づいて前記動画コンテンツから代表画像を取得することにより、所定の表示手段に表示可能な前記代表画像を作成する表示画像処理部とを有することを特徴とする画像作成装置。
The image creating apparatus according to claim 1,
The image creating unit selects image data to be the representative image from image data of the moving image content, or a representative image selecting unit that selects moving image reproduction information from which the representative image can be acquired from the moving image content;
The representative image that can be displayed on a predetermined display unit by acquiring a representative image from the moving image content based on the image data selected by the representative image selecting unit or the moving image reproduction information selected by the representative image selecting unit. A display image processing unit for generating the image.
請求項1または2に記載の画像作成装置において、
前記画像作成部は、前記共通部分の終了直後の画像を前記代表画像として作成することを特徴とする画像作成装置。
The image creating apparatus according to claim 1 or 2,
The image creation unit creates the image immediately after the end of the common part as the representative image.
請求項1または2に記載の画像作成装置において、
前記画像作成部は、前記共通部分の開始直前の画像を前記代表画像として作成することを特徴とする画像作成装置。
The image creating apparatus according to claim 1 or 2,
The image creation unit creates the image immediately before the start of the common part as the representative image.
請求項1〜4のいずれか1に記載の画像作成装置において、
前記画像作成部は、少なくとも前記共通部分の一部を含む特定期間の画像を前記代表画像として作成することを特徴とする画像作成装置。
In the image creation device according to any one of claims 1 to 4,
The image creation unit creates an image of a specific period including at least a part of the common part as the representative image.
請求項1〜5のいずれか1に記載の画像作成装置において、
前記画像作成部は、前記共通部分の終了から所定期間分後の画像、もしくは前記共通部分の開始から所定期間分前の画像を前記代表画像として作成することを特徴とする画像作成装置。
In the image creation device according to any one of claims 1 to 5,
The image creating device creates an image after a predetermined period from the end of the common part or an image before a predetermined period from the start of the common part as the representative image.
請求項1〜6のいずれか1に記載の画像作成装置において、
前記画像作成部が作成した前記代表画像を表示する表示装置を備えることを特徴とする画像作成装置。
In the image creation device according to any one of claims 1 to 6,
An image creating apparatus comprising: a display device that displays the representative image created by the image creating unit.
請求項1〜7のいずれか1に記載の画像作成装置において、
前記画像作成部が作成した代表画像を記録する記録装置を備えることを特徴とする画像作成装置。
In the image creation device according to any one of claims 1 to 7,
An image creating apparatus comprising: a recording device that records a representative image created by the image creating unit.
動画コンテンツを取得して、該動画コンテンツの代表画像を作成する画像作成方法であって、
複数の動画コンテンツ間の共通部分を探索する共通部分探索ステップと、
該共通部分探索ステップによって探索された共通部分以外の部分から、各動画コンテンツの代表画像を作成する代表画像作成ステップとを有することを特徴とする画像作成方法。
An image creation method for obtaining video content and creating a representative image of the video content,
A common part search step for searching for a common part between a plurality of video contents;
A representative image creating step of creating a representative image of each moving image content from a portion other than the common portion searched by the common portion searching step.
請求項1〜8のいずれか1に記載の画像作成装置の機能をコンピュータに実現させるためのプログラム。   A program for causing a computer to realize the function of the image creating apparatus according to claim 1.
JP2010011127A 2010-01-21 2010-01-21 Image creation device, image creation method, and program Pending JP2011151605A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010011127A JP2011151605A (en) 2010-01-21 2010-01-21 Image creation device, image creation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010011127A JP2011151605A (en) 2010-01-21 2010-01-21 Image creation device, image creation method, and program

Publications (1)

Publication Number Publication Date
JP2011151605A true JP2011151605A (en) 2011-08-04

Family

ID=44538203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010011127A Pending JP2011151605A (en) 2010-01-21 2010-01-21 Image creation device, image creation method, and program

Country Status (1)

Country Link
JP (1) JP2011151605A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556492A (en) * 2021-07-09 2021-10-26 深圳传音控股股份有限公司 Thumbnail generation method, mobile terminal and readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274233A (en) * 2006-03-30 2007-10-18 Toshiba Corp Picture information processor, digital information recording medium, picture information processing method and picture information processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274233A (en) * 2006-03-30 2007-10-18 Toshiba Corp Picture information processor, digital information recording medium, picture information processing method and picture information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556492A (en) * 2021-07-09 2021-10-26 深圳传音控股股份有限公司 Thumbnail generation method, mobile terminal and readable storage medium
CN113556492B (en) * 2021-07-09 2023-10-20 深圳传音控股股份有限公司 Thumbnail generation method, mobile terminal and readable storage medium

Similar Documents

Publication Publication Date Title
JP2009543497A (en) Apparatus and method for playing audio-video content
KR20140041780A (en) Metadata assisted trick mode intervention method and system
JP2011130279A (en) Content providing server, content reproducing apparatus, content providing method, content reproducing method, program and content providing system
US9241145B2 (en) Information processing system, recording/playback apparatus, playback terminal, information processing method, and program
JP2011193300A (en) Image processing apparatus, image processing method, image processing system, control program, and recording medium
JP2012151817A (en) Reproduction apparatus and image-capturing apparatus
JP2014030153A (en) Information processor, information processing method, and computer program
JPWO2007086408A1 (en) Image reproduction system, image reproduction method, and image reproduction program
EP3547698A1 (en) Method and device for determining inter-cut time bucket in audio/video
US20080159717A1 (en) Digital image reproducing apparatus and method of forward/reverse searching digital images
JP2011151605A (en) Image creation device, image creation method, and program
JP2009239322A (en) Video reproducing device, video reproducing method, and video reproducing program
WO2020038290A1 (en) Bookmark display method and device
US9263090B2 (en) Image processing apparatus, image processing method, and program
US8295676B2 (en) Video reproducing apparatus
KR101748576B1 (en) Apparatus and method for segmenting video data in mobile communication teminal
JP2009094966A (en) Reproducing device, reproduction method, and reproduction control program
TWI355852B (en) Video recording and playing system and method for
JP2014207619A (en) Video recording and reproducing device and control method of video recording and reproducing device
JP2014072589A (en) Content reproducer, television receiver, content reproduction method, program and recording medium
JP2003101911A (en) Image reproducing device
JP2005294904A (en) Thumbnail picture extraction method, apparatus, and program
KR100854329B1 (en) Display method and device of contents list
KR101086428B1 (en) Method and apparatus for summarizing title in media player
KR101525482B1 (en) Apparatus and method for reproducing preview contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130618