JP2013225731A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2013225731A
JP2013225731A JP2012096103A JP2012096103A JP2013225731A JP 2013225731 A JP2013225731 A JP 2013225731A JP 2012096103 A JP2012096103 A JP 2012096103A JP 2012096103 A JP2012096103 A JP 2012096103A JP 2013225731 A JP2013225731 A JP 2013225731A
Authority
JP
Japan
Prior art keywords
image
images
unit
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012096103A
Other languages
Japanese (ja)
Inventor
Takahiro Mochizuki
貴裕 望月
Masato Fujii
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012096103A priority Critical patent/JP2013225731A/en
Publication of JP2013225731A publication Critical patent/JP2013225731A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically select a favorable thumbnail image from a moving image.SOLUTION: An image processing device comprises: an extraction unit that extracts a plurality of images estimated to have a scene change from a moving image; a sorting unit that sorts the plurality of extracted images on the basis of feature amounts of the images; and a selection unit that sequentially performs face detection on the plurality of sorted images, and selects an image in which a face area is not detected.

Description

本発明は、サムネイル画像を抽出する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program for extracting thumbnail images.

近年、オンデマンドサービスなどにおいて、配信する番組映像を把握しやすくするためのサムネイル画像を表示するサービスがある。サムネイル画像を決定する場合、人手で画像を選択することが多く、大量の映像を処理しなければならないため、作業コストが非常に大きくなってしまう。   In recent years, on-demand services and the like include services that display thumbnail images to make it easier to grasp the program video to be distributed. When determining a thumbnail image, the image is often manually selected, and a large amount of video has to be processed, resulting in a very high work cost.

サムネイル画像を人手によらず抽出する技術として、例えば、番組開始から一定数秒後の画像を抽出する技術がある(特許文献1)。また、ユーザが最初に選択したサムネイル画像を基準にして、サムネイル画像の選択を行う技術がある(特許文献2)。さらに、番組に対するインターネット上の書き込み情報を、画像選択の尺度とする技術がある(特許文献3)。   As a technique for extracting thumbnail images without manual intervention, for example, there is a technique for extracting an image after a certain number of seconds from the start of a program (Patent Document 1). There is also a technique for selecting a thumbnail image based on a thumbnail image selected by the user first (Patent Document 2). Furthermore, there is a technique that uses information written on the Internet for a program as a measure of image selection (Patent Document 3).

特開2003−274361号公報JP 2003-274361 A 特開2005−294904号公報JP 2005-294904 A 特開2007−166166号公報JP 2007-166166 A

しかしながら、一定数秒後の画像を抽出する従来技術では、抽出された画像が必ずしもサムネイル画像に好適であるとは限らない。また、ユーザが最初にサムネイル画像を選択したり、書き込み情報を用いたりする従来技術では、人手が介在しなければサムネイル画像を選択することができない。   However, in the conventional technique for extracting an image after a certain number of seconds, the extracted image is not necessarily suitable for a thumbnail image. Further, in the conventional technique in which the user first selects a thumbnail image or uses write information, the thumbnail image cannot be selected without human intervention.

そこで、本発明は、上記課題に鑑みてなされたものであり、好適なサムネイル画像を動画像から自動的に選択することができる画像処理装置及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and program capable of automatically selecting a suitable thumbnail image from a moving image.

本発明の一態様における画像処理装置は、動画像の中から、場面変化があったと推定される画像を複数抽出する抽出部と、抽出された複数の画像を、該画像の特徴量に基づいて並べ替えるソート部と、並べ替えられた複数の画像に対して顔検出を順に行い、顔領域が検出されなかった画像を選択する選択部と、を備える。   An image processing apparatus according to an aspect of the present invention includes an extraction unit that extracts a plurality of images that are estimated to have undergone a scene change from a moving image, and extracts the plurality of extracted images based on feature values of the images. A sorting unit that rearranges and a selection unit that sequentially performs face detection on a plurality of rearranged images and selects an image in which no face area is detected.

また、前記抽出部は、画像内の各画素値をHSV表色系に変換し、彩度を表すS値を用いて場面変化を判定してもよい。   Further, the extraction unit may convert each pixel value in the image into an HSV color system, and determine a scene change using an S value representing saturation.

また、前記抽出部は、画像内の背景領域を抽出し、前記背景領域の画素を用いて場面変化を判定してもよい。   The extraction unit may extract a background area in the image and determine a scene change using pixels of the background area.

また、前記ソート部は、抽出された画像からエッジ画像を生成し、該エッジ画像から求めたエッジ量の多い順に画像を並べ替えてもよい。   The sorting unit may generate an edge image from the extracted image, and rearrange the images in descending order of the edge amount obtained from the edge image.

また、前記ソート部は、抽出された画像の色の多い順に画像を並べ替えてもよい。   In addition, the sorting unit may rearrange the images in order of the color of the extracted images.

また、本発明の他の態様におけるプログラムは、コンピュータに、動画像の中から、場面変化があったと推定される画像を複数抽出する抽出ステップと、抽出された複数の画像を、該画像の特徴量に基づいて並べ替えるソートステップと、並べ替えられた複数の画像に対して顔検出を順に行い、顔領域が検出されなかった画像を選択する選択ステップと、を実行させる。   According to another aspect of the present invention, there is provided a program for extracting, from a moving image, a plurality of images that are estimated to have undergone a scene change, and extracting the plurality of extracted images from the moving image. A sorting step of rearranging based on the amount and a selection step of sequentially performing face detection on the plurality of rearranged images and selecting an image in which no face area has been detected are executed.

本発明によれば、好適なサムネイル画像を動画像から自動的に選択することができる。   According to the present invention, a suitable thumbnail image can be automatically selected from a moving image.

実施例における画像処理装置の概略構成の一例を示すブロック図。1 is a block diagram illustrating an example of a schematic configuration of an image processing apparatus according to an embodiment. 実施例における画像処理装置の機能の一例を示すブロック図。The block diagram which shows an example of the function of the image processing apparatus in an Example. 抽出部の機能の一例を示すブロック図。The block diagram which shows an example of the function of an extraction part. 背景領域の一例を示す図。The figure which shows an example of a background area | region. ソート部の機能の一例を示すブロック図。The block diagram which shows an example of the function of a sort part. エッジ画像の一例を示す図。The figure which shows an example of an edge image. 候補画像のソートを説明するための図。The figure for demonstrating the sorting of a candidate image. 選択部の機能の一例を示すブロック図。The block diagram which shows an example of the function of a selection part. 実施例における画像処理装置のサムネイル画像抽出処理の一例を示すフローチャート。6 is a flowchart illustrating an example of thumbnail image extraction processing of the image processing apparatus according to the embodiment. 実施例における候補画像抽出処理の一例を示すフローチャート。The flowchart which shows an example of the candidate image extraction process in an Example. 実施例における候補画像の並べ替え処理の一例を示すフローチャート。The flowchart which shows an example of the rearrangement process of the candidate image in an Example. 実施例におけるサムネイル画像選択処理の一例を示すフローチャート。6 is a flowchart illustrating an example of thumbnail image selection processing according to the embodiment.

以下、添付図面を参照しながら実施例について詳細に説明する。まず、サムネイル画像は、以下の基準で選ばれた画像を表示することが好ましい。
・場面が大きく変化した画像(その番組のメインとなる場面を表す可能性が高い)
・番組内容をひと目で把握しやすい画像
・画像に映る人物の権利を考慮し、人物の顔がアップで映らない画像
以下に示す実施例では、上記基準を満たす画像を動画像から自動的に抽出し、抽出した画像をサムネイル画像とする。
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. First, it is preferable that thumbnail images display images selected according to the following criteria.
・ Images with greatly changed scenes (highly likely to represent the main scene of the program)
・ Images that make it easy to grasp the program contents at a glance ・ Images that do not show the person's face up in consideration of the rights of the person appearing in the image In the examples shown below, images that meet the above criteria are automatically extracted from moving images The extracted image is used as a thumbnail image.

[実施例]
<構成>
図1は、実施例における画像処理装置10の概略構成の一例を示すブロック図である。図1に示すように、画像処理装置10は、制御部102、主記憶部104、補助記憶部106、ドライブ装置108、ネットワークI/F部110、入力部112、及び表示部114を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
[Example]
<Configuration>
FIG. 1 is a block diagram illustrating an example of a schematic configuration of an image processing apparatus 10 according to an embodiment. As illustrated in FIG. 1, the image processing apparatus 10 includes a control unit 102, a main storage unit 104, an auxiliary storage unit 106, a drive device 108, a network I / F unit 110, an input unit 112, and a display unit 114. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部102は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部102は、主記憶部104又は補助記憶部106に記憶されたサムネイル画像抽出処理のプログラムを実行する演算装置である。制御部102は、入力部112や記憶装置からデータを受け取り、演算、加工した上で、表示部114や記憶装置などに出力する。   The control unit 102 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 102 is an arithmetic device that executes a thumbnail image extraction processing program stored in the main storage unit 104 or the auxiliary storage unit 106. The control unit 102 receives data from the input unit 112 and the storage device, calculates and processes the data, and outputs the data to the display unit 114 and the storage device.

主記憶部104は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部104は、制御部102が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 104 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 104 is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software that are basic software executed by the control unit 102.

補助記憶部106は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 106 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like.

ドライブ装置108は、記録媒体116、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 108 reads the program from the recording medium 116, for example, a flexible disk, and installs it in the storage device.

また、記録媒体116に、所定のプログラムを格納し、この記録媒体116に格納されたプログラムはドライブ装置108を介して画像処理装置10にインストールされる。インストールされた所定のプログラムは、画像処理装置10により実行可能となる。   A predetermined program is stored in the recording medium 116, and the program stored in the recording medium 116 is installed in the image processing apparatus 10 via the drive device 108. The installed predetermined program can be executed by the image processing apparatus 10.

ネットワークI/F部110は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置10とのインターフェースである。   The network I / F unit 110 has a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 10.

入力部112は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部114の表示画面上でキーの選択等を行うためのマウスやスライドパッド等を有する。また、入力部112は、ユーザが制御部102に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 112 includes a keyboard having cursor keys, numeric input, various function keys, and the like, and a mouse and a slide pad for selecting keys on the display screen of the display unit 114. The input unit 112 is a user interface for a user to give an operation instruction to the control unit 102 or input data.

表示部114は、LCD(Liquid Crystal Display)等により構成され、制御部102から入力される表示データに応じた表示が行われる。   The display unit 114 is configured by an LCD (Liquid Crystal Display) or the like, and performs display according to display data input from the control unit 102.

<機能>
次に、画像処理装置10の機能について説明する。図2は、実施例における画像処理装置10の機能の一例を示すブロック図である。図2に示す画像処理装置10は、抽出部202、ソート部204、及び選択部206を少なくとも有する。
<Function>
Next, functions of the image processing apparatus 10 will be described. FIG. 2 is a block diagram illustrating an example of functions of the image processing apparatus 10 according to the embodiment. The image processing apparatus 10 illustrated in FIG. 2 includes at least an extraction unit 202, a sorting unit 204, and a selection unit 206.

なお、抽出部202、ソート部204、及び選択部206は、例えば制御部102やワークメモリとしての主記憶部104などにより実現されうる。制御部102は、プログラムを実行することで、抽出部202、ソート部204、及び選択部206の機能を実行することができる。   The extraction unit 202, the sorting unit 204, and the selection unit 206 can be realized by the control unit 102, the main storage unit 104 as a work memory, or the like, for example. The control unit 102 can execute the functions of the extraction unit 202, the sorting unit 204, and the selection unit 206 by executing a program.

抽出部202は、動画像の中から、場面変化があったと推定される画像を複数抽出する。例えば、抽出部202は、動画像の中からシーンチェンジが行われた画像を抽出する。動画像は、例えば番組映像であり、以下では、番組映像を例にして説明する。   The extraction unit 202 extracts a plurality of images that are estimated to have changed scenes from the moving images. For example, the extraction unit 202 extracts an image that has undergone a scene change from the moving image. The moving image is, for example, a program video, and will be described below using the program video as an example.

これにより、抽出部202は、場面が大きく変化した画像、つまり、番組のメインとなる場面を表す可能性が高い画像を抽出することができる。以降では、抽出部202により抽出された画像を候補画像とも呼ぶ。抽出部202は、抽出した候補画像をソート部204に出力する。   Thereby, the extraction unit 202 can extract an image in which the scene has changed greatly, that is, an image that is highly likely to represent the main scene of the program. Hereinafter, the image extracted by the extraction unit 202 is also referred to as a candidate image. The extraction unit 202 outputs the extracted candidate images to the sorting unit 204.

ソート部204は、抽出部202により抽出された複数の候補画像を、この候補画像の特徴量に基づいて並べ替える。画像の特徴量として、例えば、色の多さやエッジ量を用いればよい。ソート部204は、並べ替えられた候補画像を選択部206に出力する。   The sorting unit 204 rearranges the plurality of candidate images extracted by the extracting unit 202 based on the feature amounts of the candidate images. For example, the amount of colors or the amount of edges may be used as the feature amount of the image. The sorting unit 204 outputs the rearranged candidate images to the selection unit 206.

これにより、ソート部204は、候補画像の中から、番組内容をひと目で把握しやすい画像を上位にくるよう並べ替えることができる。つまり、ソート後の候補画像は、番組内容をひと目で把握しやすい順に並んでいる。   Thereby, the sort part 204 can rearrange the image which can grasp | ascertain the content of a program at a glance from candidate images so that it may become higher rank. That is, the sorted candidate images are arranged in an order that makes it easy to grasp the program contents at a glance.

選択部206は、ソート部204により並べ替えられた複数の候補画像に対して顔検出を順に行い、顔が検出されなかった画像を選択する。選択部206は、番組内容をひと目で把握しやすい順に、候補画像に対して顔検出を行っていき、顔が検出されなかった時点で、その候補画像をサムネイル画像として選択可能である。   The selection unit 206 sequentially performs face detection on a plurality of candidate images rearranged by the sorting unit 204, and selects an image in which no face is detected. The selection unit 206 performs face detection on the candidate images in an order in which the program contents can be easily understood at a glance, and can select the candidate images as thumbnail images when no face is detected.

これにより、選択部206は、人物の顔が認識可能に映っていない画像を、最終的にサムネイル画像として選択することができる。   Thereby, the selection unit 206 can finally select an image in which a human face is not recognizable so as to be recognized as a thumbnail image.

以上の構成を有することで、実施例の画像処理装置10は、人手の入力などを介在させずに、動画像から自動的に好適なサムネイル画像を抽出することができる。なお、画像処理装置10は、図示していないが、候補画像やソート後の画像、サムネイル画像を記憶する記憶部を有する。   With the above-described configuration, the image processing apparatus 10 according to the embodiment can automatically extract a suitable thumbnail image from a moving image without any manual input. Although not shown, the image processing apparatus 10 includes a storage unit that stores candidate images, sorted images, and thumbnail images.

<各処理>
次に、サムネイル画像抽出処理の各処理について具体的に説明する。
<Each process>
Next, each process of the thumbnail image extraction process will be specifically described.

《抽出処理》
図3は、抽出部202の機能の一例を示すブロック図である。図3に示すように、抽出部202は、背景領域抽出部302、変換部304、及び場面変化判定部306を有する。抽出部202は、公知の技術であるシーンチェンジを抽出する技術を用いてもよいが、以下に説明する処理で場面変化を抽出する。
<< Extraction process >>
FIG. 3 is a block diagram illustrating an example of the function of the extraction unit 202. As illustrated in FIG. 3, the extraction unit 202 includes a background region extraction unit 302, a conversion unit 304, and a scene change determination unit 306. The extraction unit 202 may use a technique for extracting a scene change, which is a known technique, but extracts a scene change by a process described below.

まず、抽出部202は、入力された番組映像に対し、所定のフレーム間隔で、フレーム画像を抽出する。以降では、抽出した画像をサンプリング画像とも呼ぶ。なお、抽出部202は、必ずしもサンプリングする必要はない。   First, the extraction unit 202 extracts frame images from the input program video at predetermined frame intervals. Hereinafter, the extracted image is also referred to as a sampling image. Note that the extraction unit 202 is not necessarily required to sample.

背景領域抽出部302は、各サンプリング画像から背景領域を抽出する。背景領域は、図4に示すように、所定の領域を予め設定しておけばよい。図4は、背景領域の一例を示す図である。図4に示す背景領域は、Wが画像の幅を表し、Hが画像の高さを表す。   The background area extraction unit 302 extracts a background area from each sampling image. As the background area, a predetermined area may be set in advance as shown in FIG. FIG. 4 is a diagram illustrating an example of the background area. In the background area shown in FIG. 4, W represents the width of the image, and H represents the height of the image.

図4に示す例では、背景領域は、W方向の画像両端からrWの長さ、H方向上端からrHの長さの領域を表す。このrWやrHの長さが、背景領域抽出部302に設定されていればよい。 In the example illustrated in FIG. 4, the background region represents a region having a length of r 1 W from both ends of the image in the W direction and a length of r 2 H from the upper end of the H direction. The lengths of r 1 W and r 2 H only need to be set in the background region extraction unit 302.

また、背景領域抽出部302は、公知の背景領域を抽出する技術を用いてもよい。例えば、背景領域抽出部302は、複数のサンプリング画像の差分を計算し、移動物体を削除するなどして背景領域を抽出してもよい。背景領域抽出部302は、抽出した背景領域を変換部304に出力する。   The background area extraction unit 302 may use a known technique for extracting a background area. For example, the background region extraction unit 302 may extract a background region by calculating a difference between a plurality of sampling images and deleting a moving object. The background area extraction unit 302 outputs the extracted background area to the conversion unit 304.

背景領域を用いる理由は、中央に映る人物などの変化に影響されずに、場面変化を検出するためである。   The reason for using the background region is to detect a scene change without being affected by a change in a person or the like shown in the center.

変換部304は、サンプリング画像の背景領域に含まれる各画素のRGB値を、HSV表色系に変換する。Hは色相、Sは彩度、Vは明度を表す。変換部304は、背景領域に含まれる全画素のS値を合計し、又は平均を計算し、この値を背景彩度特徴量とする。変換部304は、求めた背景彩度特徴量をサンプリング画像毎に場面変化判定部306に出力する。   The conversion unit 304 converts the RGB value of each pixel included in the background area of the sampling image into the HSV color system. H represents hue, S represents saturation, and V represents lightness. The conversion unit 304 sums or calculates the average of the S values of all the pixels included in the background area, and uses this value as the background saturation feature amount. The conversion unit 304 outputs the obtained background saturation feature amount to the scene change determination unit 306 for each sampled image.

彩度を用いる理由は、例えばスタジオ映像からロケ映像に切り替わるとき、画像の鮮やかさや彩りが大きく変化するからである。よって、彩度を用いると、サムネイルに適した場面変化の画像を適切に抽出することができる。また、変換部304は、必ずしも彩度を用いなければならないことはなく、例えば、V値(明度)や、色差変換後のY値(輝度)などを用いてもよい。   The reason for using the saturation is that, for example, when the studio image is switched to the location image, the vividness and color of the image change greatly. Therefore, by using the saturation, it is possible to appropriately extract a scene change image suitable for the thumbnail. The conversion unit 304 does not necessarily have to use saturation, and may use, for example, a V value (brightness), a Y value (luminance) after color difference conversion, or the like.

場面変化判定部306は、各サンプリング画像に対して、時間的に一つ前のサンプリング画像との背景彩度特徴量との差分を計算する。場面変化判定部306は、差分値が大きい上位N枚のサンプリング画像を、場面変化があった画像と推定し、これらの画像を候補画像とする。ここで、候補画像は、例えば、差分を計算した二つのサンプリング画像のうち、時間的に後の画像とする。   The scene change determination unit 306 calculates, for each sampling image, the difference between the background saturation feature amount and the previous sampling image in time. The scene change determination unit 306 estimates the top N sampling images having a large difference value as images having a scene change, and sets these images as candidate images. Here, the candidate image is, for example, an image later in time among the two sampled images for which the difference is calculated.

場面変化判定部306は、上位N枚を選択する以外にも、所定の閾値以上となる差分を有するサンプリング画像を候補画像としてもよい。所定の閾値は、実験などにより適切な値を求め、その値を設定しておけばよい。場面変化判定部306は、求めた候補画像をソート部204に出力する。   In addition to selecting the top N images, the scene change determination unit 306 may use a sampled image having a difference that is equal to or greater than a predetermined threshold as a candidate image. For the predetermined threshold value, an appropriate value may be obtained by experiment or the like and set. The scene change determination unit 306 outputs the obtained candidate image to the sorting unit 204.

《ソート処理》
図5は、ソート部204の機能の一例を示すブロック図である。図5に示す例では、ソート部204は、特徴量算出部402、及び画像ソート部404を有する。
《Sort processing》
FIG. 5 is a block diagram illustrating an example of the function of the sorting unit 204. In the example illustrated in FIG. 5, the sorting unit 204 includes a feature amount calculating unit 402 and an image sorting unit 404.

特徴量算出部402は、例えば、候補画像全体のエッジ量を算出する。特徴量算出部402は、候補画像から公知の技術を用いてエッジ画像を生成する。エッジ画像とは、輝度の変化が閾値より大きな点(エッジ点)を抽出した画像である。   For example, the feature amount calculation unit 402 calculates the edge amount of the entire candidate image. The feature amount calculation unit 402 generates an edge image from the candidate image using a known technique. An edge image is an image obtained by extracting points (edge points) whose luminance change is larger than a threshold value.

図6は、エッジ画像の一例を示す図である。図6に示す例では、満月の画像からエッジ抽出を行っている。   FIG. 6 is a diagram illustrating an example of an edge image. In the example shown in FIG. 6, edge extraction is performed from a full moon image.

特徴量算出部402は、生成されたエッジ画像の全画素の輝度値を合計し、この合計値をエッジ量とする。特徴量算出部402は、候補画像毎にエッジ量を求め、求めたエッジ量と候補画像とを画像ソート部404に出力する。   The feature amount calculation unit 402 adds the luminance values of all the pixels of the generated edge image, and uses this total value as the edge amount. The feature amount calculation unit 402 obtains an edge amount for each candidate image, and outputs the obtained edge amount and the candidate image to the image sorting unit 404.

エッジ量を用いる理由は、スタジオや景色のルーズショットのような「場面を俯瞰で見た画像」が番組内容をひと目で把握するためのサムネイル画像として好ましく、そのような画像はエッジ量が大きくなる傾向があるからである。   The reason for using the edge amount is that "an image of a scene seen from a bird's eye view" such as a studio or a landscape shot is preferable as a thumbnail image for grasping program contents at a glance, and such an image has a large edge amount. This is because there is a tendency.

また、特徴量算出部402は、エッジ量のほかにも、候補画像内の色の数を求めてもよい。色の数が多いほど、サムネイル画像として好ましい場合があるからである。   In addition to the edge amount, the feature amount calculation unit 402 may calculate the number of colors in the candidate image. This is because a larger number of colors may be preferable as a thumbnail image.

画像ソート部404は、特徴量算出部402から取得した特徴量に基づいて候補画像を、番組内容をひと目で把握しやすい順に並べ替える。画像ソート部404は、並べ替えた画像を画像1、画像2、・・・、画像Nとし、選択部206に出力する。   The image sorting unit 404 rearranges the candidate images based on the feature amount acquired from the feature amount calculating unit 402 in the order in which the program contents can be easily grasped at a glance. The image sorting unit 404 sets the rearranged images as image 1, image 2,..., Image N, and outputs them to the selection unit 206.

図7は、候補画像のソートを説明するための図である。図7に示す例では、画像ソート部404は、5枚の候補画像に対して、エッジ量の多い順に並べ替える。図7に示すように、画像ソート部404は、エッジ量の多い順に、候補画像を画像1、画像2、・・・、画像5とする。画像1は、街並みを撮影した画像であり、サムネイル画像に好適である。   FIG. 7 is a diagram for explaining sorting of candidate images. In the example illustrated in FIG. 7, the image sorting unit 404 rearranges the five candidate images in descending order of the edge amount. As illustrated in FIG. 7, the image sorting unit 404 sets the candidate images as an image 1, an image 2,. Image 1 is an image of a cityscape and is suitable for a thumbnail image.

《選択処理》
図8は、選択部206の機能の一例を示すブロック図である。図8に示す例では、選択部206は、顔検出部502、顔判定部504、及びサムネイル画像選択部506を有する。
《Selection processing》
FIG. 8 is a block diagram illustrating an example of the function of the selection unit 206. In the example illustrated in FIG. 8, the selection unit 206 includes a face detection unit 502, a face determination unit 504, and a thumbnail image selection unit 506.

顔検出部502は、並べ替えられた候補画像に対し、画像1から順に顔検出処理を行う。顔検出部502は、顔検出技術として、例えば、インテルが開発・公開したオープンソースのコンピュータビジョン向けライブラリ「OpenCV」に含まれる顔領域検出プログラムを用いればよい。なお、選択部206は、その他の公知の顔検出プログラムを用いてもよい。   The face detection unit 502 performs face detection processing in order from the image 1 on the rearranged candidate images. The face detection unit 502 may use, for example, a face area detection program included in the open source computer vision library “OpenCV” developed and released by Intel as a face detection technique. Note that the selection unit 206 may use other known face detection programs.

顔判定部504は、顔検出部502による顔検出の結果、顔領域が存在するか否かを判定する。顔判定部504は、顔領域が存在しないならば、その画像をサムネイル画像選択部506に出力する。顔判定部504は、顔領域が存在すれば、顔検出部502にその旨を通知する。これにより、次の画像で顔検出が行われる。また、顔判定部504は、全ての候補画像で顔が検出された場合は、その旨をサムネイル画像選択部506に通知する。   The face determination unit 504 determines whether or not a face area exists as a result of face detection by the face detection unit 502. If there is no face area, face determination unit 504 outputs the image to thumbnail image selection unit 506. If a face area exists, the face determination unit 504 notifies the face detection unit 502 to that effect. Thereby, face detection is performed on the next image. Further, when a face is detected in all candidate images, the face determination unit 504 notifies the thumbnail image selection unit 506 to that effect.

サムネイル画像選択部506は、顔判定部504より、顔領域が存在しないと判定された候補画像を、サムネイル画像として選択する。また、サムネイル画像選択部506は、顔判定部504より全候補画像で顔領域が検出されたことを通知された場合、画像1をサムネイル画像として選択してもよい。選択されたサムネイル画像は、番組映像と関連付けて記憶部に記憶される。   The thumbnail image selection unit 506 selects a candidate image determined by the face determination unit 504 as having no face area as a thumbnail image. In addition, the thumbnail image selection unit 506 may select the image 1 as a thumbnail image when the face determination unit 504 is notified that a face area has been detected in all candidate images. The selected thumbnail image is stored in the storage unit in association with the program video.

以上の処理を行うことで、実施例における画像処理装置10は、各動画像から、場面変化が大きく、番組内容をひと目で把握しやすく、かつ権利上問題がある可能性がある人物の顔が認識可能に映っていない画像を、サムネイル画像として自動抽出することができる。   By performing the above processing, the image processing apparatus 10 according to the embodiment can detect a face of a person who has a large scene change from each moving image, can easily grasp the program contents at a glance, and may have a problem in rights. Images that are not recognizable can be automatically extracted as thumbnail images.

<動作>
次に、実施例における画像処理装置10の動作について説明する。図9は、実施例における画像処理装置10のサムネイル画像抽出処理の一例を示すフローチャートである。
<Operation>
Next, the operation of the image processing apparatus 10 in the embodiment will be described. FIG. 9 is a flowchart illustrating an example of the thumbnail image extraction process of the image processing apparatus 10 according to the embodiment.

図9に示すステップS101で、抽出部202は、動画像の中から、場面変化があったと推定される画像を複数抽出する。この抽出処理は、図10を用いて後述する。   In step S101 illustrated in FIG. 9, the extraction unit 202 extracts a plurality of images that are estimated to have undergone a scene change from the moving images. This extraction process will be described later with reference to FIG.

ステップS102で、ソート部204は、抽出部202により抽出された複数の画像を、この画像の特徴量に基づいて並べ替える。この並べ替え処理は、図11を用いて後述する。   In step S102, the sorting unit 204 rearranges the plurality of images extracted by the extracting unit 202 based on the feature amount of the images. This rearrangement process will be described later with reference to FIG.

ステップS103で、選択部206は、ソート部204により並べ替えられた画像順に、顔検出処理を行って、顔領域が検出されなかった画像を選択する。この選択処理は、図12を用いて後述する。   In step S <b> 103, the selection unit 206 performs face detection processing in the order of images rearranged by the sorting unit 204 and selects an image in which no face area has been detected. This selection process will be described later with reference to FIG.

これにより、画像処理装置10は、選択された画像をサムネイル画像として抽出することができる。   Thereby, the image processing apparatus 10 can extract the selected image as a thumbnail image.

図10は、実施例における候補画像抽出処理の一例を示すフローチャートである。図10に示すステップS201で、抽出部202は、入力された動画像に対し、所定のフレーム間隔でサンプリングを行う。   FIG. 10 is a flowchart illustrating an example of candidate image extraction processing in the embodiment. In step S201 shown in FIG. 10, the extraction unit 202 samples the input moving image at a predetermined frame interval.

ステップS202で、背景領域抽出部302は、複数のサンプリング画像の中から、サンプリング画像を1つ選択する。例えば、背景領域抽出部302は、時間的に早い方から順に選択する。   In step S202, the background region extraction unit 302 selects one sampling image from a plurality of sampling images. For example, the background region extraction unit 302 selects in order from the earliest in time.

ステップS203で、背景領域抽出部302は、例えば予め設定されている領域を背景領域として抽出する。   In step S203, the background area extraction unit 302 extracts, for example, a preset area as a background area.

ステップS204で、変換部304は、背景領域の各画素のRGB値をHSV値に変換する。変換部304は、背景領域に含まれる全画素のS値を合計し、この合計値を背景領域の特徴量(以下、背景特徴量とも呼ぶ。)とする。また、変換部304は、輝度などを用いて背景特徴量を算出してもよい。   In step S204, the conversion unit 304 converts the RGB value of each pixel in the background area into an HSV value. The conversion unit 304 sums up the S values of all the pixels included in the background area, and uses the total value as a feature amount of the background region (hereinafter also referred to as a background feature amount). Further, the conversion unit 304 may calculate the background feature amount using luminance or the like.

ステップS205で、場面変化判定部306は、対象の背景特徴量と、時間的に一つ前のサンプリング画像の背景特徴量との差分値を算出する。なお、場面変化判定部306は、最初のサンプリング画像については、差分値を求めることができないので、差分値を求めずに次の処理を行う。   In step S205, the scene change determination unit 306 calculates a difference value between the target background feature value and the background feature value of the immediately preceding sampling image. Since the scene change determination unit 306 cannot obtain a difference value for the first sampled image, the scene change determination unit 306 performs the next process without obtaining the difference value.

ステップS206で、抽出部202は、全てのサンプリング画像に対して処理を行ったかを判定する。全サンプリング画像で処理を行っていれば(ステップS206−YES)ステップS207に進み、全サンプリング画像で処理を行っていなければ(ステップS206−NO)ステップS202に戻り、次のサンプリング画像が選択される。   In step S206, the extraction unit 202 determines whether processing has been performed for all the sampled images. If processing has been performed on all sampling images (step S206—YES), the process proceeds to step S207. If processing has not been performed on all sampling images (step S206—NO), the process returns to step S202, and the next sampling image is selected. .

ステップS207で、場面変化判定部306は、差分値が大きい上位N枚のサンプリング画像を候補画像として抽出する。   In step S207, the scene change determination unit 306 extracts the top N sampling images having a large difference value as candidate images.

これにより、抽出部202は、動画像の中で、場面変化が大きい上位N枚を候補画像として抽出することができる。   As a result, the extraction unit 202 can extract the top N images having a large scene change from the moving images as candidate images.

図11は、実施例における候補画像の並べ替え処理の一例を示すフローチャートである。図11に示すステップS301で、特徴量算出部402は、候補画像を識別するための変数iに1を代入する。   FIG. 11 is a flowchart illustrating an example of candidate image rearrangement processing in the embodiment. In step S301 illustrated in FIG. 11, the feature amount calculation unit 402 substitutes 1 for a variable i for identifying a candidate image.

ステップS302で、特徴量算出部402は、候補画像iの特徴量を算出する。ここでは、エッジ量や色の数を特徴量とすればよい。   In step S302, the feature amount calculation unit 402 calculates the feature amount of the candidate image i. Here, the edge amount and the number of colors may be used as the feature amount.

ステップS303で、特徴量算出部402は、i≧Nであるか否かを判定する。Nは、候補画像の数を表す。i≧Nであれば(ステップS303−YES)ステップS305に進み、i≧Nでなければ(ステップS303−NO)ステップS304に進む。   In step S303, the feature amount calculation unit 402 determines whether i ≧ N. N represents the number of candidate images. If i ≧ N (step S303—YES), the process proceeds to step S305, and if i ≧ N (step S303—NO), the process proceeds to step S304.

ステップS304で、特徴量算出部402は、変数iに1を加算し、次の候補画像に対して、特徴量を算出するようにする。   In step S304, the feature amount calculation unit 402 adds 1 to the variable i and calculates the feature amount for the next candidate image.

ステップS305で、画像ソート部404は、N枚の候補画像に対して、特徴量が多い順に並べ替える。画像ソート部404は、特徴量が多い候補画像から、画像1、画像2、・・・、画像Nとする。   In step S305, the image sorting unit 404 sorts the N candidate images in descending order of the feature amount. The image sorting unit 404 sets image 1, image 2,..., Image N from candidate images having a large amount of features.

これにより、画像ソート部404は、番組内容をひと目で把握しやすい順に候補画像を並べ替えることができる。   As a result, the image sorting unit 404 can rearrange the candidate images in an order in which the program contents can be easily grasped at a glance.

図12は、実施例におけるサムネイル画像選択処理の一例を示すフローチャートである。図12に示すステップS401で、顔検出部502は、候補画像を識別するための変数iに1を代入する。   FIG. 12 is a flowchart illustrating an example of the thumbnail image selection process in the embodiment. In step S401 illustrated in FIG. 12, the face detection unit 502 substitutes 1 for a variable i for identifying a candidate image.

ステップS402で、顔検出部502は、候補画像i(ソート後の画像i)に対して顔検出処理を行う。   In step S402, the face detection unit 502 performs face detection processing on the candidate image i (sorted image i).

ステップS403で、顔判定部504は、顔領域があるか否かを判定する。顔領域があれば(ステップS403−YES)ステップS405に進み、顔領域がなければ(ステップS403−NO)ステップS404に進む。   In step S403, the face determination unit 504 determines whether there is a face area. If there is a face area (step S403-YES), the process proceeds to step S405, and if there is no face area (step S403-NO), the process proceeds to step S404.

ステップS404で、サムネイル画像選択部506は、候補画像iをサムネイル画像として選択する。   In step S404, the thumbnail image selection unit 506 selects the candidate image i as a thumbnail image.

ステップS405で、顔検出部502は、i≧Nであるか否かを判定する。i≧Nであれば(ステップS405−YES)ステップS407に進み、i≧Nでなければ(ステップS405−NO)ステップS406に進む。   In step S405, the face detection unit 502 determines whether i ≧ N. If i ≧ N (step S405—YES), the process proceeds to step S407, and if i ≧ N (step S405—NO), the process proceeds to step S406.

ステップS406で、顔検出部502は、変数iに1を加算し、ステップS402に戻って候補画像iに対して顔検出を行う。   In step S406, the face detection unit 502 adds 1 to the variable i, returns to step S402, and performs face detection on the candidate image i.

ステップS407で、サムネイル画像選択部506は、画像1をサムネイル画像として選択する。   In step S407, the thumbnail image selection unit 506 selects the image 1 as a thumbnail image.

これにより、画像処理装置10は、選択されたサムネイル画像を、サムネイル画像の抽出結果として出力することができる。   Thereby, the image processing apparatus 10 can output the selected thumbnail image as a thumbnail image extraction result.

以上、実施例によれば、好適なサムネイル画像を動画像から自動的に選択することができる。また、実施例によれば、オンデマンドサービスなどにおいて配信する番組映像の代サムネイル画像として、場面変化が大きく、番組内容をひと目で把握しやすく、かつ権利上問題となる可能性がある人物の顔が認識可能ではない画像を自動的に抽出することができる。また、人手でサムネイル画像を選ぶコストが削減され、番組配信サービスの運用が効率化される。   As described above, according to the embodiment, a suitable thumbnail image can be automatically selected from a moving image. In addition, according to the embodiment, as a substitute thumbnail image of a program video distributed in an on-demand service or the like, a face of a person whose scene changes are large, the program contents can be easily grasped at a glance, and there is a possibility of causing a problem in rights. Images that are not recognizable can be automatically extracted. In addition, the cost of manually selecting thumbnail images is reduced, and the operation of the program distribution service is made more efficient.

なお、上記の画像処理装置10で実行されるプログラムは、実施例で説明した各部を含むモジュール構成となっている。実際のハードウェアとしては、制御部102が補助記憶部106からプログラムを読み出して実行することにより上記各部のうち1又は複数の各部が主記憶部104上にロードされ、1又は複数の各部が主記憶部104上に生成されるようになっている。   Note that the program executed by the image processing apparatus 10 has a module configuration including each unit described in the embodiment. As actual hardware, when the control unit 102 reads out and executes a program from the auxiliary storage unit 106, one or more of the above-described units are loaded onto the main storage unit 104, and one or more of the units are main. It is generated on the storage unit 104.

このように、上述した実施例で説明したサムネイル画像抽出処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、前述したサムネイル画像抽出処理を実現することができる。   As described above, the thumbnail image extraction processing described in the above-described embodiment may be realized as a program for causing a computer to execute. The thumbnail image extraction processing described above can be realized by installing this program from a server or the like and causing the computer to execute it.

また、このプログラムを記録媒体116に記録し、このプログラムが記録された記録媒体116をコンピュータや携帯端末に読み取らせて、前述した処理を実現させることも可能である。   It is also possible to record the program on the recording medium 116 and cause the computer or portable terminal to read the recording medium 116 on which the program is recorded, thereby realizing the above-described processing.

なお、記録媒体116は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The recording medium 116 is a recording medium for recording information optically, electrically or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk, etc., or an information electrically such as a ROM, flash memory, or the like. Various types of recording media such as a semiconductor memory for recording can be used.

以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記実施例以外にも種々の変形及び変更が可能である。   Although the embodiments have been described in detail above, the present invention is not limited to specific embodiments, and various modifications and changes other than the above-described embodiments are possible within the scope described in the claims.

10 画像処理装置
102 制御部
104 主記憶部
106 補助記憶部
202 抽出部
204 ソート部
206 選択部
302 背景領域抽出部
304 変換部
306 場面変化判定部
402 特徴量算出部
404 画像ソート部
502 顔検出部
504 顔判定部
506 サムネイル画像選択部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 102 Control part 104 Main memory | storage part 106 Auxiliary memory | storage part 202 Extraction part 204 Sort part 206 Selection part 302 Background area extraction part 304 Conversion part 306 Scene change determination part 402 Feature-value calculation part 404 Image sort part 502 Face detection part 504 Face determination unit 506 Thumbnail image selection unit

Claims (6)

動画像の中から、場面変化があったと推定される画像を複数抽出する抽出部と、
抽出された複数の画像を、該画像の特徴量に基づいて並べ替えるソート部と、
並べ替えられた複数の画像に対して顔検出を順に行い、顔領域が検出されなかった画像を選択する選択部と、
を備える画像処理装置。
An extraction unit that extracts a plurality of images that are estimated to have changed from a moving image;
A sorting unit that rearranges the plurality of extracted images based on the feature amount of the images;
A selection unit that sequentially performs face detection on a plurality of rearranged images and selects an image in which no face area is detected;
An image processing apparatus comprising:
前記抽出部は、
画像内の各画素値をHSV表色系に変換し、彩度を表すS値を用いて場面変化を判定する請求項1記載の画像処理装置。
The extraction unit includes:
The image processing apparatus according to claim 1, wherein each pixel value in the image is converted into an HSV color system, and a scene change is determined using an S value representing saturation.
前記抽出部は、
画像内の背景領域を抽出し、前記背景領域の画素を用いて場面変化を判定する請求項1又は2記載の画像処理装置。
The extraction unit includes:
The image processing apparatus according to claim 1, wherein a background change in the image is extracted and a scene change is determined using pixels of the background area.
前記ソート部は、
抽出された画像からエッジ画像を生成し、該エッジ画像から求めたエッジ量の多い順に画像を並べ替える請求項1乃至3いずれか一項に記載の画像処理装置。
The sorting unit
The image processing apparatus according to claim 1, wherein edge images are generated from the extracted images, and the images are rearranged in descending order of edge amounts obtained from the edge images.
前記ソート部は、
抽出された画像の色の多い順に画像を並べ替える請求項1乃至3いずれか一項に記載の画像処理装置。
The sorting unit
The image processing apparatus according to any one of claims 1 to 3, wherein the images are rearranged in descending order of colors of the extracted images.
コンピュータに、
動画像の中から、場面変化があったと推定される画像を複数抽出する抽出ステップと、
抽出された複数の画像を、該画像の特徴量に基づいて並べ替えるソートステップと、
並べ替えられた複数の画像に対して顔検出を順に行い、顔領域が検出されなかった画像を選択する選択ステップと、
を実行させるためのプログラム。
On the computer,
An extraction step for extracting a plurality of images that are estimated to have undergone a scene change from the moving images;
A sorting step of rearranging the plurality of extracted images based on the feature amount of the images;
A selection step of sequentially performing face detection on the plurality of rearranged images and selecting an image in which no face area is detected;
A program for running
JP2012096103A 2012-04-19 2012-04-19 Image processing device and program Pending JP2013225731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012096103A JP2013225731A (en) 2012-04-19 2012-04-19 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096103A JP2013225731A (en) 2012-04-19 2012-04-19 Image processing device and program

Publications (1)

Publication Number Publication Date
JP2013225731A true JP2013225731A (en) 2013-10-31

Family

ID=49595535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096103A Pending JP2013225731A (en) 2012-04-19 2012-04-19 Image processing device and program

Country Status (1)

Country Link
JP (1) JP2013225731A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097490A (en) * 2016-12-09 2018-06-21 キヤノン株式会社 Information processor, method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738842A (en) * 1993-06-29 1995-02-07 Toshiba Corp Dynamic image editing device
JP2005159781A (en) * 2003-11-27 2005-06-16 Seiko Epson Corp Image selecting processing apparatus, image selecting method, program thereof, and recording medium
WO2009031398A1 (en) * 2007-09-06 2009-03-12 Mitsubishi Electric Corporation Similar image discriminating device, chapter judging device, video signal recording device, and image processing device
JP2011528879A (en) * 2008-07-22 2011-11-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for providing a television sequence

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738842A (en) * 1993-06-29 1995-02-07 Toshiba Corp Dynamic image editing device
JP2005159781A (en) * 2003-11-27 2005-06-16 Seiko Epson Corp Image selecting processing apparatus, image selecting method, program thereof, and recording medium
WO2009031398A1 (en) * 2007-09-06 2009-03-12 Mitsubishi Electric Corporation Similar image discriminating device, chapter judging device, video signal recording device, and image processing device
JP2011528879A (en) * 2008-07-22 2011-11-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for providing a television sequence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097490A (en) * 2016-12-09 2018-06-21 キヤノン株式会社 Information processor, method and program

Similar Documents

Publication Publication Date Title
JP4895878B2 (en) Representative color extraction method and representative color extraction apparatus
CN111031346B (en) Method and device for enhancing video image quality
KR101942987B1 (en) Method, system for removing background of a video, and a computer-readable storage device
US7908547B2 (en) Album creating apparatus, album creating method and program
US20110206282A1 (en) Device, Method, and Program for Image Processing
KR101390202B1 (en) System and method for enhancement image using automatic emotion detection
CN112866799B (en) Video frame extraction processing method, device, equipment and medium
CN109376256B (en) Image searching method and device
JP2020525935A (en) Method and apparatus for determining duplicate video
JP2005202469A (en) Image processor, image processing method and program
JP2006091980A5 (en)
US9799099B2 (en) Systems and methods for automatic image editing
US20150278605A1 (en) Apparatus and method for managing representative video images
US20130088645A1 (en) Method of Processing Moving Picture and Apparatus Thereof
CN108428215A (en) A kind of image processing method, device and equipment
JP5719141B2 (en) Information processing apparatus, processing method thereof, and program
US20110064319A1 (en) Electronic apparatus, image display method, and content reproduction program
KR20110084405A (en) Foreground area extracting program, foreground area extracting apparatus and foreground area extracting method
CN111523400B (en) Video representative frame extraction method and device
US8824778B2 (en) Systems and methods for depth map generation
US9640141B2 (en) Method and apparatus for ambient lighting color determination
US10650242B2 (en) Information processing apparatus, method, and storage medium storing a program that obtain a feature amount from a frame in accordance with a specified priority order
JP2006217046A (en) Video index image generator and generation program
CN112258541A (en) Video boundary detection method, system, device and storage medium
JP2013225731A (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209