JP4940024B2 - Information processing apparatus, motion vector generation program, and interpolated image generation program - Google Patents
Information processing apparatus, motion vector generation program, and interpolated image generation program Download PDFInfo
- Publication number
- JP4940024B2 JP4940024B2 JP2007149979A JP2007149979A JP4940024B2 JP 4940024 B2 JP4940024 B2 JP 4940024B2 JP 2007149979 A JP2007149979 A JP 2007149979A JP 2007149979 A JP2007149979 A JP 2007149979A JP 4940024 B2 JP4940024 B2 JP 4940024B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- frames
- region
- character region
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、フレーム間に内挿される補間フレームをあつかう情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムに関する。 The present invention relates to an information processing apparatus, a motion vector generation program, and an interpolation image generation program that handle an interpolation frame interpolated between frames.
動画像処理等の分野において、2枚のフレーム(前フレームと後フレーム)間に内挿する補間フレームを生成する技術がある。この補間フレームの生成にあたり、前後フレーム画像間の動きベクトルを決定する技術は、非常に重要である。補間フレーム画像は、前後あわせて少なくとも2枚のフレーム画像間の動きベクトルにもとづいて生成される。このため、動きベクトルを適切に決定できなければ、適切な補間フレーム画像を生成することができない。 In the field of moving image processing and the like, there is a technique for generating an interpolated frame to be interpolated between two frames (a previous frame and a subsequent frame). In generating the interpolation frame, a technique for determining a motion vector between the preceding and following frame images is very important. The interpolated frame image is generated based on a motion vector between at least two frame images in front and back. For this reason, unless an appropriate motion vector can be determined, an appropriate interpolated frame image cannot be generated.
従来、この種の動きベクトルを決定する技術に、特開2002−185970号公報(特許文献1)に開示されたものがある。 Conventionally, there is a technique disclosed in Japanese Patent Laid-Open No. 2002-185970 (Patent Document 1) for determining this type of motion vector.
この特開2002−185970号公報(特許文献1)に開示された動画像符号化装置は、複数の動き補償フレーム間予測方式を用いて画像フレームを符号化する装置であって、画像フレームの動きベクトルを探索する動きベクトル探索手段と、動き補償フレーム間予測処理の際に、可変サイズの小領域毎にブロック移動、アフィン変換、双線形変換などの複数の予測方式を用いてそれぞれの予測方式から予測画像を生成して出力する予測手段と、この予測手段からの複数の予測画像にもとづき最適な領域サイズおよび予測方式を決定し、領域情報、動きベクトルなどの各種パラメータ(サイド情報)ならびに予測画像を出力する領域予測決定手段と、を備える。 A moving image encoding apparatus disclosed in Japanese Patent Laid-Open No. 2002-185970 (Patent Document 1) is an apparatus that encodes an image frame using a plurality of motion compensation inter-frame prediction methods, and the motion of the image frame. In motion vector search means for searching for vectors and motion compensation inter-frame prediction processing, a plurality of prediction methods such as block movement, affine transformation and bilinear transformation are used for each small area of variable size. A prediction unit that generates and outputs a prediction image, and determines an optimal region size and prediction method based on a plurality of prediction images from the prediction unit, and various parameters (side information) such as region information and motion vectors, and a prediction image And an area prediction determining means for outputting.
この従来の技術は、領域の分割方式を工夫し、注目領域に隣接する領域の予測方式が異なる場合にはこの隣接領域の動きベクトルを注目領域の動きベクトルとして利用することにより、動きベクトルに要するデータが少なくなるように動きベクトルを決定することができるようになっている。
動きベクトルを算出する方法のひとつに、ブロックマッチングがある。ブロックマッチングで動きベクトルを決定するためには、複数のパラメータからなるパラメータ群が必要となる。 One method for calculating motion vectors is block matching. In order to determine a motion vector by block matching, a parameter group including a plurality of parameters is required.
このパラメータ群は、静止した物体シーンと動く物体シーンとで、動きベクトルを算出するために最適なものが異なるばかりでなく、特に文字画像に最適なパラメータ群が存在する。さらに、文字画像が動く場合には、この動文字に最適なパラメータ群を適用すべきである。これは、文字を含むブロックには文字の背景画像が混入してしまうことが多いために、前後フレームのブロック間の輝度差を利用するブロックマッチングでは、ブロックサイズなどのパラメータを、文字に適したものにする必要があるためである。 This parameter group differs not only in the optimal object for calculating the motion vector between the stationary object scene and the moving object scene, but also there is an optimal parameter group particularly for a character image. Furthermore, when the character image moves, the optimum parameter group for the moving character should be applied. This is because the background image of a character is often mixed in a block containing characters, so in block matching that uses the luminance difference between blocks in the previous and next frames, parameters such as the block size are suitable for the character. Because it is necessary to make it.
しかし、従来の技術では、動きベクトルを算出する際に、文字領域と文字以外の領域、静止した物体の領域および動体の領域などを明確には区別していない。このため、中間的なパラメータ群を使用することでトレードオフをとることが多いが、フレームの各領域について、それぞれ十分といえる精度の間画像を得ることは困難である。特に、フレーム画像が文字を含む場合、補間画像の精度が悪いと人間の目に大きな破綻として目立つ。文字が動く場合には、この破綻がさらに目立つものとなってしまう。 However, in the conventional technology, when calculating a motion vector, a character region and a region other than a character, a stationary object region, a moving object region, and the like are not clearly distinguished. For this reason, a trade-off is often made by using an intermediate parameter group, but it is difficult to obtain an image with sufficient accuracy for each region of the frame. In particular, when the frame image includes characters, if the accuracy of the interpolated image is poor, it is conspicuous as a major failure for human eyes. If the letters move, this failure becomes even more noticeable.
本発明は、上述した事情を考慮してなされたもので、フレームを少なくとも文字領域を含む複数の領域に分割し、各領域について各領域の画像に応じたパラメータ群を適用して動きベクトルを決定する情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムを提供することを目的とする。 The present invention has been made in consideration of the above-described circumstances. The frame is divided into a plurality of areas including at least a character area, and a motion vector is determined by applying a parameter group corresponding to the image of each area to each area. An information processing apparatus, a motion vector generation program, and an interpolation image generation program are provided.
本発明に係る情報処理装置は、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用する情報処理装置であって、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段と、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段と、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段と、を備えたことを特徴とするものである。 In order to solve the above-described problem, the information processing apparatus according to the present invention applies a parameter group including a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames. A character area detecting means for receiving at least two frames of data and acquiring position information of a character area, which is an area including characters, from each of the plurality of inputted frames. Static motion determining means for determining whether or not the characters in the character region move between the plurality of inputted frames when the positions of the character regions match in all of the plurality of inputted frames. A moving character region parameter group is included in the character region in the moving character region in which characters included in the character region move between the input frames. The stationary character region parameter group is applied to the stationary character region where the characters are stationary between the input frames, and the default parameter group is applied to the other region, so that the moving character region and the stationary region are applied. Motion vector determining means for determining the motion vectors between the input frames in the character region and the other region.
一方、本発明に係る動きベクトル生成プログラムは、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、コンピュータを、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、および、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段、として機能させるためのプログラムである。 On the other hand, the motion vector generation program according to the present invention is a parameter comprising a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames in order to solve the above-described problem. A program for applying a group, wherein the computer receives data of the at least two frames, and obtains position information of a character area, which is an area including characters, from each of the plurality of inputted frames Static detection for determining whether or not the characters in the character area move between the input frames when the position of the character area matches in all of the input frames. A moving character region in the moving character region in which the character included in the character region moves between the input frames; Apply the parameter group, the static character area parameter group to the static character area where the characters included in the character area are stationary between the input frames, and the default parameter group to the other areas. A program for functioning as motion vector determining means for determining the motion vectors between the plurality of inputted frames in the moving character region, the still character region, and the other region.
また、本発明に係る補間画像生成プログラムは、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、コンピュータを、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段、前記動きベクトルにもとづいて、前記入力された複数のフレーム間に内挿される前記補間フレーム画像を生成する補間画像生成手段、および、前記補間フレーム画像を表示させる画像出力制御手段、として機能させるためのプログラムである。 Further, in order to solve the above-described problem, the interpolation image generation program according to the present invention is a parameter composed of a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames. A program for applying a group, wherein the computer receives data of the at least two frames, and obtains position information of a character area, which is an area including characters, from each of the plurality of inputted frames Static detection for determining whether or not the characters in the character area move between the input frames when the position of the character area matches in all of the input frames. A determining unit, a moving character region parameter for a moving character region in which characters included in the character region move between the plurality of input frames; Applying the static character region parameter group to the static character region where the characters included in the character region are stationary between the input frames, and applying the default parameter group to the other regions. A motion vector determining means for determining the motion vector between the plurality of input frames in the dynamic character region, the still character region, and the other region, and the plurality of input based on the motion vector It is a program for functioning as an interpolation image generation means for generating the interpolation frame image to be interpolated between frames, and an image output control means for displaying the interpolation frame image.
本発明に係る情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムによれば、フレームを少なくとも文字領域を含む複数の領域に分割し、各領域について各領域の画像に応じたパラメータ群を適用して動きベクトルを決定することができる。 According to the information processing apparatus, the motion vector generation program, and the interpolation image generation program according to the present invention, the frame is divided into a plurality of regions including at least a character region, and a parameter group corresponding to the image in each region is applied to each region. To determine a motion vector.
本発明に係る情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムの実施の形態について、添付図面を参照して説明する。 Embodiments of an information processing apparatus, a motion vector generation program, and an interpolation image generation program according to the present invention will be described with reference to the accompanying drawings.
図1は、本発明に係る情報処理装置10の第1実施形態を示す概略的な全体構成図である。
FIG. 1 is a schematic overall configuration diagram showing a first embodiment of an
情報処理装置10は、CPU11、RAM12、ROM13、ネットワーク接続部14、フレームメモリ部15、文字領域情報記憶部16、パラメータ群記憶部17、インターフェイス部20、表示装置21およびチューナ22を備える。
The
CPU11は、ROM13内に記憶されたプログラムにしたがって、情報処理装置10の処理動作を制御する。CPU11は、ROM13内に記憶された動きベクトル生成プログラムを内包する補間画像生成プログラムおよびプログラムの実行のために必要なデータを、RAM12へロードし、補間画像生成プログラムに従って、少なくとも文字領域を含む複数の領域に分割されたフレームにおいて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成する処理を実行する。
The
RAM12は、CPU11が実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。
The
ROM13は、情報処理装置10の起動プログラム、補間画像生成プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
The
なお、ROM13は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPU11により読み取り可能な記録媒体を含んだ構成を有し、ROM13内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。
The
ネットワーク接続部14は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部14は、この各種プロトコルにしたがって情報処理装置10と他の電気機器とを接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
The network connection unit 14 implements various information communication protocols according to the network form. The network connection unit 14 connects the
ここで、補間フレーム画像の生成手順について簡単に説明する。 Here, a procedure for generating an interpolation frame image will be briefly described.
補間フレーム画像は、前後あわせて少なくとも2枚のフレーム画像間のブロックマッチングを行うことにより動きベクトルを算出し、この動きベクトルを用いて生成することができる。本実施形態においては、補間フレーム画像を、2枚のフレーム(前フレームおよび後フレーム)にもとづいて生成し、この2枚のフレーム間に内挿する場合の例について説明する。 An interpolated frame image can be generated by calculating a motion vector by performing block matching between at least two frame images before and after, and using this motion vector. In the present embodiment, an example in which an interpolation frame image is generated based on two frames (the previous frame and the subsequent frame) and is interpolated between the two frames will be described.
図2は、前後2枚のフレーム間のブロックマッチング処理の一例を概略的に示す説明図である。 FIG. 2 is an explanatory diagram schematically showing an example of a block matching process between two front and rear frames.
図2に示すように、ブロックマッチング処理においては、画像間の類似性を評価するために、比較する画像(前後フレーム画像)からあるサイズ(たとえば16画素×16画素など)の注目領域(ブロック)を切り出す。このブロック同士の位置関係をマッチングベクトルという。次に、ブロック同士の一致の度合いの指標であるマッチング値を計算する。マッチング値としては、輝度差の総和(SAD)や輝度差の2乗和(SSD)などがよく用いられる。そして、マッチング値の最小値を与える切り出し位置を探索範囲内で検索し、このマッチング値の最小値を与えるマッチングベクトルを動きベクトルとする。 As shown in FIG. 2, in block matching processing, in order to evaluate the similarity between images, a region of interest (block) having a certain size (for example, 16 pixels × 16 pixels) from images to be compared (front and back frame images). Cut out. This positional relationship between the blocks is called a matching vector. Next, a matching value that is an index of the degree of matching between blocks is calculated. As the matching value, a sum of luminance differences (SAD), a square sum of luminance differences (SSD), or the like is often used. Then, the cut-out position that gives the minimum value of the matching value is searched within the search range, and the matching vector that gives the minimum value of the matching value is set as the motion vector.
ブロックマッチング処理は、ブロックサイズをはじめとする各種のパラメータを初期値として必要とする。このため、この各種パラメータからなるパラメータ群が異なれば、得られる動きベクトルは異なったものになる。この各種パラメータとしては、たとえば、動きベクトルの探索範囲、動きベクトル検出用ブロックサイズ、動きベクトル割当用ブロックサイズ、検出された動きベクトル値のクリップ量および隣接ブロック間の動きベクトル連続性保証閾値などが挙げられる。 The block matching process requires various parameters including the block size as initial values. For this reason, if the parameter group consisting of these various parameters is different, the obtained motion vector is different. Examples of the various parameters include a motion vector search range, a motion vector detection block size, a motion vector allocation block size, a detected motion vector value clip amount, and a motion vector continuity guarantee threshold between adjacent blocks. Can be mentioned.
文字の画像と文字以外の画像や、動く物体の画像と静止物体の画像では、適用すべきパラメータ群が異なる。このため、異なる種類の画像には異なるパラメータ群を適用することが望ましい。したがって、フレームを画像の種類ごとに領域分けし、各領域に対して各領域の画像に応じたパラメータ群を適用して動きベクトルを決定することが望ましい。 The parameter group to be applied differs between a character image and a non-character image, or a moving object image and a stationary object image. For this reason, it is desirable to apply different parameter groups to different types of images. Therefore, it is desirable to divide the frame into regions for each type of image, and to determine a motion vector by applying a parameter group corresponding to the image in each region to each region.
フレームメモリ部15は、チューナ22から映像データを受け、フレームごとに格納しておく。また、フレームメモリ部15は、CPU11により生成された補間フレームを格納する。
The
なお、本実施形態では、放送される番組の映像データをチューナ22で受信し、この映像データを構成する複数のフレームに対して補間フレームをリアルタイムに生成する場合の例について説明する。より詳細には、本実施形態では、チューナ22で受信した映像データが、フレームごとに、CPU11およびフレームメモリ部15に順次与えられ、フレームメモリ部15は、与えられた映像データをフレームごとに格納し、CPU11は、チューナ22から与えられるフレーム(後フレーム)とこのフレームの1枚前のフレームメモリ部15に格納されているフレーム(前フレーム)とにもとづいて、補間フレームを生成する場合の例について説明する。
In the present embodiment, an example will be described in which video data of a broadcast program is received by the
文字領域情報記憶部16は、CPU11の書込み制御部41に制御され、文字領域情報(フレームの文字領域の位置の情報)と、この文字領域が領域に含まれる文字が静止している静止文字領域であるか、文字に移動がある動文字領域であるかの情報(静動情報)とを関連付けて記憶する。
The character area
パラメータ群記憶部17は、あらかじめ、少なくとも、動く文字(動文字)に適したパラメータ群(動文字領域用パラメータ群)、静止文字に適したパラメータ群(静止文字用パラメータ群)および文字以外の領域に適したパラメータ群(デフォルトパラメータ群)を格納しておく。
The parameter
インターフェイス部20は、放送される番組の映像データを受信しこの映像データをCPU11およびフレームメモリ部15に与えるチューナ22と、チューナ22の受信した映像データおよびCPU11により出力される映像データなどを表示するCRTやLCDなどの表示装置21と接続される。
The
図3は、図1に示すCPU11による機能実現部の構成例を示す概略的なブロック図である。なお、この機能実現部は、CPU11を用いることなく回路などのハードウエアロジックによって構成してもよい。
FIG. 3 is a schematic block diagram showing a configuration example of a function realization unit by the
CPU11は、補間画像生成プログラムによって、少なくとも画像取得部31、文字領域有無判定部32、パラメータ割当て部33、動きベクトル決定部34、補間画像生成部35、画像出力制御部36、書込み制御部41、文字領域検出部42、検出判定部43、フラグ判定部44、領域位置判定部45、静動決定部46および緩衝領域設定部51として機能する。この各部31〜36、41〜46および51は、RAM12の所要のワークエリアを、データの一時的な格納場所として利用する。
The
次に、本実施形態に係る情報処理装置10の動作の一例について説明する。
Next, an example of the operation of the
図4は、図1に示す情報処理装置10のCPU11により、文字領域を含む複数の領域に分割されたフレームについて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成する際の手順を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。
4, the
なお、図4には、2枚のフレーム画像(前後フレーム画像)から1枚の補間フレーム画像を生成する際の例について示した。図4に示す手順を映像データの全フレームについて繰り返し行うことにより、映像データ全体に対して補間フレームを生成することができる。 FIG. 4 shows an example in which one interpolated frame image is generated from two frame images (front and rear frame images). By repeating the procedure shown in FIG. 4 for all the frames of the video data, an interpolation frame can be generated for the entire video data.
また、あらかじめ、パラメータ群記憶部17は、動く文字に適したパラメータ群(動文字領域用パラメータ群)、静止文字に適したパラメータ群(静止文字用パラメータ群)および文字以外の領域に適したパラメータ群(デフォルトパラメータ群)を、格納しているものとする。
The parameter
まず、ステップS1において、画像取得部31は、フレームメモリ部15から前フレームを、チューナ22から後フレームを、それぞれ取得する。
First, in step S <b> 1, the
次に、ステップS2において、文字領域有無判定部32は、文字領域情報記憶部16に文字領域情報が存在するかどうかを判定する。文字領域情報がある場合は、ステップS3に進む。文字領域情報がない場合は、ステップS4に進む。
Next, in step S <b> 2, the character area presence /
次に、ステップS3において、パラメータ割当て部33は、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定すべく、文字領域情報記憶部16から文字領域情報(フレームの文字領域の位置)およびこの文字領域情報に関連付けられたこの文字領域が静止文字領域であるか動文字領域であるかの情報(静動情報)を読み出し、静止文字領域には静止文字領域用パラメータ群を、動文字領域には動文字領域用パラメータ群を、その他の領域にはデフォルトパラメータ群を、それぞれ適用すべき旨の情報を、動きベクトル決定部34に与える。
Next, in step S3, the
一方、ステップS4において、パラメータ割当て部33は、フレーム内の全領域においてデフォルトパラメータ群を適用すべき旨の情報を、動きベクトル決定部34に与える。
On the other hand, in step S <b> 4, the
次に、ステップS5において、動きベクトル決定部34は、パラメータ割当て部33から受けたパラメータ群の情報にもとづき、画像取得部31から入力される前後フレームから動きベクトルを決定する。
Next, in step S <b> 5, the motion
図5は、静止文字領域および動文字領域を含むフレーム画像の一例を示す説明図である。図5に示すフレーム画像では、静止文字領域には静止文字領域用パラメータ群が、動文字領域には動文字領域用パラメータ群が、その他の領域にはデフォルトパラメータ群が、それぞれ適用される。 FIG. 5 is an explanatory diagram showing an example of a frame image including a static character region and a moving character region. In the frame image shown in FIG. 5, a static character region parameter group is applied to the static character region, a dynamic character region parameter group is applied to the dynamic character region, and a default parameter group is applied to the other regions.
次に、ステップS6において、補間画像生成部35は、決定された動きベクトルにもとづいて、補間フレーム画像を生成し、この補間フレームをフレームメモリ部15の前フレームおよび後フレームの間に内挿されるようにフレームメモリ部15に格納する。
Next, in step S6, the interpolation
そして、ステップS7において、画像出力制御部36は、フレームメモリ部15からフレームを読み出して表示装置21に画像を出力させる。
In step S <b> 7, the image
以上の手順により、文字領域を含む複数の領域に分割されたフレームにおいて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成することができる。 With the above procedure, in a frame divided into a plurality of regions including a character region, a motion vector is determined by applying a parameter group corresponding to the image of each region, and an interpolated image is generated based on the motion vector. Can do.
図6は、各領域の画像に応じたパラメータ群を適用する際に利用される文字領域情報およびこの文字領域に含まれる文字の静動情報を検出する際の手順を示すフローチャートである。図6において、Sに数字を付した符号は、フローチャートの各ステップを示す。 FIG. 6 is a flowchart showing a procedure for detecting character region information used when applying a parameter group corresponding to an image of each region and static information of characters included in the character region. In FIG. 6, reference numerals with numbers added to S indicate steps in the flowchart.
ステップS11において、書込み制御部41は、RAM12の所要のワークエリアに文字領域の検出中であるか否かを示す静動判定中フラグを設け、このフラグを、現在静動判定中ではない旨の情報をもつように(静動判定中フラグを無効に)する。
In step S11, the writing control unit 41 provides a static motion determination flag indicating whether or not a character area is being detected in a required work area of the
次に、ステップS12において、画像取得部31は、フレームメモリ部15から前フレームを取得する。また、ステップS17を経ている場合には、画像取得部31は、フレームメモリ部15からまたはチューナ22から後フレームを取得する。
Next, in step S <b> 12, the
次に、ステップS13において、文字領域検出部42は、画像取得部31から入力されたフレームから文字領域を検出し、文字領域情報(文字領域のフレーム内での位置)を取得する。
Next, in step S <b> 13, the character
次に、ステップS14において、検出判定部43は、画像取得部31により文字領域が検出されたかどうかを判定する。検出された場合はステップS15に進む。一方、検出されなかった場合はステップS16に進む。
Next, in step S <b> 14, the
ステップS15において、書込み制御部41は、文字領域情報記憶部16から文字領域情報を削除して、文字領域情報およびこの文字領域に含まれる文字の静動情報を検出する一連の手順は終了となる。文字領域情報が記憶されていない場合には、そのまま一連の手順は終了となる。この結果、前後フレームの両方に文字領域がある場合以外は、補間フレームには文字領域がないものとみなされ、補間フレーム全体にデフォルトパラメータ群が適用されることになる。
In step S15, the writing control unit 41 deletes the character region information from the character region
次に、ステップS16において、フラグ判定部44は、RAM12の所要のワークエリアを参照し、静動判定中フラグが有効であるかどうかを判定する。静動判定中フラグが無効である場合はステップS17に進む。一方、有効である場合はステップS18に進む。
Next, in step S <b> 16, the
次にステップS17において、書込み制御部41は、検出された文字領域情報を文字領域情報記憶部16に一時的に格納し、静動判定中フラグを有効にして、ステップS12にもどる。
Next, in step S17, the writing control unit 41 temporarily stores the detected character region information in the character region
一方、ステップS18において、領域位置判定部45は、今回検出された文字領域(後フレームの文字領域)が、前回一時的に文字領域情報記憶部16に記憶された文字領域(前フレームの文字領域)と一致しているかどうか判定する。一致しない場合は、ステップS19に進む。一方、一致する場合は、ステップS20に進む。
On the other hand, in step S18, the region
ここで、文字領域が前後フレームで一致しない場合とは、文字領域がフレーム内で大きく移動した(まったく別の箇所に出現した)場合であることが多いため、数〜十数ピクセルの誤差であれば、一致する場合に含めるようにしてもよい。 Here, the case where the character area does not match in the preceding and following frames is often the case where the character area has moved greatly within the frame (appears in a completely different location), so an error of several to several tens of pixels may occur. For example, it may be included when they match.
次に、前後フレームの文字領域が一致しない場合、ステップS19において、書込み制御部41は、前回一時的に文字領域情報記憶部16に記憶された文字領域情報を削除して、一連の手順は終了となる。なお、このステップで、今回検出された後フレームの文字領域情報を削除せず、利用する場合には、たとえばこの文字領域情報を静止文字領域とみなし、文字領域情報と、文字領域情報に静止文字領域である旨の情報とを関連付けて、前回検出された後フレームの文字領域情報を上書きしてもよい。
Next, when the character areas of the preceding and following frames do not match, in step S19, the writing control unit 41 deletes the character area information temporarily stored in the character area
一方、前後フレームの文字領域が一致する場合、ステップS20において、静動決定部46は、前回と一致した今回の文字領域を前後フレームで比較して動きベクトル検出を行い、この領域に含まれる文字が静止文字であるか動文字であるかを区別する。この動きベクトル検出の精度は、静止文字と動文字を区別可能な精度があればよく、比較的精度がおちるデフォルトパラメータ群を用いるなどして簡略的に行うことで足りる。
On the other hand, if the character areas of the preceding and following frames match, in step S20, the static
そして、ステップS21において、書込み制御部41は、文字領域情報と文字領域が静止文字であるか動文字であるかの情報とを関連付けて文字領域情報記録部に格納する。 In step S21, the writing control unit 41 associates the character region information with information about whether the character region is a static character or a moving character, and stores it in the character region information recording unit.
以上の手順により、各領域の画像に応じたパラメータ群を適用する際に利用される文字領域情報およびこの文字領域に含まれる文字の静動情報を検出することができる。 With the above procedure, it is possible to detect the character area information used when applying the parameter group corresponding to the image of each area and the static information of the characters included in the character area.
なお、少なくとも図4のステップS2の前に、図4で利用される前後フレームについて図6に示した手順を実行して文字領域情報および静動情報が文字領域情報記憶部16に記憶されるようにしておくべきことに注意すべきである。このため、たとえば、図4に示す手順の開始からステップS2までの間に、図6に示した一連の処理を行うようにするとよい。
At least before step S2 in FIG. 4, the character region information and the static information are stored in the character region
また、図4のS2およびS3で利用される文字領域情報および静動情報は、前々フレームと前フレームとから得られた文字領域情報および静動情報であってもよい。前々フレームと前フレームとから得られる文字領域情報および静動情報を用いると、文字領域情報および静動情報が1フレーム分ずれてしまう場合がありうるものの、このずれはユーザにほとんど知覚され得ず、実用上問題とはならない。 Further, the character area information and static information used in S2 and S3 of FIG. 4 may be character area information and static information obtained from the previous frame and the previous frame. If character area information and static information obtained from the previous frame and the previous frame are used, the character area information and static information may be shifted by one frame, but this shift can be almost perceived by the user. This is not a problem in practice.
図4のS2およびS3で前々フレームと前フレームとから得られる文字領域情報を用いる場合、たとえば、前々フレームと前フレームについての図4の手順におけるステップS2から図4の手順の終了までの間に、図6に示した一連の処理を行って前々フレームと前フレームの文字領域情報を文字領域情報記憶部16に記憶しておき、この文字領域情報を、前フレームと後フレームについての図4の手順におけるステップS2およびS3で利用すればよい。この場合、図6のステップS20と図4のステップS4を同期させてもよい。
When the character area information obtained from the previous frame and the previous frame is used in S2 and S3 of FIG. 4, for example, from step S2 in the procedure of FIG. 4 for the previous frame and the previous frame to the end of the procedure of FIG. In the meantime, a series of processing shown in FIG. 6 is performed to store the character area information of the previous frame and the previous frame in the character area
本実施形態に係る情報処理装置10は、前後フレーム画像から文字領域を検出する際に、文字領域の内部の文字の静動判定を行う。このため、文字領域を静止文字領域と動文字領域に区別することができる。したがって、本実施形態に係る情報処理装置10によれば、フレーム画像を静止文字領域と動文字領域とで区別し、各領域の画像に最適なパラメータ群を適用することができ、各領域において適切な動きベクトルを取得することが可能である。
The
また、本実施形態に係る情報処理装置10は、この動きベクトルにもとづき、動く文字を含む場合においても、ユーザに破綻を知覚させることのない非常に精度の高い補間フレーム画像を生成することができる。
Further, the
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
さらに、図4および図6に示したフローチャートは、各ステップの処理が記載された順序に沿って時系列的に行われる場合の例について示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行されてもよい。 Furthermore, although the flowcharts shown in FIGS. 4 and 6 show an example in which the processing of each step is performed in time series in the order described, parallel processing is not necessarily performed in time series. May be performed manually or individually.
たとえば、本実施形態では、放送される番組の映像データをチューナ22で受信し、この映像データを構成する複数のフレームに対して補間フレームをリアルタイムに生成する場合の例について説明したが、録画した映像データ(録画データ)にもとづいて補間フレームを生成しても構わない。この場合、補間フレームは、録画データの再生時にリアルタイムに生成してもよいし、あらかじめ全録画データのフレームについて文字領域情報および静動情報をフレーム番号と関連付けて文字領域情報記憶部16に格納しておき、再生時にフレーム番号を指標として文字領域情報および静動情報を利用するようにしてもよい。
For example, in the present embodiment, an example in which video data of a broadcast program is received by the
また、文字領域の周囲に1以上の緩衝領域を設け、緩衝領域では文字領域に適用されるパラメータ群とデフォルトパラメータ群との中間値でありかつ文字領域から遠ざかるに伴い徐々にデフォルトパラメータ群に近くなるようなパラメータ群を適用するようにしてもよい。図7には、文字領域の周囲に緩衝領域を3層設ける場合の例について示した。図7に示すように、動文字領域周囲および静止文字領域周囲の緩衝領域には、動文字緩衝領域用パラメータ群および静止文字緩衝領域用パラメータ群を、それぞれ適用して、動きベクトルを決定する。 Further, one or more buffer areas are provided around the character area, and the buffer area is an intermediate value between the parameter group applied to the character area and the default parameter group, and gradually approaches the default parameter group as the distance from the character area increases. Such a parameter group may be applied. FIG. 7 shows an example in which three buffer areas are provided around the character area. As shown in FIG. 7, the motion vector is determined by applying the dynamic character buffer region parameter group and the static character buffer region parameter group to the buffer regions around the dynamic character region and the static character region, respectively.
文字領域の周囲に緩衝領域を設けることにより、領域間の不連続性を低減することができる。たとえば、3層の緩衝領域を設ける場合には、あらかじめ、ROM13などに文字領域から各緩衝領域の枠部までの距離を3つ記憶させておくとともに、各緩衝領域用のパラメータ群をパラメータ群記憶部17に記憶させておく。
By providing a buffer area around the character area, discontinuity between the areas can be reduced. For example, when providing a three-layer buffer area, three distances from the character area to the frame portion of each buffer area are stored in advance in the
この場合、図4に示すステップS2とS3の間に、CPU11の緩衝領域設定部51により、ROM13などから各緩衝領域の枠部までの距離を読み出し、文字領域の周囲に緩衝領域を設定するステップを実行する。そして、図4に示すステップS3において、パラメータ割当て部33により、静止文字領域には静止文字領域用パラメータ群を、動文字領域には動文字領域用パラメータ群を、各緩衝領域には各緩衝領域用のパラメータ群を、その他の領域にはデフォルトパラメータ群を、それぞれ適用すべき旨の情報が、動きベクトル決定部34に与えられるようにすればよい。
In this case, between steps S2 and S3 shown in FIG. 4, the buffer
10 情報処理装置
11 CPU
12 RAM
13 ROM
14 ネットワーク接続部
15 フレームメモリ部
16 文字領域情報記憶部
17 パラメータ群記憶部
20 インターフェイス部
21 表示装置
22 チューナ
31 画像取得部
32 文字領域有無判定部
33 パラメータ割当て部
34 動きベクトル決定部
35 補間画像生成部
36 画像出力制御部
41 書込み制御部
42 文字領域検出部
43 検出判定部
44 フラグ判定部
45 領域位置判定部
46 静動決定部
51 緩衝領域設定部
10
12 RAM
13 ROM
14
Claims (9)
前記複数のフレームを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段と、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段と、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域において、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段と、
を備えたことを特徴とする情報処理装置。 An information processing apparatus that applies a parameter group composed of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Character region detection means that receives the plurality of frames and acquires position information of a character region that is a region including characters from each of the plurality of input frames;
Static decision means for determining whether or not the characters in the character region move between the plurality of inputted frames when the position of the character region matches in all of the plurality of inputted frames;
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
An information processing apparatus comprising:
前記補間フレーム画像を表示させる画像出力制御手段と、
をさらに備えた請求項1記載の情報処理装置。 Interpolated image generating means for generating the interpolated frame image interpolated between the input plurality of frames based on the motion vector;
Image output control means for displaying the interpolated frame image;
The information processing apparatus according to claim 1, further comprising:
前記動きベクトル決定手段は、
前記動文字領域の周囲の前記緩衝領域には前記動文字領域用パラメータ群と前記デフォルトパラメータ群との中間値をとる動文字緩衝領域用パラメータ群を適用し、前記静止文字領域の周囲の前記緩衝領域には前記静止文字領域用パラメータ群と前記デフォルトパラメータ群との中間値をとる静止文字緩衝領域用パラメータ群を適用して、前記緩衝領域の前記動きベクトルを決定する機能をさらに備えた、
請求項1または2に記載の情報処理装置。 Buffer area setting means for setting a buffer area around the character area;
The motion vector determining means includes
The buffer area around the dynamic character area is applied with a parameter group for a dynamic character buffer area that takes an intermediate value between the parameter group for the dynamic character area and the default parameter group, and the buffer around the static character area is applied. The area further includes a function of determining the motion vector of the buffer area by applying a static character buffer area parameter group that takes an intermediate value between the static character area parameter group and the default parameter group,
The information processing apparatus according to claim 1 or 2.
前記動きベクトル決定手段が前記動文字領域周囲および前記静止文字領域周囲の前記緩衝領域の前記動きベクトルを決定する際にそれぞれ適用される前記動文字緩衝領域用パラメータ群および前記静止文字緩衝領域用パラメータ群は、前記緩衝領域ごとに異なっているとともに、前記他の領域に近いほど前記デフォルトパラメータ群に近い、
請求項3記載の情報処理装置。 The buffer area setting means is configured to set a plurality of buffer areas surrounding the character area in order.
The moving character buffer area parameter group and the stationary character buffer area parameter respectively applied when the motion vector determining means determines the motion vectors of the buffer area around the moving character area and the stationary character area. The group is different for each buffer area, and the closer to the other area, the closer to the default parameter group,
The information processing apparatus according to claim 3.
前記文字領域の位置が、前記入力された複数のフレームのうち、前記補間フレームが内挿される前後の2フレームで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定するよう構成された、
請求項1ないし4に記載の情報処理装置。 The static motion determining means includes
When the position of the character area matches two frames before and after the interpolation frame is interpolated among the plurality of input frames, the characters in the character area move between the input frames. Configured to determine whether or not
The information processing apparatus according to claim 1.
請求項1ないし5に記載の情報処理装置。 The plurality of input frames are only two frames before and after the interpolation frame is interpolated.
The information processing apparatus according to claim 1.
請求項1ないし6に記載の情報処理装置。 The plurality of inputted frames used by the character region detecting unit and the static motion determining unit and the plurality of frames used when the motion vector determining unit determines the motion vector are at least one frame. Is different,
The information processing apparatus according to claim 1.
コンピュータを、
前記複数のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、および、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域にいて、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段、
として機能させるための動きベクトル生成プログラム。 A program for applying a parameter group consisting of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Computer
Character region detection means that receives data of the plurality of frames and acquires position information of a character region that is a region including characters from each of the input plurality of frames.
Static motion determining means for determining whether or not the characters in the character region move between the plurality of input frames when the position of the character region matches in all of the plurality of input frames; and ,
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
Motion vector generation program to function as
コンピュータを、
前記複数のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域において、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段、
前記動きベクトルにもとづいて、前記入力された複数のフレーム間に内挿される前記補間フレーム画像を生成する補間画像生成手段、および、
前記補間フレーム画像を表示させる画像出力制御手段、
として機能させるための補間画像生成プログラム。 A program for applying a parameter group consisting of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Computer
Character region detection means that receives data of the plurality of frames and acquires position information of a character region that is a region including characters from each of the input plurality of frames.
Static determination means for determining whether or not the characters in the character region move between the plurality of input frames when the position of the character region matches in all of the plurality of input frames.
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
Interpolated image generating means for generating the interpolated frame image to be interpolated between the input plurality of frames based on the motion vector, and
Image output control means for displaying the interpolated frame image;
Interpolated image generation program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007149979A JP4940024B2 (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, motion vector generation program, and interpolated image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007149979A JP4940024B2 (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, motion vector generation program, and interpolated image generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008306330A JP2008306330A (en) | 2008-12-18 |
JP4940024B2 true JP4940024B2 (en) | 2012-05-30 |
Family
ID=40234680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007149979A Expired - Fee Related JP4940024B2 (en) | 2007-06-06 | 2007-06-06 | Information processing apparatus, motion vector generation program, and interpolated image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4940024B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5164716B2 (en) * | 2008-07-28 | 2013-03-21 | 株式会社日立製作所 | Video processing device and video display device |
KR101556789B1 (en) | 2008-12-30 | 2015-10-01 | 엘지전자 주식회사 | Display apparatus and control method of the same |
JP4620163B2 (en) * | 2009-06-30 | 2011-01-26 | 株式会社東芝 | Still subtitle detection apparatus, video device for displaying image including still subtitle, and method for processing image including still subtitle |
MX2012003206A (en) * | 2009-09-18 | 2012-05-29 | Sharp Kk | Video display device. |
JP5371682B2 (en) * | 2009-10-19 | 2013-12-18 | キヤノン株式会社 | Image processing apparatus and image processing method |
KR101607948B1 (en) | 2009-12-28 | 2016-04-01 | 삼성전자주식회사 | Image processing apparatus and method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3746708B2 (en) * | 2001-12-03 | 2006-02-15 | シャープ株式会社 | Video encoding device |
JP4157579B2 (en) * | 2006-09-28 | 2008-10-01 | シャープ株式会社 | Image display apparatus and method, image processing apparatus and method |
JP2008166969A (en) * | 2006-12-27 | 2008-07-17 | Toshiba Corp | Video signal processing circuit, video signal processing apparatus, and video signal processing method |
-
2007
- 2007-06-06 JP JP2007149979A patent/JP4940024B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008306330A (en) | 2008-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4564564B2 (en) | Moving picture reproducing apparatus, moving picture reproducing method, and moving picture reproducing program | |
US7899122B2 (en) | Method, apparatus and computer program product for generating interpolation frame | |
US7936950B2 (en) | Apparatus for creating interpolation frame | |
JP4220284B2 (en) | Frame interpolation method, apparatus, and image display system using the same | |
JP4940024B2 (en) | Information processing apparatus, motion vector generation program, and interpolated image generation program | |
US8274602B2 (en) | Image processing apparatus and image processing method with redundant frame detection | |
US20050185048A1 (en) | 3-D display system, apparatus, and method for reconstructing intermediate-view video | |
US8629936B2 (en) | Moving region detection device | |
CN101207707A (en) | System and method for advancing frame frequency based on motion compensation | |
CN110889809B (en) | Image processing method and device, electronic equipment and storage medium | |
CN114331820A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP5100495B2 (en) | Image processing device | |
KR20000013212A (en) | Method for dividing moving picture object by outline track | |
US20200105050A1 (en) | Display method and display device | |
CN113015007B (en) | Video frame inserting method and device and electronic equipment | |
JP2020028096A (en) | Image processing apparatus, control method of the same, and program | |
CN116170650A (en) | Video frame inserting method and device | |
US8611612B2 (en) | Block matching method | |
EP3301908A1 (en) | Numerical image conversion method and device, and storage medium and device | |
CN113269086A (en) | Vilog editing method and system | |
CN112819694A (en) | Video image splicing method and device | |
CN113923493B (en) | Video processing method and device, electronic equipment and storage medium | |
JP2009239698A (en) | Video image converting device, and video image converting method | |
JPH09130803A (en) | Method and device for restoring background image | |
JP2009267446A (en) | Motion image information processing method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100426 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20111202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120227 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |