JP4940024B2 - Information processing apparatus, motion vector generation program, and interpolated image generation program - Google Patents

Information processing apparatus, motion vector generation program, and interpolated image generation program Download PDF

Info

Publication number
JP4940024B2
JP4940024B2 JP2007149979A JP2007149979A JP4940024B2 JP 4940024 B2 JP4940024 B2 JP 4940024B2 JP 2007149979 A JP2007149979 A JP 2007149979A JP 2007149979 A JP2007149979 A JP 2007149979A JP 4940024 B2 JP4940024 B2 JP 4940024B2
Authority
JP
Japan
Prior art keywords
character
frames
region
character region
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007149979A
Other languages
Japanese (ja)
Other versions
JP2008306330A (en
Inventor
洋平 濱川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007149979A priority Critical patent/JP4940024B2/en
Publication of JP2008306330A publication Critical patent/JP2008306330A/en
Application granted granted Critical
Publication of JP4940024B2 publication Critical patent/JP4940024B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、フレーム間に内挿される補間フレームをあつかう情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムに関する。   The present invention relates to an information processing apparatus, a motion vector generation program, and an interpolation image generation program that handle an interpolation frame interpolated between frames.

動画像処理等の分野において、2枚のフレーム(前フレームと後フレーム)間に内挿する補間フレームを生成する技術がある。この補間フレームの生成にあたり、前後フレーム画像間の動きベクトルを決定する技術は、非常に重要である。補間フレーム画像は、前後あわせて少なくとも2枚のフレーム画像間の動きベクトルにもとづいて生成される。このため、動きベクトルを適切に決定できなければ、適切な補間フレーム画像を生成することができない。   In the field of moving image processing and the like, there is a technique for generating an interpolated frame to be interpolated between two frames (a previous frame and a subsequent frame). In generating the interpolation frame, a technique for determining a motion vector between the preceding and following frame images is very important. The interpolated frame image is generated based on a motion vector between at least two frame images in front and back. For this reason, unless an appropriate motion vector can be determined, an appropriate interpolated frame image cannot be generated.

従来、この種の動きベクトルを決定する技術に、特開2002−185970号公報(特許文献1)に開示されたものがある。   Conventionally, there is a technique disclosed in Japanese Patent Laid-Open No. 2002-185970 (Patent Document 1) for determining this type of motion vector.

この特開2002−185970号公報(特許文献1)に開示された動画像符号化装置は、複数の動き補償フレーム間予測方式を用いて画像フレームを符号化する装置であって、画像フレームの動きベクトルを探索する動きベクトル探索手段と、動き補償フレーム間予測処理の際に、可変サイズの小領域毎にブロック移動、アフィン変換、双線形変換などの複数の予測方式を用いてそれぞれの予測方式から予測画像を生成して出力する予測手段と、この予測手段からの複数の予測画像にもとづき最適な領域サイズおよび予測方式を決定し、領域情報、動きベクトルなどの各種パラメータ(サイド情報)ならびに予測画像を出力する領域予測決定手段と、を備える。   A moving image encoding apparatus disclosed in Japanese Patent Laid-Open No. 2002-185970 (Patent Document 1) is an apparatus that encodes an image frame using a plurality of motion compensation inter-frame prediction methods, and the motion of the image frame. In motion vector search means for searching for vectors and motion compensation inter-frame prediction processing, a plurality of prediction methods such as block movement, affine transformation and bilinear transformation are used for each small area of variable size. A prediction unit that generates and outputs a prediction image, and determines an optimal region size and prediction method based on a plurality of prediction images from the prediction unit, and various parameters (side information) such as region information and motion vectors, and a prediction image And an area prediction determining means for outputting.

この従来の技術は、領域の分割方式を工夫し、注目領域に隣接する領域の予測方式が異なる場合にはこの隣接領域の動きベクトルを注目領域の動きベクトルとして利用することにより、動きベクトルに要するデータが少なくなるように動きベクトルを決定することができるようになっている。
特開2002−185970号公報
This conventional technique requires a motion vector by devising a region division method and using a motion vector of an adjacent region as a motion vector of the region of interest when the prediction method of a region adjacent to the region of interest is different. The motion vector can be determined so that data is reduced.
JP 2002-185970 A

動きベクトルを算出する方法のひとつに、ブロックマッチングがある。ブロックマッチングで動きベクトルを決定するためには、複数のパラメータからなるパラメータ群が必要となる。   One method for calculating motion vectors is block matching. In order to determine a motion vector by block matching, a parameter group including a plurality of parameters is required.

このパラメータ群は、静止した物体シーンと動く物体シーンとで、動きベクトルを算出するために最適なものが異なるばかりでなく、特に文字画像に最適なパラメータ群が存在する。さらに、文字画像が動く場合には、この動文字に最適なパラメータ群を適用すべきである。これは、文字を含むブロックには文字の背景画像が混入してしまうことが多いために、前後フレームのブロック間の輝度差を利用するブロックマッチングでは、ブロックサイズなどのパラメータを、文字に適したものにする必要があるためである。   This parameter group differs not only in the optimal object for calculating the motion vector between the stationary object scene and the moving object scene, but also there is an optimal parameter group particularly for a character image. Furthermore, when the character image moves, the optimum parameter group for the moving character should be applied. This is because the background image of a character is often mixed in a block containing characters, so in block matching that uses the luminance difference between blocks in the previous and next frames, parameters such as the block size are suitable for the character. Because it is necessary to make it.

しかし、従来の技術では、動きベクトルを算出する際に、文字領域と文字以外の領域、静止した物体の領域および動体の領域などを明確には区別していない。このため、中間的なパラメータ群を使用することでトレードオフをとることが多いが、フレームの各領域について、それぞれ十分といえる精度の間画像を得ることは困難である。特に、フレーム画像が文字を含む場合、補間画像の精度が悪いと人間の目に大きな破綻として目立つ。文字が動く場合には、この破綻がさらに目立つものとなってしまう。   However, in the conventional technology, when calculating a motion vector, a character region and a region other than a character, a stationary object region, a moving object region, and the like are not clearly distinguished. For this reason, a trade-off is often made by using an intermediate parameter group, but it is difficult to obtain an image with sufficient accuracy for each region of the frame. In particular, when the frame image includes characters, if the accuracy of the interpolated image is poor, it is conspicuous as a major failure for human eyes. If the letters move, this failure becomes even more noticeable.

本発明は、上述した事情を考慮してなされたもので、フレームを少なくとも文字領域を含む複数の領域に分割し、各領域について各領域の画像に応じたパラメータ群を適用して動きベクトルを決定する情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムを提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances. The frame is divided into a plurality of areas including at least a character area, and a motion vector is determined by applying a parameter group corresponding to the image of each area to each area. An information processing apparatus, a motion vector generation program, and an interpolation image generation program are provided.

本発明に係る情報処理装置は、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用する情報処理装置であって、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段と、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段と、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段と、を備えたことを特徴とするものである。   In order to solve the above-described problem, the information processing apparatus according to the present invention applies a parameter group including a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames. A character area detecting means for receiving at least two frames of data and acquiring position information of a character area, which is an area including characters, from each of the plurality of inputted frames. Static motion determining means for determining whether or not the characters in the character region move between the plurality of inputted frames when the positions of the character regions match in all of the plurality of inputted frames. A moving character region parameter group is included in the character region in the moving character region in which characters included in the character region move between the input frames. The stationary character region parameter group is applied to the stationary character region where the characters are stationary between the input frames, and the default parameter group is applied to the other region, so that the moving character region and the stationary region are applied. Motion vector determining means for determining the motion vectors between the input frames in the character region and the other region.

一方、本発明に係る動きベクトル生成プログラムは、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、コンピュータを、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、および、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段、として機能させるためのプログラムである。   On the other hand, the motion vector generation program according to the present invention is a parameter comprising a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames in order to solve the above-described problem. A program for applying a group, wherein the computer receives data of the at least two frames, and obtains position information of a character area, which is an area including characters, from each of the plurality of inputted frames Static detection for determining whether or not the characters in the character area move between the input frames when the position of the character area matches in all of the input frames. A moving character region in the moving character region in which the character included in the character region moves between the input frames; Apply the parameter group, the static character area parameter group to the static character area where the characters included in the character area are stationary between the input frames, and the default parameter group to the other areas. A program for functioning as motion vector determining means for determining the motion vectors between the plurality of inputted frames in the moving character region, the still character region, and the other region.

また、本発明に係る補間画像生成プログラムは、上述した課題を解決するために、少なくとも2枚のフレームから補間フレームを生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、コンピュータを、前記少なくとも2枚のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域における、前記入力された複数のフレーム間の前記動きベクトルを決定する動きベクトル決定手段、前記動きベクトルにもとづいて、前記入力された複数のフレーム間に内挿される前記補間フレーム画像を生成する補間画像生成手段、および、前記補間フレーム画像を表示させる画像出力制御手段、として機能させるためのプログラムである。   Further, in order to solve the above-described problem, the interpolation image generation program according to the present invention is a parameter composed of a plurality of parameters when determining a motion vector necessary for generating an interpolation frame from at least two frames. A program for applying a group, wherein the computer receives data of the at least two frames, and obtains position information of a character area, which is an area including characters, from each of the plurality of inputted frames Static detection for determining whether or not the characters in the character area move between the input frames when the position of the character area matches in all of the input frames. A determining unit, a moving character region parameter for a moving character region in which characters included in the character region move between the plurality of input frames; Applying the static character region parameter group to the static character region where the characters included in the character region are stationary between the input frames, and applying the default parameter group to the other regions. A motion vector determining means for determining the motion vector between the plurality of input frames in the dynamic character region, the still character region, and the other region, and the plurality of input based on the motion vector It is a program for functioning as an interpolation image generation means for generating the interpolation frame image to be interpolated between frames, and an image output control means for displaying the interpolation frame image.

本発明に係る情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムによれば、フレームを少なくとも文字領域を含む複数の領域に分割し、各領域について各領域の画像に応じたパラメータ群を適用して動きベクトルを決定することができる。   According to the information processing apparatus, the motion vector generation program, and the interpolation image generation program according to the present invention, the frame is divided into a plurality of regions including at least a character region, and a parameter group corresponding to the image in each region is applied to each region. To determine a motion vector.

本発明に係る情報処理装置、動きベクトル生成プログラムおよび補間画像生成プログラムの実施の形態について、添付図面を参照して説明する。   Embodiments of an information processing apparatus, a motion vector generation program, and an interpolation image generation program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る情報処理装置10の第1実施形態を示す概略的な全体構成図である。   FIG. 1 is a schematic overall configuration diagram showing a first embodiment of an information processing apparatus 10 according to the present invention.

情報処理装置10は、CPU11、RAM12、ROM13、ネットワーク接続部14、フレームメモリ部15、文字領域情報記憶部16、パラメータ群記憶部17、インターフェイス部20、表示装置21およびチューナ22を備える。   The information processing apparatus 10 includes a CPU 11, a RAM 12, a ROM 13, a network connection unit 14, a frame memory unit 15, a character area information storage unit 16, a parameter group storage unit 17, an interface unit 20, a display device 21, and a tuner 22.

CPU11は、ROM13内に記憶されたプログラムにしたがって、情報処理装置10の処理動作を制御する。CPU11は、ROM13内に記憶された動きベクトル生成プログラムを内包する補間画像生成プログラムおよびプログラムの実行のために必要なデータを、RAM12へロードし、補間画像生成プログラムに従って、少なくとも文字領域を含む複数の領域に分割されたフレームにおいて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成する処理を実行する。   The CPU 11 controls the processing operation of the information processing apparatus 10 according to a program stored in the ROM 13. The CPU 11 loads an interpolation image generation program containing the motion vector generation program stored in the ROM 13 and data necessary for execution of the program into the RAM 12, and in accordance with the interpolation image generation program, a plurality of data including at least a character area are loaded. In a frame divided into regions, a motion vector is determined by applying a parameter group corresponding to the image of each region, and an interpolated image is generated based on the motion vector.

RAM12は、CPU11が実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。   The RAM 12 provides a work area for temporarily storing programs executed by the CPU 11 and data.

ROM13は、情報処理装置10の起動プログラム、補間画像生成プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The ROM 13 stores a startup program for the information processing apparatus 10, an interpolation image generation program, and various types of data necessary for executing these programs.

なお、ROM13は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPU11により読み取り可能な記録媒体を含んだ構成を有し、ROM13内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。   The ROM 13 has a configuration including a recording medium readable by the CPU 11 such as a magnetic or optical recording medium or a semiconductor memory, and a part or all of the programs and data in the ROM 13 are transmitted via an electronic network. It may be configured to be downloaded.

ネットワーク接続部14は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部14は、この各種プロトコルにしたがって情報処理装置10と他の電気機器とを接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   The network connection unit 14 implements various information communication protocols according to the network form. The network connection unit 14 connects the information processing apparatus 10 and other electrical devices according to these various protocols. For this connection, an electrical connection via an electronic network can be applied. Here, the electronic network means an entire information communication network using telecommunications technology. In addition to a LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, and a satellite communication network. Etc.

ここで、補間フレーム画像の生成手順について簡単に説明する。   Here, a procedure for generating an interpolation frame image will be briefly described.

補間フレーム画像は、前後あわせて少なくとも2枚のフレーム画像間のブロックマッチングを行うことにより動きベクトルを算出し、この動きベクトルを用いて生成することができる。本実施形態においては、補間フレーム画像を、2枚のフレーム(前フレームおよび後フレーム)にもとづいて生成し、この2枚のフレーム間に内挿する場合の例について説明する。   An interpolated frame image can be generated by calculating a motion vector by performing block matching between at least two frame images before and after, and using this motion vector. In the present embodiment, an example in which an interpolation frame image is generated based on two frames (the previous frame and the subsequent frame) and is interpolated between the two frames will be described.

図2は、前後2枚のフレーム間のブロックマッチング処理の一例を概略的に示す説明図である。   FIG. 2 is an explanatory diagram schematically showing an example of a block matching process between two front and rear frames.

図2に示すように、ブロックマッチング処理においては、画像間の類似性を評価するために、比較する画像(前後フレーム画像)からあるサイズ(たとえば16画素×16画素など)の注目領域(ブロック)を切り出す。このブロック同士の位置関係をマッチングベクトルという。次に、ブロック同士の一致の度合いの指標であるマッチング値を計算する。マッチング値としては、輝度差の総和(SAD)や輝度差の2乗和(SSD)などがよく用いられる。そして、マッチング値の最小値を与える切り出し位置を探索範囲内で検索し、このマッチング値の最小値を与えるマッチングベクトルを動きベクトルとする。   As shown in FIG. 2, in block matching processing, in order to evaluate the similarity between images, a region of interest (block) having a certain size (for example, 16 pixels × 16 pixels) from images to be compared (front and back frame images). Cut out. This positional relationship between the blocks is called a matching vector. Next, a matching value that is an index of the degree of matching between blocks is calculated. As the matching value, a sum of luminance differences (SAD), a square sum of luminance differences (SSD), or the like is often used. Then, the cut-out position that gives the minimum value of the matching value is searched within the search range, and the matching vector that gives the minimum value of the matching value is set as the motion vector.

ブロックマッチング処理は、ブロックサイズをはじめとする各種のパラメータを初期値として必要とする。このため、この各種パラメータからなるパラメータ群が異なれば、得られる動きベクトルは異なったものになる。この各種パラメータとしては、たとえば、動きベクトルの探索範囲、動きベクトル検出用ブロックサイズ、動きベクトル割当用ブロックサイズ、検出された動きベクトル値のクリップ量および隣接ブロック間の動きベクトル連続性保証閾値などが挙げられる。   The block matching process requires various parameters including the block size as initial values. For this reason, if the parameter group consisting of these various parameters is different, the obtained motion vector is different. Examples of the various parameters include a motion vector search range, a motion vector detection block size, a motion vector allocation block size, a detected motion vector value clip amount, and a motion vector continuity guarantee threshold between adjacent blocks. Can be mentioned.

文字の画像と文字以外の画像や、動く物体の画像と静止物体の画像では、適用すべきパラメータ群が異なる。このため、異なる種類の画像には異なるパラメータ群を適用することが望ましい。したがって、フレームを画像の種類ごとに領域分けし、各領域に対して各領域の画像に応じたパラメータ群を適用して動きベクトルを決定することが望ましい。   The parameter group to be applied differs between a character image and a non-character image, or a moving object image and a stationary object image. For this reason, it is desirable to apply different parameter groups to different types of images. Therefore, it is desirable to divide the frame into regions for each type of image, and to determine a motion vector by applying a parameter group corresponding to the image in each region to each region.

フレームメモリ部15は、チューナ22から映像データを受け、フレームごとに格納しておく。また、フレームメモリ部15は、CPU11により生成された補間フレームを格納する。   The frame memory unit 15 receives video data from the tuner 22 and stores it for each frame. The frame memory unit 15 stores the interpolation frame generated by the CPU 11.

なお、本実施形態では、放送される番組の映像データをチューナ22で受信し、この映像データを構成する複数のフレームに対して補間フレームをリアルタイムに生成する場合の例について説明する。より詳細には、本実施形態では、チューナ22で受信した映像データが、フレームごとに、CPU11およびフレームメモリ部15に順次与えられ、フレームメモリ部15は、与えられた映像データをフレームごとに格納し、CPU11は、チューナ22から与えられるフレーム(後フレーム)とこのフレームの1枚前のフレームメモリ部15に格納されているフレーム(前フレーム)とにもとづいて、補間フレームを生成する場合の例について説明する。   In the present embodiment, an example will be described in which video data of a broadcast program is received by the tuner 22 and interpolation frames are generated in real time for a plurality of frames constituting the video data. More specifically, in this embodiment, the video data received by the tuner 22 is sequentially given to the CPU 11 and the frame memory unit 15 for each frame, and the frame memory unit 15 stores the given video data for each frame. Then, the CPU 11 generates an interpolation frame based on a frame (back frame) given from the tuner 22 and a frame (previous frame) stored in the frame memory unit 15 immediately before this frame. Will be described.

文字領域情報記憶部16は、CPU11の書込み制御部41に制御され、文字領域情報(フレームの文字領域の位置の情報)と、この文字領域が領域に含まれる文字が静止している静止文字領域であるか、文字に移動がある動文字領域であるかの情報(静動情報)とを関連付けて記憶する。   The character area information storage unit 16 is controlled by the write control unit 41 of the CPU 11, and includes character area information (information on the position of the character area of the frame) and a stationary character area in which characters included in the character area are stationary. Or information indicating whether the character is a moving character area with movement (static information) is stored in association with each other.

パラメータ群記憶部17は、あらかじめ、少なくとも、動く文字(動文字)に適したパラメータ群(動文字領域用パラメータ群)、静止文字に適したパラメータ群(静止文字用パラメータ群)および文字以外の領域に適したパラメータ群(デフォルトパラメータ群)を格納しておく。   The parameter group storage unit 17 stores in advance at least a parameter group suitable for moving characters (moving characters) (parameter group for moving character regions), a parameter group suitable for stationary characters (parameter group for stationary characters), and a region other than characters. A parameter group suitable for the above (default parameter group) is stored.

インターフェイス部20は、放送される番組の映像データを受信しこの映像データをCPU11およびフレームメモリ部15に与えるチューナ22と、チューナ22の受信した映像データおよびCPU11により出力される映像データなどを表示するCRTやLCDなどの表示装置21と接続される。   The interface unit 20 receives video data of a broadcast program and supplies the video data to the CPU 11 and the frame memory unit 15, and displays video data received by the tuner 22, video data output by the CPU 11, and the like. It is connected to a display device 21 such as a CRT or LCD.

図3は、図1に示すCPU11による機能実現部の構成例を示す概略的なブロック図である。なお、この機能実現部は、CPU11を用いることなく回路などのハードウエアロジックによって構成してもよい。   FIG. 3 is a schematic block diagram showing a configuration example of a function realization unit by the CPU 11 shown in FIG. In addition, this function realization part may be comprised by hardware logics, such as a circuit, without using CPU11.

CPU11は、補間画像生成プログラムによって、少なくとも画像取得部31、文字領域有無判定部32、パラメータ割当て部33、動きベクトル決定部34、補間画像生成部35、画像出力制御部36、書込み制御部41、文字領域検出部42、検出判定部43、フラグ判定部44、領域位置判定部45、静動決定部46および緩衝領域設定部51として機能する。この各部31〜36、41〜46および51は、RAM12の所要のワークエリアを、データの一時的な格納場所として利用する。   The CPU 11 executes at least an image acquisition unit 31, a character area presence / absence determination unit 32, a parameter allocation unit 33, a motion vector determination unit 34, an interpolation image generation unit 35, an image output control unit 36, a write control unit 41, by an interpolation image generation program. It functions as a character region detection unit 42, a detection determination unit 43, a flag determination unit 44, a region position determination unit 45, a static movement determination unit 46, and a buffer region setting unit 51. Each of the units 31 to 36, 41 to 46 and 51 uses a required work area of the RAM 12 as a temporary storage location for data.

次に、本実施形態に係る情報処理装置10の動作の一例について説明する。   Next, an example of the operation of the information processing apparatus 10 according to the present embodiment will be described.

図4は、図1に示す情報処理装置10のCPU11により、文字領域を含む複数の領域に分割されたフレームについて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成する際の手順を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。   4, the CPU 11 of the information processing apparatus 10 illustrated in FIG. 1 determines a motion vector by applying a parameter group corresponding to an image in each area to a frame divided into a plurality of areas including a character area. It is a flowchart which shows the procedure at the time of producing | generating an interpolation image based on a motion vector. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

なお、図4には、2枚のフレーム画像(前後フレーム画像)から1枚の補間フレーム画像を生成する際の例について示した。図4に示す手順を映像データの全フレームについて繰り返し行うことにより、映像データ全体に対して補間フレームを生成することができる。   FIG. 4 shows an example in which one interpolated frame image is generated from two frame images (front and rear frame images). By repeating the procedure shown in FIG. 4 for all the frames of the video data, an interpolation frame can be generated for the entire video data.

また、あらかじめ、パラメータ群記憶部17は、動く文字に適したパラメータ群(動文字領域用パラメータ群)、静止文字に適したパラメータ群(静止文字用パラメータ群)および文字以外の領域に適したパラメータ群(デフォルトパラメータ群)を、格納しているものとする。   The parameter group storage unit 17 previously stores a parameter group suitable for moving characters (parameter group for moving character area), a parameter group suitable for still characters (parameter group for still characters), and a parameter suitable for regions other than characters. It is assumed that a group (default parameter group) is stored.

まず、ステップS1において、画像取得部31は、フレームメモリ部15から前フレームを、チューナ22から後フレームを、それぞれ取得する。   First, in step S <b> 1, the image acquisition unit 31 acquires a previous frame from the frame memory unit 15 and a subsequent frame from the tuner 22.

次に、ステップS2において、文字領域有無判定部32は、文字領域情報記憶部16に文字領域情報が存在するかどうかを判定する。文字領域情報がある場合は、ステップS3に進む。文字領域情報がない場合は、ステップS4に進む。   Next, in step S <b> 2, the character area presence / absence determination unit 32 determines whether character area information exists in the character area information storage unit 16. If there is character area information, the process proceeds to step S3. If there is no character area information, the process proceeds to step S4.

次に、ステップS3において、パラメータ割当て部33は、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定すべく、文字領域情報記憶部16から文字領域情報(フレームの文字領域の位置)およびこの文字領域情報に関連付けられたこの文字領域が静止文字領域であるか動文字領域であるかの情報(静動情報)を読み出し、静止文字領域には静止文字領域用パラメータ群を、動文字領域には動文字領域用パラメータ群を、その他の領域にはデフォルトパラメータ群を、それぞれ適用すべき旨の情報を、動きベクトル決定部34に与える。   Next, in step S3, the parameter allocating unit 33 applies character group information (position of the character region of the frame) from the character region information storage unit 16 in order to determine a motion vector by applying a parameter group corresponding to the image of each region. ) And information on whether this character area associated with this character area information is a static character area or a dynamic character area (static information), and a static character area parameter group is The motion vector determination unit 34 is provided with information indicating that the dynamic character region parameter group is applied to the character region and the default parameter group is applied to the other regions, respectively.

一方、ステップS4において、パラメータ割当て部33は、フレーム内の全領域においてデフォルトパラメータ群を適用すべき旨の情報を、動きベクトル決定部34に与える。   On the other hand, in step S <b> 4, the parameter assignment unit 33 gives the motion vector determination unit 34 information indicating that the default parameter group should be applied to all regions in the frame.

次に、ステップS5において、動きベクトル決定部34は、パラメータ割当て部33から受けたパラメータ群の情報にもとづき、画像取得部31から入力される前後フレームから動きベクトルを決定する。   Next, in step S <b> 5, the motion vector determination unit 34 determines a motion vector from the preceding and following frames input from the image acquisition unit 31 based on the parameter group information received from the parameter assignment unit 33.

図5は、静止文字領域および動文字領域を含むフレーム画像の一例を示す説明図である。図5に示すフレーム画像では、静止文字領域には静止文字領域用パラメータ群が、動文字領域には動文字領域用パラメータ群が、その他の領域にはデフォルトパラメータ群が、それぞれ適用される。   FIG. 5 is an explanatory diagram showing an example of a frame image including a static character region and a moving character region. In the frame image shown in FIG. 5, a static character region parameter group is applied to the static character region, a dynamic character region parameter group is applied to the dynamic character region, and a default parameter group is applied to the other regions.

次に、ステップS6において、補間画像生成部35は、決定された動きベクトルにもとづいて、補間フレーム画像を生成し、この補間フレームをフレームメモリ部15の前フレームおよび後フレームの間に内挿されるようにフレームメモリ部15に格納する。   Next, in step S6, the interpolation image generation unit 35 generates an interpolation frame image based on the determined motion vector, and this interpolation frame is interpolated between the previous frame and the subsequent frame of the frame memory unit 15. As shown in FIG.

そして、ステップS7において、画像出力制御部36は、フレームメモリ部15からフレームを読み出して表示装置21に画像を出力させる。   In step S <b> 7, the image output control unit 36 reads a frame from the frame memory unit 15 and causes the display device 21 to output an image.

以上の手順により、文字領域を含む複数の領域に分割されたフレームにおいて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成することができる。   With the above procedure, in a frame divided into a plurality of regions including a character region, a motion vector is determined by applying a parameter group corresponding to the image of each region, and an interpolated image is generated based on the motion vector. Can do.

図6は、各領域の画像に応じたパラメータ群を適用する際に利用される文字領域情報およびこの文字領域に含まれる文字の静動情報を検出する際の手順を示すフローチャートである。図6において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 6 is a flowchart showing a procedure for detecting character region information used when applying a parameter group corresponding to an image of each region and static information of characters included in the character region. In FIG. 6, reference numerals with numbers added to S indicate steps in the flowchart.

ステップS11において、書込み制御部41は、RAM12の所要のワークエリアに文字領域の検出中であるか否かを示す静動判定中フラグを設け、このフラグを、現在静動判定中ではない旨の情報をもつように(静動判定中フラグを無効に)する。   In step S11, the writing control unit 41 provides a static motion determination flag indicating whether or not a character area is being detected in a required work area of the RAM 12, and this flag is used to indicate that the static motion determination is not currently being performed. Have information (invalidate static determination flag).

次に、ステップS12において、画像取得部31は、フレームメモリ部15から前フレームを取得する。また、ステップS17を経ている場合には、画像取得部31は、フレームメモリ部15からまたはチューナ22から後フレームを取得する。   Next, in step S <b> 12, the image acquisition unit 31 acquires the previous frame from the frame memory unit 15. Further, when the process has passed through step S <b> 17, the image acquisition unit 31 acquires a subsequent frame from the frame memory unit 15 or the tuner 22.

次に、ステップS13において、文字領域検出部42は、画像取得部31から入力されたフレームから文字領域を検出し、文字領域情報(文字領域のフレーム内での位置)を取得する。   Next, in step S <b> 13, the character region detection unit 42 detects a character region from the frame input from the image acquisition unit 31 and acquires character region information (position of the character region in the frame).

次に、ステップS14において、検出判定部43は、画像取得部31により文字領域が検出されたかどうかを判定する。検出された場合はステップS15に進む。一方、検出されなかった場合はステップS16に進む。   Next, in step S <b> 14, the detection determination unit 43 determines whether a character area is detected by the image acquisition unit 31. If detected, the process proceeds to step S15. On the other hand, if not detected, the process proceeds to step S16.

ステップS15において、書込み制御部41は、文字領域情報記憶部16から文字領域情報を削除して、文字領域情報およびこの文字領域に含まれる文字の静動情報を検出する一連の手順は終了となる。文字領域情報が記憶されていない場合には、そのまま一連の手順は終了となる。この結果、前後フレームの両方に文字領域がある場合以外は、補間フレームには文字領域がないものとみなされ、補間フレーム全体にデフォルトパラメータ群が適用されることになる。   In step S15, the writing control unit 41 deletes the character region information from the character region information storage unit 16, and the series of procedures for detecting the character region information and the static information of the characters included in the character region is completed. . When the character area information is not stored, the series of procedures is finished as it is. As a result, it is assumed that there is no character area in the interpolated frame unless there is a character area in both the previous and subsequent frames, and the default parameter group is applied to the entire interpolated frame.

次に、ステップS16において、フラグ判定部44は、RAM12の所要のワークエリアを参照し、静動判定中フラグが有効であるかどうかを判定する。静動判定中フラグが無効である場合はステップS17に進む。一方、有効である場合はステップS18に進む。   Next, in step S <b> 16, the flag determination unit 44 refers to a required work area in the RAM 12 and determines whether or not the static movement determination flag is valid. If the static motion determination flag is invalid, the process proceeds to step S17. On the other hand, if it is valid, the process proceeds to step S18.

次にステップS17において、書込み制御部41は、検出された文字領域情報を文字領域情報記憶部16に一時的に格納し、静動判定中フラグを有効にして、ステップS12にもどる。   Next, in step S17, the writing control unit 41 temporarily stores the detected character region information in the character region information storage unit 16, enables the static motion determination flag, and returns to step S12.

一方、ステップS18において、領域位置判定部45は、今回検出された文字領域(後フレームの文字領域)が、前回一時的に文字領域情報記憶部16に記憶された文字領域(前フレームの文字領域)と一致しているかどうか判定する。一致しない場合は、ステップS19に進む。一方、一致する場合は、ステップS20に進む。   On the other hand, in step S18, the region position determination unit 45 determines that the character region detected this time (character region in the subsequent frame) is a character region (character region in the previous frame) temporarily stored in the character region information storage unit 16 last time. ). If not, the process proceeds to step S19. On the other hand, if they match, the process proceeds to step S20.

ここで、文字領域が前後フレームで一致しない場合とは、文字領域がフレーム内で大きく移動した(まったく別の箇所に出現した)場合であることが多いため、数〜十数ピクセルの誤差であれば、一致する場合に含めるようにしてもよい。   Here, the case where the character area does not match in the preceding and following frames is often the case where the character area has moved greatly within the frame (appears in a completely different location), so an error of several to several tens of pixels may occur. For example, it may be included when they match.

次に、前後フレームの文字領域が一致しない場合、ステップS19において、書込み制御部41は、前回一時的に文字領域情報記憶部16に記憶された文字領域情報を削除して、一連の手順は終了となる。なお、このステップで、今回検出された後フレームの文字領域情報を削除せず、利用する場合には、たとえばこの文字領域情報を静止文字領域とみなし、文字領域情報と、文字領域情報に静止文字領域である旨の情報とを関連付けて、前回検出された後フレームの文字領域情報を上書きしてもよい。   Next, when the character areas of the preceding and following frames do not match, in step S19, the writing control unit 41 deletes the character area information temporarily stored in the character area information storage unit 16 last time, and the series of procedures ends. It becomes. In this step, when the character area information of the frame detected after this detection is not deleted and used, for example, the character area information is regarded as a static character area, and the character area information and the character area information include a static character. The character area information of the frame after the previous detection may be overwritten by associating with the information indicating the area.

一方、前後フレームの文字領域が一致する場合、ステップS20において、静動決定部46は、前回と一致した今回の文字領域を前後フレームで比較して動きベクトル検出を行い、この領域に含まれる文字が静止文字であるか動文字であるかを区別する。この動きベクトル検出の精度は、静止文字と動文字を区別可能な精度があればよく、比較的精度がおちるデフォルトパラメータ群を用いるなどして簡略的に行うことで足りる。   On the other hand, if the character areas of the preceding and following frames match, in step S20, the static motion determination unit 46 performs motion vector detection by comparing the current character area that matches the previous frame with the previous and next frames, and the characters included in this area Distinguishes whether is a stationary character or a moving character. The accuracy of the motion vector detection is sufficient if it can be distinguished from a stationary character and a moving character, and can be simply performed by using a default parameter group with relatively low accuracy.

そして、ステップS21において、書込み制御部41は、文字領域情報と文字領域が静止文字であるか動文字であるかの情報とを関連付けて文字領域情報記録部に格納する。   In step S21, the writing control unit 41 associates the character region information with information about whether the character region is a static character or a moving character, and stores it in the character region information recording unit.

以上の手順により、各領域の画像に応じたパラメータ群を適用する際に利用される文字領域情報およびこの文字領域に含まれる文字の静動情報を検出することができる。   With the above procedure, it is possible to detect the character area information used when applying the parameter group corresponding to the image of each area and the static information of the characters included in the character area.

なお、少なくとも図4のステップS2の前に、図4で利用される前後フレームについて図6に示した手順を実行して文字領域情報および静動情報が文字領域情報記憶部16に記憶されるようにしておくべきことに注意すべきである。このため、たとえば、図4に示す手順の開始からステップS2までの間に、図6に示した一連の処理を行うようにするとよい。   At least before step S2 in FIG. 4, the character region information and the static information are stored in the character region information storage unit 16 by executing the procedure shown in FIG. 6 for the front and rear frames used in FIG. Note that you should keep Therefore, for example, the series of processes shown in FIG. 6 may be performed between the start of the procedure shown in FIG. 4 and step S2.

また、図4のS2およびS3で利用される文字領域情報および静動情報は、前々フレームと前フレームとから得られた文字領域情報および静動情報であってもよい。前々フレームと前フレームとから得られる文字領域情報および静動情報を用いると、文字領域情報および静動情報が1フレーム分ずれてしまう場合がありうるものの、このずれはユーザにほとんど知覚され得ず、実用上問題とはならない。   Further, the character area information and static information used in S2 and S3 of FIG. 4 may be character area information and static information obtained from the previous frame and the previous frame. If character area information and static information obtained from the previous frame and the previous frame are used, the character area information and static information may be shifted by one frame, but this shift can be almost perceived by the user. This is not a problem in practice.

図4のS2およびS3で前々フレームと前フレームとから得られる文字領域情報を用いる場合、たとえば、前々フレームと前フレームについての図4の手順におけるステップS2から図4の手順の終了までの間に、図6に示した一連の処理を行って前々フレームと前フレームの文字領域情報を文字領域情報記憶部16に記憶しておき、この文字領域情報を、前フレームと後フレームについての図4の手順におけるステップS2およびS3で利用すればよい。この場合、図6のステップS20と図4のステップS4を同期させてもよい。   When the character area information obtained from the previous frame and the previous frame is used in S2 and S3 of FIG. 4, for example, from step S2 in the procedure of FIG. 4 for the previous frame and the previous frame to the end of the procedure of FIG. In the meantime, a series of processing shown in FIG. 6 is performed to store the character area information of the previous frame and the previous frame in the character area information storage unit 16, and the character area information is stored for the previous frame and the subsequent frame. What is necessary is just to utilize at step S2 and S3 in the procedure of FIG. In this case, step S20 in FIG. 6 and step S4 in FIG. 4 may be synchronized.

本実施形態に係る情報処理装置10は、前後フレーム画像から文字領域を検出する際に、文字領域の内部の文字の静動判定を行う。このため、文字領域を静止文字領域と動文字領域に区別することができる。したがって、本実施形態に係る情報処理装置10によれば、フレーム画像を静止文字領域と動文字領域とで区別し、各領域の画像に最適なパラメータ群を適用することができ、各領域において適切な動きベクトルを取得することが可能である。   The information processing apparatus 10 according to the present embodiment performs static motion determination of characters inside the character area when detecting the character area from the previous and next frame images. For this reason, the character area can be distinguished into a stationary character area and a moving character area. Therefore, according to the information processing apparatus 10 according to the present embodiment, a frame image can be distinguished between a static character region and a moving character region, and an optimum parameter group can be applied to the image in each region. It is possible to acquire a simple motion vector.

また、本実施形態に係る情報処理装置10は、この動きベクトルにもとづき、動く文字を含む場合においても、ユーザに破綻を知覚させることのない非常に精度の高い補間フレーム画像を生成することができる。   Further, the information processing apparatus 10 according to the present embodiment can generate a highly accurate interpolation frame image that does not cause the user to perceive failure even when moving characters are included based on the motion vector. .

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.

さらに、図4および図6に示したフローチャートは、各ステップの処理が記載された順序に沿って時系列的に行われる場合の例について示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行されてもよい。   Furthermore, although the flowcharts shown in FIGS. 4 and 6 show an example in which the processing of each step is performed in time series in the order described, parallel processing is not necessarily performed in time series. May be performed manually or individually.

たとえば、本実施形態では、放送される番組の映像データをチューナ22で受信し、この映像データを構成する複数のフレームに対して補間フレームをリアルタイムに生成する場合の例について説明したが、録画した映像データ(録画データ)にもとづいて補間フレームを生成しても構わない。この場合、補間フレームは、録画データの再生時にリアルタイムに生成してもよいし、あらかじめ全録画データのフレームについて文字領域情報および静動情報をフレーム番号と関連付けて文字領域情報記憶部16に格納しておき、再生時にフレーム番号を指標として文字領域情報および静動情報を利用するようにしてもよい。   For example, in the present embodiment, an example in which video data of a broadcast program is received by the tuner 22 and interpolation frames are generated in real time for a plurality of frames constituting the video data has been described. An interpolation frame may be generated based on the video data (recording data). In this case, the interpolation frame may be generated in real time when the recorded data is reproduced, or the character area information and the static information are previously stored in the character area information storage unit 16 in association with the frame number for all the recorded data frames. The character area information and the static information may be used at the time of reproduction by using the frame number as an index.

また、文字領域の周囲に1以上の緩衝領域を設け、緩衝領域では文字領域に適用されるパラメータ群とデフォルトパラメータ群との中間値でありかつ文字領域から遠ざかるに伴い徐々にデフォルトパラメータ群に近くなるようなパラメータ群を適用するようにしてもよい。図7には、文字領域の周囲に緩衝領域を3層設ける場合の例について示した。図7に示すように、動文字領域周囲および静止文字領域周囲の緩衝領域には、動文字緩衝領域用パラメータ群および静止文字緩衝領域用パラメータ群を、それぞれ適用して、動きベクトルを決定する。   Further, one or more buffer areas are provided around the character area, and the buffer area is an intermediate value between the parameter group applied to the character area and the default parameter group, and gradually approaches the default parameter group as the distance from the character area increases. Such a parameter group may be applied. FIG. 7 shows an example in which three buffer areas are provided around the character area. As shown in FIG. 7, the motion vector is determined by applying the dynamic character buffer region parameter group and the static character buffer region parameter group to the buffer regions around the dynamic character region and the static character region, respectively.

文字領域の周囲に緩衝領域を設けることにより、領域間の不連続性を低減することができる。たとえば、3層の緩衝領域を設ける場合には、あらかじめ、ROM13などに文字領域から各緩衝領域の枠部までの距離を3つ記憶させておくとともに、各緩衝領域用のパラメータ群をパラメータ群記憶部17に記憶させておく。   By providing a buffer area around the character area, discontinuity between the areas can be reduced. For example, when providing a three-layer buffer area, three distances from the character area to the frame portion of each buffer area are stored in advance in the ROM 13 or the like, and a parameter group for each buffer area is stored in the parameter group. Stored in the unit 17.

この場合、図4に示すステップS2とS3の間に、CPU11の緩衝領域設定部51により、ROM13などから各緩衝領域の枠部までの距離を読み出し、文字領域の周囲に緩衝領域を設定するステップを実行する。そして、図4に示すステップS3において、パラメータ割当て部33により、静止文字領域には静止文字領域用パラメータ群を、動文字領域には動文字領域用パラメータ群を、各緩衝領域には各緩衝領域用のパラメータ群を、その他の領域にはデフォルトパラメータ群を、それぞれ適用すべき旨の情報が、動きベクトル決定部34に与えられるようにすればよい。   In this case, between steps S2 and S3 shown in FIG. 4, the buffer area setting unit 51 of the CPU 11 reads the distance from the ROM 13 or the like to the frame part of each buffer area, and sets the buffer area around the character area. Execute. Then, in step S3 shown in FIG. 4, the parameter assigning unit 33 causes the stationary character area to include a static character area parameter group, the dynamic character area to include a dynamic character area parameter group, and each buffer area to each buffer area. For example, the motion vector determination unit 34 may be provided with information indicating that the parameter group for use and the default parameter group for the other areas should be applied.

本発明に係る情報処理装置の第1実施形態を示す概略的な全体構成図。1 is a schematic overall configuration diagram showing a first embodiment of an information processing apparatus according to the present invention. 前後2枚のフレーム間のブロックマッチング処理の一例を概略的に示す説明図。Explanatory drawing which shows roughly an example of the block matching process between two front and back frames. 図1に示すCPUによる機能実現部の構成例を示す概略的なブロック図。FIG. 2 is a schematic block diagram illustrating a configuration example of a function realizing unit by a CPU illustrated in FIG. 1. 文字領域を含む複数の領域に分割されたフレームについて、各領域の画像に応じたパラメータ群を適用して動きベクトルを決定し、この動きベクトルにもとづいて補間画像を生成する際の手順を示すフローチャート。A flowchart showing a procedure for determining a motion vector for a frame divided into a plurality of regions including a character region by applying a parameter group corresponding to the image of each region and generating an interpolated image based on the motion vector. . 静止文字領域および動文字領域を含むフレーム画像の一例を示す説明図。Explanatory drawing which shows an example of the frame image containing a static character area | region and a moving character area | region. 各領域の画像に応じたパラメータ群を適用する際に利用される文字領域情報およびこの文字領域に含まれる文字の静動情報を検出する際の手順を示すフローチャート。The flowchart which shows the procedure at the time of detecting the character area information utilized when applying the parameter group according to the image of each area | region, and the static motion information of the character contained in this character area. 文字領域の周囲に緩衝領域を3層設ける場合のフレーム画像の一例を示す説明図。Explanatory drawing which shows an example of the frame image in the case of providing three buffer areas around a character area.

符号の説明Explanation of symbols

10 情報処理装置
11 CPU
12 RAM
13 ROM
14 ネットワーク接続部
15 フレームメモリ部
16 文字領域情報記憶部
17 パラメータ群記憶部
20 インターフェイス部
21 表示装置
22 チューナ
31 画像取得部
32 文字領域有無判定部
33 パラメータ割当て部
34 動きベクトル決定部
35 補間画像生成部
36 画像出力制御部
41 書込み制御部
42 文字領域検出部
43 検出判定部
44 フラグ判定部
45 領域位置判定部
46 静動決定部
51 緩衝領域設定部
10 Information processing apparatus 11 CPU
12 RAM
13 ROM
14 network connection unit 15 frame memory unit 16 character region information storage unit 17 parameter group storage unit 20 interface unit 21 display device 22 tuner 31 image acquisition unit 32 character region presence / absence determination unit 33 parameter allocation unit 34 motion vector determination unit 35 interpolation image generation Unit 36 image output control unit 41 writing control unit 42 character region detection unit 43 detection determination unit 44 flag determination unit 45 region position determination unit 46 static motion determination unit 51 buffer region setting unit

Claims (9)

複数のフレームの画像からこの複数のフレームに内挿する補間フレームの画像を生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用する情報処理装置であって、
前記複数のフレームを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段と、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段と、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域において、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段と、
を備えたことを特徴とする情報処理装置。
An information processing apparatus that applies a parameter group composed of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Character region detection means that receives the plurality of frames and acquires position information of a character region that is a region including characters from each of the plurality of input frames;
Static decision means for determining whether or not the characters in the character region move between the plurality of inputted frames when the position of the character region matches in all of the plurality of inputted frames;
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
An information processing apparatus comprising:
前記動きベクトルにもとづいて、前記入力された複数のフレーム間に内挿される前記補間フレーム画像を生成する補間画像生成手段と、
前記補間フレーム画像を表示させる画像出力制御手段と、
をさらに備えた請求項1記載の情報処理装置。
Interpolated image generating means for generating the interpolated frame image interpolated between the input plurality of frames based on the motion vector;
Image output control means for displaying the interpolated frame image;
The information processing apparatus according to claim 1, further comprising:
前記文字領域の周囲に緩衝領域を設定する緩衝領域設定手段をさらに備え、
前記動きベクトル決定手段は、
前記動文字領域の周囲の前記緩衝領域には前記動文字領域用パラメータ群と前記デフォルトパラメータ群との中間値をとる動文字緩衝領域用パラメータ群を適用し、前記静止文字領域の周囲の前記緩衝領域には前記静止文字領域用パラメータ群と前記デフォルトパラメータ群との中間値をとる静止文字緩衝領域用パラメータ群を適用して、前記緩衝領域の前記動きベクトルを決定する機能をさらに備えた、
請求項1または2に記載の情報処理装置。
Buffer area setting means for setting a buffer area around the character area;
The motion vector determining means includes
The buffer area around the dynamic character area is applied with a parameter group for a dynamic character buffer area that takes an intermediate value between the parameter group for the dynamic character area and the default parameter group, and the buffer around the static character area is applied. The area further includes a function of determining the motion vector of the buffer area by applying a static character buffer area parameter group that takes an intermediate value between the static character area parameter group and the default parameter group,
The information processing apparatus according to claim 1 or 2.
前記緩衝領域設定手段は、前記文字領域の周囲を順に取り囲む複数の緩衝領域を設定するよう構成され、
前記動きベクトル決定手段が前記動文字領域周囲および前記静止文字領域周囲の前記緩衝領域の前記動きベクトルを決定する際にそれぞれ適用される前記動文字緩衝領域用パラメータ群および前記静止文字緩衝領域用パラメータ群は、前記緩衝領域ごとに異なっているとともに、前記他の領域に近いほど前記デフォルトパラメータ群に近い、
請求項3記載の情報処理装置。
The buffer area setting means is configured to set a plurality of buffer areas surrounding the character area in order.
The moving character buffer area parameter group and the stationary character buffer area parameter respectively applied when the motion vector determining means determines the motion vectors of the buffer area around the moving character area and the stationary character area. The group is different for each buffer area, and the closer to the other area, the closer to the default parameter group,
The information processing apparatus according to claim 3.
前記静動決定手段は、
前記文字領域の位置が、前記入力された複数のフレームのうち、前記補間フレームが内挿される前後の2フレームで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定するよう構成された、
請求項1ないし4に記載の情報処理装置。
The static motion determining means includes
When the position of the character area matches two frames before and after the interpolation frame is interpolated among the plurality of input frames, the characters in the character area move between the input frames. Configured to determine whether or not
The information processing apparatus according to claim 1.
前記入力される複数のフレームは、前記補間フレームが内挿される前後の2フレームのみである、
請求項1ないし5に記載の情報処理装置。
The plurality of input frames are only two frames before and after the interpolation frame is interpolated.
The information processing apparatus according to claim 1.
前記文字領域検出手段および前記静動決定手段が利用する前記入力された複数のフレームと、前記動きベクトル決定手段が前記動きベクトルを決定する際に利用する複数のフレームとは、少なくとも1枚のフレームが異なる、
請求項1ないし6に記載の情報処理装置。
The plurality of inputted frames used by the character region detecting unit and the static motion determining unit and the plurality of frames used when the motion vector determining unit determines the motion vector are at least one frame. Is different,
The information processing apparatus according to claim 1.
複数のフレームの画像からこの複数のフレームに内挿する補間フレームの画像を生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、
コンピュータを、
前記複数のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、および、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域にいて、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段、
として機能させるための動きベクトル生成プログラム。
A program for applying a parameter group consisting of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Computer
Character region detection means that receives data of the plurality of frames and acquires position information of a character region that is a region including characters from each of the input plurality of frames.
Static motion determining means for determining whether or not the characters in the character region move between the plurality of input frames when the position of the character region matches in all of the plurality of input frames; and ,
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
Motion vector generation program to function as
複数のフレームの画像からこの複数のフレームに内挿する補間フレームの画像を生成するために必要な動きベクトルを決定する際に、複数のパラメータからなるパラメータ群を適用するプログラムであって、
コンピュータを、
前記複数のフレームのデータを入力され、この入力された複数のフレームのそれぞれから文字が含まれる領域である文字領域の位置情報を取得する文字領域検出手段、
前記文字領域の位置が、前記入力された複数のフレームの全てで一致する場合に、前記文字領域の文字が前記入力された複数のフレーム間で動くか否かを判定する静動決定手段、
前記文字領域に含まれる文字が前記入力された複数のフレーム間で動く動文字領域には動文字領域用パラメータ群を、前記文字領域に含まれる文字が前記入力された複数のフレーム間で静止している静止文字領域には静止文字領域用パラメータ群を、他の領域にはデフォルトパラメータ群を、それぞれ適用して、前記動文字領域、前記静止文字領域および前記他の領域において、前記入力された複数のフレームより前記動きベクトルを決定する動きベクトル決定手段、
前記動きベクトルにもとづいて、前記入力された複数のフレーム間に内挿される前記補間フレーム画像を生成する補間画像生成手段、および、
前記補間フレーム画像を表示させる画像出力制御手段、
として機能させるための補間画像生成プログラム。
A program for applying a parameter group consisting of a plurality of parameters when determining a motion vector necessary for generating an interpolated frame image to be interpolated into the plurality of frames from a plurality of frame images,
Computer
Character region detection means that receives data of the plurality of frames and acquires position information of a character region that is a region including characters from each of the input plurality of frames.
Static determination means for determining whether or not the characters in the character region move between the plurality of input frames when the position of the character region matches in all of the plurality of input frames.
A moving character region parameter group is set in a moving character region in which characters included in the character region move between the input frames, and a character group included in the character region is stopped between the input frames. The static character region parameter group is applied to the static character region and the default parameter group is applied to the other region, and the input is performed in the dynamic character region, the static character region, and the other region. Motion vector determining means for determining the motion vector from a plurality of frames;
Interpolated image generating means for generating the interpolated frame image to be interpolated between the input plurality of frames based on the motion vector, and
Image output control means for displaying the interpolated frame image;
Interpolated image generation program to function as
JP2007149979A 2007-06-06 2007-06-06 Information processing apparatus, motion vector generation program, and interpolated image generation program Expired - Fee Related JP4940024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007149979A JP4940024B2 (en) 2007-06-06 2007-06-06 Information processing apparatus, motion vector generation program, and interpolated image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007149979A JP4940024B2 (en) 2007-06-06 2007-06-06 Information processing apparatus, motion vector generation program, and interpolated image generation program

Publications (2)

Publication Number Publication Date
JP2008306330A JP2008306330A (en) 2008-12-18
JP4940024B2 true JP4940024B2 (en) 2012-05-30

Family

ID=40234680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007149979A Expired - Fee Related JP4940024B2 (en) 2007-06-06 2007-06-06 Information processing apparatus, motion vector generation program, and interpolated image generation program

Country Status (1)

Country Link
JP (1) JP4940024B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5164716B2 (en) * 2008-07-28 2013-03-21 株式会社日立製作所 Video processing device and video display device
KR101556789B1 (en) 2008-12-30 2015-10-01 엘지전자 주식회사 Display apparatus and control method of the same
JP4620163B2 (en) * 2009-06-30 2011-01-26 株式会社東芝 Still subtitle detection apparatus, video device for displaying image including still subtitle, and method for processing image including still subtitle
MX2012003206A (en) * 2009-09-18 2012-05-29 Sharp Kk Video display device.
JP5371682B2 (en) * 2009-10-19 2013-12-18 キヤノン株式会社 Image processing apparatus and image processing method
KR101607948B1 (en) 2009-12-28 2016-04-01 삼성전자주식회사 Image processing apparatus and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3746708B2 (en) * 2001-12-03 2006-02-15 シャープ株式会社 Video encoding device
JP4157579B2 (en) * 2006-09-28 2008-10-01 シャープ株式会社 Image display apparatus and method, image processing apparatus and method
JP2008166969A (en) * 2006-12-27 2008-07-17 Toshiba Corp Video signal processing circuit, video signal processing apparatus, and video signal processing method

Also Published As

Publication number Publication date
JP2008306330A (en) 2008-12-18

Similar Documents

Publication Publication Date Title
JP4564564B2 (en) Moving picture reproducing apparatus, moving picture reproducing method, and moving picture reproducing program
US7899122B2 (en) Method, apparatus and computer program product for generating interpolation frame
US7936950B2 (en) Apparatus for creating interpolation frame
JP4220284B2 (en) Frame interpolation method, apparatus, and image display system using the same
JP4940024B2 (en) Information processing apparatus, motion vector generation program, and interpolated image generation program
US8274602B2 (en) Image processing apparatus and image processing method with redundant frame detection
US20050185048A1 (en) 3-D display system, apparatus, and method for reconstructing intermediate-view video
US8629936B2 (en) Moving region detection device
CN101207707A (en) System and method for advancing frame frequency based on motion compensation
CN110889809B (en) Image processing method and device, electronic equipment and storage medium
CN114331820A (en) Image processing method, image processing device, electronic equipment and storage medium
JP5100495B2 (en) Image processing device
KR20000013212A (en) Method for dividing moving picture object by outline track
US20200105050A1 (en) Display method and display device
CN113015007B (en) Video frame inserting method and device and electronic equipment
JP2020028096A (en) Image processing apparatus, control method of the same, and program
CN116170650A (en) Video frame inserting method and device
US8611612B2 (en) Block matching method
EP3301908A1 (en) Numerical image conversion method and device, and storage medium and device
CN113269086A (en) Vilog editing method and system
CN112819694A (en) Video image splicing method and device
CN113923493B (en) Video processing method and device, electronic equipment and storage medium
JP2009239698A (en) Video image converting device, and video image converting method
JPH09130803A (en) Method and device for restoring background image
JP2009267446A (en) Motion image information processing method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100426

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees