JP2020154732A - Image processor, image processing method and program - Google Patents
Image processor, image processing method and program Download PDFInfo
- Publication number
- JP2020154732A JP2020154732A JP2019052686A JP2019052686A JP2020154732A JP 2020154732 A JP2020154732 A JP 2020154732A JP 2019052686 A JP2019052686 A JP 2019052686A JP 2019052686 A JP2019052686 A JP 2019052686A JP 2020154732 A JP2020154732 A JP 2020154732A
- Authority
- JP
- Japan
- Prior art keywords
- image
- interpolation
- frame
- frames
- transparency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000012545 processing Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 32
- 230000002093 peripheral effect Effects 0.000 claims description 17
- 239000000203 mixture Substances 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000002834 transmittance Methods 0.000 claims 1
- 230000035699 permeability Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.
従来、動画内の連続する2フレーム間の動きベクトルをブロックごとに検出し、動きベクトルを用いて補間フレームを作成し、元のフレーム間に挿入することで高フレームレート化する、いわゆるフレーム補間技術が知られている。 Conventionally, a so-called frame interpolation technique in which a motion vector between two consecutive frames in a moving image is detected for each block, an interpolation frame is created using the motion vector, and the frame rate is increased by inserting the motion vector between the original frames. It has been known.
上記技術としては、例えば、特許文献1に開示された技術がある。当該文献には、2フレーム間の補間フレームを作成する際に、2フレーム間における動きベクトルを算出して、前後フレームそれぞれで動きベクトルを1/2にしたときの画像を作成して平均化することで補間フレームを作成する装置が記載されている。 As the above technique, for example, there is a technique disclosed in Patent Document 1. In the document, when creating an interpolation frame between two frames, the motion vector between the two frames is calculated, and an image when the motion vector is halved for each of the front and rear frames is created and averaged. A device for creating an interpolation frame is described.
また、特許文献2には、ある時点のフレーム画像から移動体画像を矩形に切り抜き、切り抜かれたフレーム画像から背景画像を作成し、作成した背景画像に、別な時点の移動体の動きを予測して、切り抜いた移動体画像を上書きすることで、2フレーム間を補う補間フレーム画像を得る画像処理装置が記載されている。 Further, in Patent Document 2, a moving body image is cut out into a rectangle from a frame image at a certain time point, a background image is created from the cut out frame image, and the movement of the moving body at another time point is predicted on the created background image. Then, an image processing device for obtaining an interpolated frame image that supplements between two frames by overwriting the clipped moving body image is described.
しかしながら、上述の文献が開示するような従来の技術によるフレーム補間であると、例えば、離れた場所でPC(Personal Computer、パソコン)の画面を共有し、送受信データ量を抑えつつ受信側でマウスポインタの動きを滑らかに見せようとする場合に、課題が残る。マウスポインタの動きを滑らかにするには、補間フレーム画像の材料とするフレーム画像からマウスポインタが含まれる部分を切り取ってマウスポインタ画像とし、切り取った残りを背景画像とし、マウスポインタ画像を背景画像に対して移動させて重ねたものを補間フレーム画像にする。この場合、マウスポインタ画像に文字や画像の一部が含まれたり透けて見えたりしていると、それらがマウスポインタとともに一瞬移動して見え、その後に消えるようになり、不自然なフレーム補間となってしまう。 However, in the case of frame interpolation by the conventional technique as disclosed in the above-mentioned documents, for example, the screen of a PC (Personal Computer) is shared at a remote place, and the mouse pointer on the receiving side while suppressing the amount of transmitted / received data. A challenge remains when trying to make the movement of the mouse look smooth. To smooth the movement of the mouse pointer, cut out the part including the mouse pointer from the frame image used as the material of the interpolation frame image to make the mouse pointer image, use the cut rest as the background image, and use the mouse pointer image as the background image. The image that is moved and superimposed is made into an interpolated frame image. In this case, if the mouse pointer image contains characters or parts of the image or can be seen through, they will appear to move momentarily with the mouse pointer and then disappear, resulting in unnatural frame interpolation. turn into.
本発明は、上記に鑑みてなされたものであって、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to generate a natural interpolated frame image in frame interpolation when a part of a frame image moves between two consecutive frames.
上述した課題を解決し、目的を達成するために、本発明は、入力される動画の連続する二つのフレームである前後フレームの間を補う補間フレームを生成する画像処理装置であって、前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出部と、前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判定部と、前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出部と、前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定部と、前記補間オブジェクト生成手段決定部が決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成部と、前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出部と、前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the present invention is an image processing device that generates an interpolation frame that complements the space between the front and rear frames, which are two consecutive frames of the input moving object. The movement direction of the area is determined based on the object extraction unit that extracts the area including the object that moves between the frames from each of the front and rear frames to obtain the motion object image and the area of each of the front and rear frames. Object motion determination unit, a transparency calculation unit that calculates transparency, which is the degree of transparency of the background in the motion object image extracted from each of the front and rear frames, and the motion object extracted from each of the front and rear frames. The interpolation object is generated by an interpolation object generation means determination unit that determines a generation means for generating an interpolation object based on an image, the transparency, and a predetermined threshold, and a generation means determined by the interpolation object generation means determination unit. An interpolating object generation unit, an object peripheral image extraction unit that generates a background image as a background of the interpolation object from any of the preceding and following frames, and an image composition that generates the interpolation frame from the interpolation object and the background image. It has a part and.
本発明によれば、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することができる。 According to the present invention, it is possible to generate a natural interpolated frame image in frame interpolation when a part of the frame image moves between two consecutive frames.
以下、添付の図面に基づき、本発明の実施形態について説明する。なお、本発明の実施形態を説明するための各図面において、同一の機能もしくは形状を有する部材や構成部品等の構成要素については、判別が可能な限り同一符号を付すことにより一度説明した後ではその説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In each drawing for explaining the embodiment of the present invention, components such as members and components having the same function or shape are once described by giving the same reference numerals as much as possible. The description will be omitted.
図1は、第1の実施形態における画像処理システム1000の構成例を示す図である。図1に示されるように、画像処理システム1000は、画像処理装置であるユーザデバイス100a〜100e、サーバ200、投影装置201、及びネットワーク300を含む。ユーザデバイスは、ネットワーク300を介して、他のユーザデバイス100及びサーバ200と接続されている。
FIG. 1 is a diagram showing a configuration example of the
ユーザデバイス100a〜100eは、ネットワーク300経由で、他のユーザデバイス100a〜100eから動画データを受信して、後述するような画像処理方法でフレーム補間処理を行い、補間処理後の動画を表示可能なデバイスである。また、ユーザデバイス100a〜100eは、サーバ200から受信した動画データについても、後述するようにフレーム補間処理を行い、補間処理後の動画を表示可能なデバイスである。
The
ユーザデバイス100aおよび100bは、例えば、PC(Personal Computer)、タブレットPC又はスマートフォン等である。ユーザデバイス100bには投影装置201が接続されている。
The
投影装置201は、例えば、プロジェクタであり、ユーザデバイス100bから出力される信号を受けて、画像を投影する。なお、投影装置201は、直接ネットワーク300と接続されて動画データを受信して、画像を投影してもよい。
The
ユーザデバイス100cはネットワーク300経由で受信した動画データを表示可能なディスプレイである。
The
ユーザデバイス100dは、ディスプレイと音声デバイスとを備え、ネットワーク300経由で受信した動画データおよび音声データを再生することが可能なネットワーク会議デバイスである。
The
ユーザデバイス100eは、ネットワーク300経由で受信した動画データを表示可能なディスプレイを備える電子黒板である。
The
以降ユーザデバイス100a〜100eをそれぞれ区別しない場合は、ユーザデバイス100と呼ぶことがある。
Hereinafter, when the
サーバ200は、動画データをネットワーク300経由でユーザデバイス100に送信する機能を有する。例えば、テレビ会議の多地点制御装置であり、あるユーザデバイス100からカメラで撮影した動画データや、オフィス文書等が操作されるPC画面の動画データを受信し、それら動画データを、ネットワーク300を介して他のユーザデバイス100に送信可能である。
The
なおユーザデバイス100a〜100eは前述した通り、少なくともネットワーク300経由で受信した動画データを表示、再生可能であるが、自らが動画データや音声データをネットワーク300経由、またはネットワーク300とサーバ200経由で配信する機能を有していてもよい。
As described above, the
ここで、本画像処理システム1000において、ユーザデバイス100aおよび100bはPC機能を有しているため、サーバ200およびネットワーク300を利用してPCで操作している画面を動画データとして他のユーザデバイスに送信することができる。つまりユーザデバイス100aおよび100bにおいてPC操作されている画面は動画データとして、他デバイスと共有することができる。この状態を特にPC画面共有モードと呼ぶことがある。
Here, in the
図1においては、ユーザデバイス100aおよび100bがPC画面共有モードにおいて共有する画面を提供する側として動作することもでき、また受信する側として動作することもできる。それに対し図1におけるユーザデバイス100c、100d、100eは、受信する側として動作する。しかしこれに限られず、ユーザデバイス100c、100d、100eであってもそれぞれのI/F(Interface)を用いてPCと接続することにより、提供する側および受信する側の両方として動作することが可能となる。
In FIG. 1, the
本実施形態は、PC画面共有モードにおいて、送信側から低フレームレートで送信し、受信側で高フレームレート化する際に、画質異常が発生しないようなフレーム補間を行う場合の画像処理の一例である。本実施形態では、静止した背景に対して動きのあるオブジェクトの一例をマウスポインタとし、マウスポインタを囲む矩形で区切られた領域を抽出して得る画像を、動きオブジェクト画像の一例とする。 This embodiment is an example of image processing in the case of performing frame interpolation so that an image quality abnormality does not occur when transmitting at a low frame rate from the transmitting side and increasing the frame rate on the receiving side in the PC screen sharing mode. is there. In the present embodiment, an example of an object that moves with respect to a stationary background is used as a mouse pointer, and an image obtained by extracting an area separated by a rectangle surrounding the mouse pointer is used as an example of a moving object image.
本実施形態では、動画内の連続する2フレーム間でマウスポインタの動きを検出し、各フレーム画像から矩形抽出したマウスポインタを含む画像(ポインタ切取画像、動きオブジェクト画像の一例)を用いて、補間フレームを生成する。 In the present embodiment, the movement of the mouse pointer is detected between two consecutive frames in the moving image, and an image including the mouse pointer extracted from each frame image (an example of a pointer cut image and a motion object image) is used for interpolation. Generate a frame.
図2−1は、前フレームの一例を示す図である。図2−2および図2−3は、補間フレームの一例を示す図である。補間フレーム生成に際し、従来であれば、ポインタ切取画像に背景(文字など)が透けていたり含まれたりしていると(図2−1参照)、それらが補間フレームで違う位置に表示されるので(図2−2および図2−3参照)、不自然なフレーム補間となってしまい(画質異常)、不都合である。本実施形態では上述のような不都合を軽減して自然なフレーム補間とするため、ポインタ切取画像の取得元を複数から選択可能にし、より適する方を補間フレームに採用する。 FIG. 2-1 is a diagram showing an example of the front frame. 2-2 and 2-3 are diagrams showing an example of an interpolation frame. Conventionally, when generating an interpolation frame, if the background (characters, etc.) is transparent or included in the pointer cut image (see Fig. 2-1), they are displayed at different positions in the interpolation frame. (See FIGS. 2-2 and 2-3), resulting in unnatural frame interpolation (image quality abnormality), which is inconvenient. In the present embodiment, in order to reduce the above-mentioned inconveniences and perform natural frame interpolation, the acquisition source of the pointer cut image can be selected from a plurality of sources, and the more suitable one is adopted for the interpolation frame.
図3は、第1の実施形態におけるユーザデバイス100のハードウェア構成図である。ユーザデバイス100は、それぞれ相互に接続されているCPU(Central Processing Unit)101、表示装置102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、通信I/F105、記憶装置106及び入出力I/F107等を備える。
FIG. 3 is a hardware configuration diagram of the
ユーザデバイス100での処理を実現するプログラムは、ROM103又は記憶装置106に格納される。記憶装置106は、一例としてHDD(Hard Disc Drive)等の記憶媒体であり、インストールされたプログラムを格納すると共に、必要なデータを格納する。記憶装置106は、その他の例として、外部記憶媒体がユーザデバイス100に装着されたものであってもよい。
The program that realizes the processing in the
RAM104は、プログラムの起動指示があった場合に、ROM103又は記憶装置106からプログラムを読み出して格納する。CPU101は、RAM104に格納されたプログラムに従ってユーザデバイス100に係る機能を実現する。
The
表示装置102は、ユーザデバイス100が備える表示装置であり、例えば、液晶ディスプレイ、タッチパネルディスプレイ、有機EL(Electro Luminescence)、またプロジェクタ等の投影装置であってもよい。
The
通信I/F105は、他のユーザデバイス100又はサーバ200等とネットワーク300を介して通信を行うための有線又は無線のインタフェースである。
The communication I /
入出力I/F107は、USB(Universal Serial Bus)機器、ハードウェアキー、状態通知用LED、液晶ディスプレイ等の様々な入出力装置との接続を行うためのインタフェースである。
The input / output I /
そして、ユーザデバイス100は、上述のハードウェア構成に加え、カメラ、スキャナ、プリンタ、キーボード、マウス、マイク、スピーカ、電子ペンなどそれぞれのデバイス特有のハードウェア構成を備える。
Then, in addition to the above-mentioned hardware configuration, the
なお、サーバ200も図2と同様のハードウェア構成を備えるものであってよい。
The
図4は、第1の実施形態におけるユーザデバイス100の機能ブロック図である。ユーザデバイス100は、蓄積部11、フレーム補間部12、画像表示部13を含む。これら各部は、ユーザデバイス100にインストールされた1以上のプログラムがCPU101に実行させる処理により実現される。
FIG. 4 is a functional block diagram of the
蓄積部11は、ネットワーク300から時系列で順次入力される動画を、最新フレームから連続する過去フレームまで遡って所定のフレーム数分、蓄積する。フレームは、例えば、所定の水平解像度及び垂直解像度を有し、1ドットがRGBの3色で、各色の色深度は8bitであるカラー画像データである。色深度のビット数は、8bitに限られず16bit等さらに大きくてもよい。また、フレームは、YUV(YCbCr)のような輝度色差信号のデータ形式で記録されていてもよい。
The storage unit 11 stores moving images sequentially input from the
フレーム補間部12は、蓄積部11から読み出した複数の入力フレームに基づいて、最新フレームと1つ前のフレームの間に挿入する補間フレームを生成する。ここで、補間するフレーム数は1枚でも複数枚でもよい。なお、連続するフレームを、Nを整数として、N−1フレーム、Nフレーム、N+1フレーム…と呼ぶことがある。
The
また、連続する二つの入力フレーム、一例としてN−1フレームとNフレームを合わせて前後フレームと呼ぶことがある。そして連続する二つの入力フレームのうち最新の方のフレーム、つまりNフレームを後フレームと呼び、1つ前のフレーム、つまりN−1を前フレームと呼ぶことがある。この時連続する二つの入力フレームの間に補間フレームが挿入されている場合は、補間フレームの直前の入力フレームが前フレームであるN−1フレームであり、補間フレームの直後の入力フレームが後フレームであるNフレームである。 Further, two consecutive input frames, for example, an N-1 frame and an N frame may be collectively referred to as a front-rear frame. The latest frame of the two consecutive input frames, that is, the N frame may be referred to as a rear frame, and the previous frame, that is, N-1 may be referred to as a front frame. At this time, if an interpolation frame is inserted between two consecutive input frames, the input frame immediately before the interpolation frame is the N-1 frame which is the front frame, and the input frame immediately after the interpolation frame is the rear frame. It is an N frame.
画像表示部13は、入力されたフレーム間に補間フレームが挿入された動画を、ユーザデバイス100が備える表示装置102、又は投影装置201に、補間処理後の動画を順次出力又は表示する。
The
図5は、フレーム補間部12の機能について説明する図である。フレーム補間部12は、オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126を含む。
FIG. 5 is a diagram illustrating the function of the
オブジェクト抽出部120は、蓄積部11から入力される複数のフレームから、動きオブジェクトの位置情報および、動きオブジェクトの画像データ(動きオブジェクト画像、より具体的にはポインタ切取画像)を抽出する。本実施形態では、補間フレームの差込み対象である連続する2フレームを、動きオブジェクト画像の取得元とする。つまり本実施形態では、連続する2フレームの時系列的に前のフレームだけでなく後のフレームからも、マウスポインタを含む画像を切り取る。
The
オブジェクト動き判定部121は、オブジェクト抽出部120から得られる動きオブジェクトの位置情報から、フレーム前後で動きオブジェクトの動きがあるか、あればその方向をも、判定する。
The object movement determination unit 121 determines whether or not there is movement of the movement object before and after the frame from the position information of the movement object obtained from the
オブジェクト透過度算出部122は、オブジェクト抽出部120から得られる動きオブジェクト画像を解析し、背景透け度合いを算出する。背景透け度合いは、例えば標準偏差といった画像特徴量である。
The object
補間オブジェクト生成手段決定部123は、オブジェクト透過度算出部122から得られる各動きオブジェクトの背景透け度合いと、所定の閾値とから、補間オブジェクト生成手段を決定する。ここで、補間オブジェクトは、補間フレームの生成に用いる動きオブジェクトである。補間オブジェクト生成手段決定部123は、例えば、動きオブジェクトの背景の透け度合いと所定の閾値とを比較して閾値を下回れば背景が透けていないとする。
The interpolation object generation means
補間オブジェクト生成部124は、オブジェクト動き判定部121において判定した動き方向と、補間オブジェクト生成手段決定部123が決定した補間オブジェクト生成手段と、オブジェクト抽出部120から得られる動きオブジェクト画像を用いて、補間オブジェクト画像を生成する。
The interpolation object generation unit 124 interpolates using the movement direction determined by the object movement determination unit 121, the interpolation object generation means determined by the interpolation object generation means
より具体的には、補間オブジェクト生成部124は、例えば、前フレームと後フレームとのいずれかが背景が透けてない場合には、背景が透けていない方の動きオブジェクト画像を補間オブジェクトとする。また、前フレームと後フレームとの両方とも背景が透けていた場合、補間オブジェクト生成部124は、いずれかの動きオブジェクト画像に対して背景が目立たないように修正し、それを補間オブジェクトとする。 More specifically, when the background of either the front frame or the rear frame is not transparent, the interpolation object generation unit 124 uses the motion object image whose background is not transparent as the interpolation object. Further, when the background is transparent in both the front frame and the rear frame, the interpolation object generation unit 124 corrects the background so as not to be conspicuous with respect to any of the motion object images, and uses it as the interpolation object.
ここで図6は、補間フレームの生成方法の違いについて説明する図である。本実施形態では、前フレームおよび後フレームの動きオブジェクト画像(ポインタ切取画像)の様子の組み合わせを、次のA〜Dの4種類に分けて考える。
A:前フレームおよび後フレームのいずれでも背景が透けていない
B:前フレームでは背景が透けて見える
C:後フレームでは背景が透けて見える
D:前フレームおよび後フレームのいずれでも背景が透けて見える
上記A〜Dの4つの場合の補間フレームの生成例は以下の通りである。
Here, FIG. 6 is a diagram for explaining the difference in the method of generating the interpolation frame. In the present embodiment, the combination of the appearance of the motion object image (pointer cut image) of the front frame and the rear frame is considered by dividing into the following four types A to D.
A: The background is not transparent in either the front frame or the rear frame B: The background is transparent in the front frame C: The background is transparent in the rear frame D: The background is transparent in both the front frame and the rear frame An example of generating an interpolation frame in the above four cases A to D is as follows.
Aの場合(前フレームおよび後フレームのいずれでも背景が透けていない)には、前フレームと後フレームとのいずれの動きオブジェクト画像を用いても、画質異常にならない。 In the case of A (the background is not transparent in either the front frame or the rear frame), the image quality does not become abnormal regardless of which of the motion object images of the front frame and the rear frame is used.
Bの場合(前フレームでは背景が透けて見える)には、前フレームと後フレームの背景透け度合いを比較し、透け度合いが低い後フレームを補間フレームの動きオブジェクト(補間オブジェクト)として使用する。したがって、補間オブジェクトにおいて背景が透けず、画質異常にはならない。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けてしまい、画質異常となっていた。 In the case of B (the background can be seen through in the front frame), the background transparency of the front frame and the rear frame is compared, and the rear frame having a low transparency is used as the motion object (interpolation object) of the interpolation frame. Therefore, the background is not transparent in the interpolated object, and the image quality does not become abnormal. In this case, since the interpolation object is always generated from the previous frame in the past, the background is transparent in the interpolation object, resulting in abnormal image quality.
Cの場合(後フレームでは背景が透けて見える)には、前フレームと後フレームの背景透け度合いを比較し、透け度合いが低い前フレームを補間オブジェクトとして使用する。したがって、補間オブジェクトにおいて背景が透けず、画質異常にはならない。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けず、画質異常にはならない。 In the case of C (the background can be seen through in the rear frame), the background transparency of the front frame and the rear frame is compared, and the front frame having a low transparency is used as the interpolation object. Therefore, the background is not transparent in the interpolated object, and the image quality does not become abnormal. In this case, since the interpolation object is always generated from the previous frame in the conventional case, the background is not transparent in the interpolation object and the image quality does not become abnormal.
Dの場合(前フレームおよび後フレームのいずれでも背景が透けて見える)には、前フレームも後フレームも所定の閾値を上回る。この場合には、動きオブジェクトの領域を、狭く修正する。これにより、背景が透ける部分を減らす。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けて見え、画質異常になっていた。つまり、本実施形態によれば、画質異常を軽減することができる。 In the case of D (the background can be seen through in both the front frame and the rear frame), both the front frame and the rear frame exceed a predetermined threshold value. In this case, the area of the movement object is narrowed. This reduces the part where the background is transparent. In this case, since the interpolation object is always generated from the previous frame in the past, the background can be seen through in the interpolation object, resulting in abnormal image quality. That is, according to the present embodiment, the image quality abnormality can be reduced.
図5に戻り、オブジェクト周辺画像抽出部125は、蓄積部11から得られる、補間フレームの直後となるフレーム(後フレーム)における動きオブジェクト周辺の画像(背景)を抽出する。
Returning to FIG. 5, the object peripheral
画像合成部126は、蓄積部11から得られる、補間フレームの直前となるフレーム(前フレーム)と、補間オブジェクト生成部124から得られる補間オブジェクトとを合成して、補間フレームを生成する。そして画像合成部126は、蓄積部11から得られたフレーム及び補間フレームを、画像表示部13に送信する。
The image synthesizing unit 126 generates an interpolation frame by synthesizing a frame (previous frame) immediately before the interpolation frame obtained from the storage unit 11 and an interpolation object obtained from the interpolation object generation unit 124. Then, the image synthesis unit 126 transmits the frame obtained from the storage unit 11 and the interpolation frame to the
図7は、フレーム補間部12が補間フレームを生成する処理の流れの一例を示すフローチャートである。フレーム補間部12は、まずオブジェクト抽出部120として、蓄積部11から入力される複数のフレームの各々から、動きオブジェクトの位置情報および動きオブジェクト画像を抽出する(オブジェクト抽出工程)(ステップS1)。また、フレーム補間部12は、オブジェクト周辺画像抽出部125として、蓄積部11から得られる、補間フレームの直後のフレーム(後フレーム)におけるオブジェクト周辺画像を抽出する(オブジェクト周辺画像抽出工程)(ステップS2)。
FIG. 7 is a flowchart showing an example of the flow of processing in which the
オブジェクト抽出工程(ステップS1)を終えると、フレーム補間部12は、オブジェクト動き判定部121として、オブジェクト抽出部120から得られる動きオブジェクトの位置情報に基づき、前フレームと後フレームとの間での動きオブジェクトの動き方向を判断する(オブジェクト動き判断工程)(ステップS3)。また、フレーム補間部12は、オブジェクト透過度算出部122として、オブジェクト抽出部120から得られる動きオブジェクト画像を解析し、動きオブジェクトの背景透け度合いを算出する(オブジェクト背景透け度合い算出工程)(ステップS4)。
When the object extraction step (step S1) is completed, the
オブジェクト背景透け度合い算出工程(ステップS4)を終えると、フレーム補間部12は、補間オブジェクト生成手段決定部123として、オブジェクト透過度算出部122から得られる動きオブジェクトの背景透け度合いと所定の閾値とから、補間オブジェクト生成手段を決定する(補間オブジェクト生成手段決定工程)(ステップS5)。
When the object background transparency calculation step (step S4) is completed, the
オブジェクト動き判断工程(ステップS3)および補間オブジェクト生成手段決定工程(ステップS5)を終えると、フレーム補間部12は、補間オブジェクト生成部124として、オブジェクト動き判定部121にて判断した動き方向と、補間オブジェクト生成手段決定部123にて決定したオブジェクト生成手段に基づき、補間フレームでの動きオブジェクトの位置情報と補間フレームでの動きオブジェクト画像とからなる補間オブジェクトを生成する(補間オブジェクト生成工程)(ステップS6)。
After completing the object movement determination step (step S3) and the interpolation object generation means determination step (step S5), the
補間オブジェクト生成工程(ステップS6)およびオブジェクト周辺画像抽出工程(ステップS2)を終えると、フレーム補間部12は、画像合成部126として、オブジェクト周辺画像抽出部125から得られるオブジェクト周辺画像に、補間オブジェクト生成部124から得られる補間オブジェクトを合成して、補間フレームを生成する(画像合成工程)(ステップS7)。
After completing the interpolation object generation step (step S6) and the object peripheral image extraction step (step S2), the
そして画像合成部126は、蓄積部11から得られたフレームと補間フレームとを、画像表示部13に送信する。なお、オブジェクト周辺領域抽出工程では、後フレームを用いる例を説明したが、前フレームを用いてもよいし、これらに限らず他の手法であってもよい。
Then, the image synthesizing unit 126 transmits the frame obtained from the accumulating unit 11 and the interpolating frame to the
図8は、フレーム補間部12が補間オブジェクト生成手段を決定する処理の流れの一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of a processing flow in which the
まずフレーム補間部12は、オブジェクト透過度算出部122として、前フレームオブジェクトの標準偏差S1を算出し、当該標準偏差S1を補間オブジェクト生成手段決定部123に渡す(ステップS101)。
First, the
次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S1とを比較する(ステップS102)。標準偏差S1が所定の閾値Sthを超えない場合(ステップS102のNo)、フレーム補間部12は、前フレームの動きオブジェクトを補間オブジェクトに使用すると決定して、本処理を終了する(ステップS103)。
Next, the
ステップS102において、標準偏差S1が所定の閾値Sthを超える場合(ステップS102のYes)、フレーム補間部12は、オブジェクト透過度算出部122として、後フレームオブジェクトの標準偏差S2を算出し、当該標準偏差S2を補間オブジェクト生成手段決定部123に渡す(ステップS104)。
In step S102, when the standard deviation S1 exceeds a predetermined threshold value Sth (Yes in step S102), the
次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S2とを比較する(ステップS105)。標準偏差S2が所定の閾値Sthを超えない場合(ステップS105のNo)、フレーム補間部12は、後フレームの動きオブジェクトを補間オブジェクトに使用すると決定して、本処理を終了する(ステップS106)。
Next, the
ステップS105において、標準偏差S2が所定の閾値Sthを超える場合(ステップS105のYes)、フレーム補間部12は、前フレームの動きオブジェクト画像の外枠全周囲から一定幅削る修正を行う(ステップS107)。このときの削り幅a(削る画素数)は、任意に決められるものとする。
In step S105, when the standard deviation S2 exceeds a predetermined threshold value Sth (Yes in step S105), the
次にフレーム補間部12は、オブジェクト透過度算出部122として、ステップS107で修正した動きオブジェクト画像の標準偏差S1´を算出し、当該標準偏差S1´を補間オブジェクト生成手段決定部123に渡す(ステップS108)。
Next, the
次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S1´とを比較する(ステップS109)。標準偏差S1´が所定の閾値Sthを超えない場合(ステップS109のNo)、フレーム補間部12は、ステップS107で修正された前フレームの動きオブジェクト画像を、補間オブジェクトとして使用すると決定して、本処理を終了する(S110)。
Next, the
ステップS109において、標準偏差S1´が所定の閾値Sthを超える場合(ステップS109のYes)、フレーム補間部12は、削り幅a(削る画素数)を増やして(S111)、前フレームオブジェクトを修正する(ステップS107)。フレーム補間部12は、ステップS107〜S109,S111の処理ループを、標準偏差S1´が所定の閾値Sth以下となるまで、繰り返す。
In step S109, when the standard deviation S1'exceeds a predetermined threshold value Sth (Yes in step S109), the
図9は、動きオブジェクト画像(ポインタ切取画像)から標準偏差S1(或いはS1´)を算出する際の具体例について説明する図である。本図は、図8のステップS107、S108、S109、S111を繰り返し実行し、動きオブジェクト画像の標準偏差S1´が所定の閾値Sthを下回るまで、ポインタ切取画像を修正していく様子を表している。 FIG. 9 is a diagram illustrating a specific example when calculating the standard deviation S1 (or S1') from the motion object image (pointer cut-out image). This figure shows a state in which steps S107, S108, S109, and S111 of FIG. 8 are repeatedly executed, and the pointer cut image is corrected until the standard deviation S1'of the motion object image falls below a predetermined threshold value Sth. ..
破線は、標準偏差S1(或いはS1´)を算出する際の画像領域を示す。フレーム補間部12は、初回の標準偏差S1が閾値Sthを上回った場合、現状の動きオブジェクト画像は補間オブジェクト画像として使用しないこととし、動きオブジェクト画像の外周部を削る修正を行う。
The broken line indicates the image area when calculating the standard deviation S1 (or S1'). When the initial standard deviation S1 exceeds the threshold value Sth, the
次に、オブジェクトを削り幅aで削ったのちの標準偏差S1´が閾値Sthを上回った場合、フレーム補間部12は、現状(初期状態から削り幅aで削り後)の動きオブジェクト画像は補間オブジェクト画像として使用しないこととし、動きオブジェクト画像の外周をさらに削る修正を行う。フレーム補間部12は、標準偏差S1´が閾値Sth以下になるまで、上記修正を繰り返す。
Next, when the standard deviation S1'after cutting the object with the cutting width a exceeds the threshold value Sth, the
そしてフレーム補間部12は、N回修正後の標準偏差S1´が閾値Sth以下になれば、その時点での動きオブジェクト画像を、補間オブジェクトに使用すると決定する。
Then, when the standard deviation S1'after N corrections becomes equal to or less than the threshold value Sth, the
以上のように、本実施形態によれば、前フレームと後フレームとのそれぞれから切り取ったマウスポインタの画像(ポインタ切取画像)に対して、背景が透けている度合いを算出し、それぞれの背景透け度合いと、所定の閾値とから、補間フレームに使用するポインタ切取画像を決定するようにしたので、マウスポインタの半透明部分に透けて見える背景がより目立たない補間フレームを作成でき、これにより画質異常を軽減することができる。したがって、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することができる。 As described above, according to the present embodiment, the degree to which the background is transparent is calculated for the mouse pointer image (pointer cut image) cut from each of the front frame and the rear frame, and each background is transparent. Since the pointer cropped image to be used for the interpolation frame is determined from the degree and a predetermined threshold, it is possible to create an interpolation frame in which the background that can be seen through the translucent part of the mouse pointer is less noticeable. Can be reduced. Therefore, a natural interpolated frame image can be generated in frame interpolation when a part of the frame image moves between two consecutive frames.
本実施の形態の画像処理装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。 The image processing device of the present embodiment includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) or RAM, an external storage device such as an HDD or a CD drive device, and a display device such as a display device. , Equipped with input devices such as a keyboard and mouse, and has a hardware configuration using a normal computer.
本実施形態の画像処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program executed by the image processing apparatus of the present embodiment is a file in an installable format or an executable format on a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versaille Disk). It is recorded and provided on a readable recording medium.
また、本実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Further, the program executed by the image processing device of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program executed by the image processing device of the present embodiment may be configured to be provided or distributed via a network such as the Internet.
また、本実施形態の画像処理を行うためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the program for performing the image processing of the present embodiment may be configured to be provided by incorporating it in a ROM or the like in advance.
本実施の形態の画像処理装置で実行されるプログラムは、上述した各部(オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126が主記憶装置上に生成されるようになっている。
The program executed by the image processing apparatus of the present embodiment includes the above-mentioned parts (
11 …蓄積部、
12 …フレーム補間部
13 …画像表示部
100,100a〜100e…ユーザデバイス
101…CPU、102…表示装置、103…ROM、104…RAM、
105…通信I/F、106…記憶装置、107…入出力I/F
120…オブジェクト抽出部
121…オブジェクト動き判定部
122…オブジェクト透過度算出部
123…補間オブジェクト生成手段決定部
124…補間オブジェクト生成部
125…オブジェクト周辺画像抽出部
126…画像合成部
200…サーバ
201…投影装置
300…ネットワーク
1000…画像処理システム
11 ... Accumulation part,
12 ...
105 ... Communication I / F, 106 ... Storage device, 107 ... Input / output I / F
120 ... Object extraction unit 121 ... Object
Claims (6)
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出部と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判定部と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出部と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定部と、
前記補間オブジェクト生成手段決定部が決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成部と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出部と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成部と、
を備える画像処理装置。 An image processing device that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction unit that extracts an area including an object that moves between the front and rear frames from each of the front and rear frames to obtain a movement object image, and an object extraction unit.
An object movement determination unit that determines the movement direction of the area based on each of the areas of the front and rear frames,
A transparency calculation unit that calculates the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determination unit that determines a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation unit that generates the interpolation object by the generation means determined by the interpolation object generation means determination unit,
An object peripheral image extraction unit that generates a background image as a background of the interpolating object from any of the preceding and following frames, and
An image compositing unit that generates the interpolation frame from the interpolation object and the background image, and
An image processing device comprising.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the transmittance is a standard deviation indicating the degree of variation of the motion object image.
ことを特徴とする請求項1または2に記載の画像処理装置。 When the transparency of the motion object image of each of the front and rear frames is higher than the predetermined threshold value, the interpolating object generation means determining unit determines the motion object image of the front frame and the motion object image of the rear frame. The image processing apparatus according to claim 1 or 2, wherein it is determined that the motion object image having the lower transparency is used for generating the interpolation object in the interpolation object generation unit.
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。 When the transparency of the motion object image of each of the front and rear frames is lower than the predetermined threshold value, the interpolating object generation means determining unit determines the motion object image of the front frame and the motion object image of the rear frame. The image processing apparatus according to any one of claims 1 to 3, wherein any one of the above is determined to be used for generating the interpolating object in the interpolating object generation unit.
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出工程と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判断工程と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出工程と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定工程と、
前記補間オブジェクト生成手段決定工程において決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成工程と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出工程と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成工程と、
を含む画像処理方法。 It is an image processing method that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction step of extracting a region including an object that moves between the front and rear frames from each of the front and rear frames to obtain a movement object image, and
An object movement determination step of determining the movement direction of the region based on each of the regions of the front and rear frames,
A transparency calculation step for calculating the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determination step of determining a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation step of generating the interpolation object by the generation means determined in the interpolation object generation means determination step, and
An object peripheral image extraction step of generating a background image as a background of the interpolated object from any of the preceding and following frames, and
An image composition step of generating the interpolation frame from the interpolation object and the background image, and
Image processing method including.
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出手段と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判断手段と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出手段と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定手段と、
前記補間オブジェクト生成手段決定手段において決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成手段と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出手段と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成手段と、
を含むプログラム。 It is a program for performing image processing that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction means for obtaining a motion object image by extracting an area including an object moving between the front and rear frames from each of the front and rear frames.
An object movement determining means for determining the movement direction of the region based on the respective regions of the front and rear frames, and
A transparency calculating means for calculating the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determining means for determining a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation means that generates the interpolation object by the generation means determined in the interpolation object generation means determination means, and an interpolation object generation means.
An object peripheral image extraction means for generating a background image as a background of the interpolating object from any of the preceding and following frames, and
An image compositing means for generating the interpolation frame from the interpolation object and the background image, and
Programs that include.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052686A JP2020154732A (en) | 2019-03-20 | 2019-03-20 | Image processor, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052686A JP2020154732A (en) | 2019-03-20 | 2019-03-20 | Image processor, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020154732A true JP2020154732A (en) | 2020-09-24 |
Family
ID=72559235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019052686A Pending JP2020154732A (en) | 2019-03-20 | 2019-03-20 | Image processor, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020154732A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336599A (en) * | 1997-06-05 | 1998-12-18 | Fujitsu Ltd | Inter-frame interpolated image-processing unit |
JP2008288779A (en) * | 2007-05-16 | 2008-11-27 | Sony Corp | Image processing device, image processing method, and program |
JP2009194518A (en) * | 2008-02-13 | 2009-08-27 | Sony Corp | Video processing apparatus and video processing method |
JP2011019207A (en) * | 2009-06-11 | 2011-01-27 | Canon Inc | Frame rate conversion apparatus and control method thereof |
-
2019
- 2019-03-20 JP JP2019052686A patent/JP2020154732A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336599A (en) * | 1997-06-05 | 1998-12-18 | Fujitsu Ltd | Inter-frame interpolated image-processing unit |
JP2008288779A (en) * | 2007-05-16 | 2008-11-27 | Sony Corp | Image processing device, image processing method, and program |
JP2009194518A (en) * | 2008-02-13 | 2009-08-27 | Sony Corp | Video processing apparatus and video processing method |
JP2011019207A (en) * | 2009-06-11 | 2011-01-27 | Canon Inc | Frame rate conversion apparatus and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4525692B2 (en) | Image processing apparatus, image processing method, and image display apparatus | |
US8515254B2 (en) | Video editing apparatus and video editing method | |
US20210133944A1 (en) | Image processing apparatus, control method for an image processing apparatus, and medium | |
WO2019159617A1 (en) | Image processing device, image processing method, and program | |
US9679415B2 (en) | Image synthesis method and image synthesis apparatus | |
US11194993B2 (en) | Display apparatus and display control method for displaying images | |
TWI464705B (en) | A method for generating a composite image | |
JP2020028096A (en) | Image processing apparatus, control method of the same, and program | |
JP5875415B2 (en) | Image synthesizer | |
WO2017217011A1 (en) | Image processing device, and superimposed image generation method | |
JP2006309661A (en) | Image reproducing apparatus and image reproducing program | |
JP7114975B2 (en) | Frame interpolation device and frame interpolation method | |
JP2020154732A (en) | Image processor, image processing method and program | |
US10983746B2 (en) | Generating display data | |
JP7102844B2 (en) | Frame interpolation device, frame interpolation method and frame interpolation program | |
WO2012014489A1 (en) | Video image signal processor and video image signal processing method | |
JP2005159850A (en) | Combination of image and character string | |
US20160203617A1 (en) | Image generation device and display device | |
KR102510821B1 (en) | Method and apparatus for processing image and recording medium thereof | |
JP2009290828A (en) | Image processor, and image processing method | |
JP7091767B2 (en) | Frame interpolator and frame interpolation method | |
WO2015107880A1 (en) | Image processing device, image processing method, and recording medium containing program | |
JP2017191144A (en) | Display control apparatus, control method thereof, and program | |
JP2008263657A (en) | Image processor, thumbnail moving image creation method and thumbnail moving image creation program | |
JP2008003673A (en) | Animation creation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230922 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231212 |