JP2020154732A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2020154732A
JP2020154732A JP2019052686A JP2019052686A JP2020154732A JP 2020154732 A JP2020154732 A JP 2020154732A JP 2019052686 A JP2019052686 A JP 2019052686A JP 2019052686 A JP2019052686 A JP 2019052686A JP 2020154732 A JP2020154732 A JP 2020154732A
Authority
JP
Japan
Prior art keywords
image
interpolation
frame
frames
transparency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019052686A
Other languages
Japanese (ja)
Inventor
雄 伊波
Yu Inami
雄 伊波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019052686A priority Critical patent/JP2020154732A/en
Publication of JP2020154732A publication Critical patent/JP2020154732A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To create a natural interpolation frame image in a frame interpolation when a part of a frame image moves between continuous two frames.SOLUTION: When creating an interpolation frame for interpolating a clearance between fore-and-aft frames being continuous two frames, a region including an object having movement between the fore-and-aft frames is extracted from each of the fore-and-aft frames, a moving object image is acquired, a moving direction of the region is determined on the basis of respective regions of the fore-and-aft frames, permeability being a permeation degree of a background in the moving object image which is extracted from each of the fore-and-aft frames is calculated, creation means for creating an interpolation object is decided on the basis of the moving object image which is extracted from each of the fore-and-aft frames, the permeability and a prescribed threshold, the interpolation object is created by the decided creation means, a background image being a background of the interpolation object is created from either of the fore-and-aft frames, and the interpolation frame is created from the interpolation object and the background image.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

従来、動画内の連続する2フレーム間の動きベクトルをブロックごとに検出し、動きベクトルを用いて補間フレームを作成し、元のフレーム間に挿入することで高フレームレート化する、いわゆるフレーム補間技術が知られている。 Conventionally, a so-called frame interpolation technique in which a motion vector between two consecutive frames in a moving image is detected for each block, an interpolation frame is created using the motion vector, and the frame rate is increased by inserting the motion vector between the original frames. It has been known.

上記技術としては、例えば、特許文献1に開示された技術がある。当該文献には、2フレーム間の補間フレームを作成する際に、2フレーム間における動きベクトルを算出して、前後フレームそれぞれで動きベクトルを1/2にしたときの画像を作成して平均化することで補間フレームを作成する装置が記載されている。 As the above technique, for example, there is a technique disclosed in Patent Document 1. In the document, when creating an interpolation frame between two frames, the motion vector between the two frames is calculated, and an image when the motion vector is halved for each of the front and rear frames is created and averaged. A device for creating an interpolation frame is described.

また、特許文献2には、ある時点のフレーム画像から移動体画像を矩形に切り抜き、切り抜かれたフレーム画像から背景画像を作成し、作成した背景画像に、別な時点の移動体の動きを予測して、切り抜いた移動体画像を上書きすることで、2フレーム間を補う補間フレーム画像を得る画像処理装置が記載されている。 Further, in Patent Document 2, a moving body image is cut out into a rectangle from a frame image at a certain time point, a background image is created from the cut out frame image, and the movement of the moving body at another time point is predicted on the created background image. Then, an image processing device for obtaining an interpolated frame image that supplements between two frames by overwriting the clipped moving body image is described.

しかしながら、上述の文献が開示するような従来の技術によるフレーム補間であると、例えば、離れた場所でPC(Personal Computer、パソコン)の画面を共有し、送受信データ量を抑えつつ受信側でマウスポインタの動きを滑らかに見せようとする場合に、課題が残る。マウスポインタの動きを滑らかにするには、補間フレーム画像の材料とするフレーム画像からマウスポインタが含まれる部分を切り取ってマウスポインタ画像とし、切り取った残りを背景画像とし、マウスポインタ画像を背景画像に対して移動させて重ねたものを補間フレーム画像にする。この場合、マウスポインタ画像に文字や画像の一部が含まれたり透けて見えたりしていると、それらがマウスポインタとともに一瞬移動して見え、その後に消えるようになり、不自然なフレーム補間となってしまう。 However, in the case of frame interpolation by the conventional technique as disclosed in the above-mentioned documents, for example, the screen of a PC (Personal Computer) is shared at a remote place, and the mouse pointer on the receiving side while suppressing the amount of transmitted / received data. A challenge remains when trying to make the movement of the mouse look smooth. To smooth the movement of the mouse pointer, cut out the part including the mouse pointer from the frame image used as the material of the interpolation frame image to make the mouse pointer image, use the cut rest as the background image, and use the mouse pointer image as the background image. The image that is moved and superimposed is made into an interpolated frame image. In this case, if the mouse pointer image contains characters or parts of the image or can be seen through, they will appear to move momentarily with the mouse pointer and then disappear, resulting in unnatural frame interpolation. turn into.

本発明は、上記に鑑みてなされたものであって、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to generate a natural interpolated frame image in frame interpolation when a part of a frame image moves between two consecutive frames.

上述した課題を解決し、目的を達成するために、本発明は、入力される動画の連続する二つのフレームである前後フレームの間を補う補間フレームを生成する画像処理装置であって、前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出部と、前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判定部と、前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出部と、前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定部と、前記補間オブジェクト生成手段決定部が決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成部と、前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出部と、前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the present invention is an image processing device that generates an interpolation frame that complements the space between the front and rear frames, which are two consecutive frames of the input moving object. The movement direction of the area is determined based on the object extraction unit that extracts the area including the object that moves between the frames from each of the front and rear frames to obtain the motion object image and the area of each of the front and rear frames. Object motion determination unit, a transparency calculation unit that calculates transparency, which is the degree of transparency of the background in the motion object image extracted from each of the front and rear frames, and the motion object extracted from each of the front and rear frames. The interpolation object is generated by an interpolation object generation means determination unit that determines a generation means for generating an interpolation object based on an image, the transparency, and a predetermined threshold, and a generation means determined by the interpolation object generation means determination unit. An interpolating object generation unit, an object peripheral image extraction unit that generates a background image as a background of the interpolation object from any of the preceding and following frames, and an image composition that generates the interpolation frame from the interpolation object and the background image. It has a part and.

本発明によれば、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することができる。 According to the present invention, it is possible to generate a natural interpolated frame image in frame interpolation when a part of the frame image moves between two consecutive frames.

図1は、第1の実施形態における画像処理システム1000の構成図である。FIG. 1 is a configuration diagram of the image processing system 1000 according to the first embodiment. 図2−1は、前フレームの一例を示す図である。FIG. 2-1 is a diagram showing an example of the front frame. 図2−2は、補間フレームの一例を示す図である。FIG. 2-2 is a diagram showing an example of an interpolation frame. 図2−3は、補間フレームの一例を示す図である。FIG. 2-3 is a diagram showing an example of an interpolation frame. 図3は、第1の実施形態におけるユーザデバイス100のハードウェア構成図である。FIG. 3 is a hardware configuration diagram of the user device 100 according to the first embodiment. 図4は、第1の実施の形態におけるユーザデバイス100の機能ブロック図である。FIG. 4 is a functional block diagram of the user device 100 according to the first embodiment. 図5は、フレーム補間部12の機能について説明する図である。FIG. 5 is a diagram illustrating the function of the frame interpolation unit 12. 図6は、補間フレームの生成方法の違いについて説明する図である。FIG. 6 is a diagram illustrating a difference in a method of generating an interpolation frame. 図7は、フレーム補間部12が補間フレームを生成する処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the flow of processing in which the frame interpolation unit 12 generates an interpolation frame. 図8は、フレーム補間部12が補間オブジェクト生成手段を決定する処理の流れの一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a processing flow in which the frame interpolation unit 12 determines the interpolation object generation means. 図9は、動きオブジェクト画像(ポインタ切取画像)から標準偏差S1(或いはS1´)を算出する際の具体例について説明する図である。FIG. 9 is a diagram illustrating a specific example when calculating the standard deviation S1 (or S1') from the motion object image (pointer cut-out image).

以下、添付の図面に基づき、本発明の実施形態について説明する。なお、本発明の実施形態を説明するための各図面において、同一の機能もしくは形状を有する部材や構成部品等の構成要素については、判別が可能な限り同一符号を付すことにより一度説明した後ではその説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In each drawing for explaining the embodiment of the present invention, components such as members and components having the same function or shape are once described by giving the same reference numerals as much as possible. The description will be omitted.

図1は、第1の実施形態における画像処理システム1000の構成例を示す図である。図1に示されるように、画像処理システム1000は、画像処理装置であるユーザデバイス100a〜100e、サーバ200、投影装置201、及びネットワーク300を含む。ユーザデバイスは、ネットワーク300を介して、他のユーザデバイス100及びサーバ200と接続されている。 FIG. 1 is a diagram showing a configuration example of the image processing system 1000 according to the first embodiment. As shown in FIG. 1, the image processing system 1000 includes user devices 100a to 100e, which are image processing devices, a server 200, a projection device 201, and a network 300. The user device is connected to another user device 100 and the server 200 via the network 300.

ユーザデバイス100a〜100eは、ネットワーク300経由で、他のユーザデバイス100a〜100eから動画データを受信して、後述するような画像処理方法でフレーム補間処理を行い、補間処理後の動画を表示可能なデバイスである。また、ユーザデバイス100a〜100eは、サーバ200から受信した動画データについても、後述するようにフレーム補間処理を行い、補間処理後の動画を表示可能なデバイスである。 The user devices 100a to 100e can receive moving image data from other user devices 100a to 100e via the network 300, perform frame interpolation processing by an image processing method as described later, and display the moving image after the interpolation processing. It is a device. Further, the user devices 100a to 100e are devices capable of performing frame interpolation processing on the moving image data received from the server 200 as described later and displaying the moving image after the interpolation processing.

ユーザデバイス100aおよび100bは、例えば、PC(Personal Computer)、タブレットPC又はスマートフォン等である。ユーザデバイス100bには投影装置201が接続されている。 The user devices 100a and 100b are, for example, a PC (Personal Computer), a tablet PC, a smartphone, or the like. A projection device 201 is connected to the user device 100b.

投影装置201は、例えば、プロジェクタであり、ユーザデバイス100bから出力される信号を受けて、画像を投影する。なお、投影装置201は、直接ネットワーク300と接続されて動画データを受信して、画像を投影してもよい。 The projection device 201 is, for example, a projector, which receives a signal output from the user device 100b and projects an image. The projection device 201 may be directly connected to the network 300 to receive moving image data and project an image.

ユーザデバイス100cはネットワーク300経由で受信した動画データを表示可能なディスプレイである。 The user device 100c is a display capable of displaying moving image data received via the network 300.

ユーザデバイス100dは、ディスプレイと音声デバイスとを備え、ネットワーク300経由で受信した動画データおよび音声データを再生することが可能なネットワーク会議デバイスである。 The user device 100d is a network conference device including a display and an audio device, capable of reproducing moving image data and audio data received via the network 300.

ユーザデバイス100eは、ネットワーク300経由で受信した動画データを表示可能なディスプレイを備える電子黒板である。 The user device 100e is an electronic blackboard provided with a display capable of displaying moving image data received via the network 300.

以降ユーザデバイス100a〜100eをそれぞれ区別しない場合は、ユーザデバイス100と呼ぶことがある。 Hereinafter, when the user devices 100a to 100e are not distinguished from each other, they may be referred to as the user device 100.

サーバ200は、動画データをネットワーク300経由でユーザデバイス100に送信する機能を有する。例えば、テレビ会議の多地点制御装置であり、あるユーザデバイス100からカメラで撮影した動画データや、オフィス文書等が操作されるPC画面の動画データを受信し、それら動画データを、ネットワーク300を介して他のユーザデバイス100に送信可能である。 The server 200 has a function of transmitting moving image data to the user device 100 via the network 300. For example, it is a multipoint control device for video conferencing, and receives video data taken by a camera from a certain user device 100 and video data on a PC screen on which office documents and the like are operated, and the video data is transmitted via a network 300. Can be transmitted to another user device 100.

なおユーザデバイス100a〜100eは前述した通り、少なくともネットワーク300経由で受信した動画データを表示、再生可能であるが、自らが動画データや音声データをネットワーク300経由、またはネットワーク300とサーバ200経由で配信する機能を有していてもよい。 As described above, the user devices 100a to 100e can display and play back at least the video data received via the network 300, but the user devices 100a to 100e themselves distribute the video data and the audio data via the network 300 or via the network 300 and the server 200. It may have a function to perform.

ここで、本画像処理システム1000において、ユーザデバイス100aおよび100bはPC機能を有しているため、サーバ200およびネットワーク300を利用してPCで操作している画面を動画データとして他のユーザデバイスに送信することができる。つまりユーザデバイス100aおよび100bにおいてPC操作されている画面は動画データとして、他デバイスと共有することができる。この状態を特にPC画面共有モードと呼ぶことがある。 Here, in the image processing system 1000, since the user devices 100a and 100b have a PC function, the screen operated by the PC using the server 200 and the network 300 can be used as moving image data for another user device. Can be sent. That is, the screens operated by the PC on the user devices 100a and 100b can be shared with other devices as moving image data. This state may be particularly referred to as a PC screen sharing mode.

図1においては、ユーザデバイス100aおよび100bがPC画面共有モードにおいて共有する画面を提供する側として動作することもでき、また受信する側として動作することもできる。それに対し図1におけるユーザデバイス100c、100d、100eは、受信する側として動作する。しかしこれに限られず、ユーザデバイス100c、100d、100eであってもそれぞれのI/F(Interface)を用いてPCと接続することにより、提供する側および受信する側の両方として動作することが可能となる。 In FIG. 1, the user devices 100a and 100b can operate as a side that provides a screen to be shared in the PC screen sharing mode, and can also operate as a side that receives the screen. On the other hand, the user devices 100c, 100d, 100e in FIG. 1 operate as a receiving side. However, the present invention is not limited to this, and even user devices 100c, 100d, and 100e can operate as both a providing side and a receiving side by connecting to a PC using their respective I / Fs (Interfaces). It becomes.

本実施形態は、PC画面共有モードにおいて、送信側から低フレームレートで送信し、受信側で高フレームレート化する際に、画質異常が発生しないようなフレーム補間を行う場合の画像処理の一例である。本実施形態では、静止した背景に対して動きのあるオブジェクトの一例をマウスポインタとし、マウスポインタを囲む矩形で区切られた領域を抽出して得る画像を、動きオブジェクト画像の一例とする。 This embodiment is an example of image processing in the case of performing frame interpolation so that an image quality abnormality does not occur when transmitting at a low frame rate from the transmitting side and increasing the frame rate on the receiving side in the PC screen sharing mode. is there. In the present embodiment, an example of an object that moves with respect to a stationary background is used as a mouse pointer, and an image obtained by extracting an area separated by a rectangle surrounding the mouse pointer is used as an example of a moving object image.

本実施形態では、動画内の連続する2フレーム間でマウスポインタの動きを検出し、各フレーム画像から矩形抽出したマウスポインタを含む画像(ポインタ切取画像、動きオブジェクト画像の一例)を用いて、補間フレームを生成する。 In the present embodiment, the movement of the mouse pointer is detected between two consecutive frames in the moving image, and an image including the mouse pointer extracted from each frame image (an example of a pointer cut image and a motion object image) is used for interpolation. Generate a frame.

図2−1は、前フレームの一例を示す図である。図2−2および図2−3は、補間フレームの一例を示す図である。補間フレーム生成に際し、従来であれば、ポインタ切取画像に背景(文字など)が透けていたり含まれたりしていると(図2−1参照)、それらが補間フレームで違う位置に表示されるので(図2−2および図2−3参照)、不自然なフレーム補間となってしまい(画質異常)、不都合である。本実施形態では上述のような不都合を軽減して自然なフレーム補間とするため、ポインタ切取画像の取得元を複数から選択可能にし、より適する方を補間フレームに採用する。 FIG. 2-1 is a diagram showing an example of the front frame. 2-2 and 2-3 are diagrams showing an example of an interpolation frame. Conventionally, when generating an interpolation frame, if the background (characters, etc.) is transparent or included in the pointer cut image (see Fig. 2-1), they are displayed at different positions in the interpolation frame. (See FIGS. 2-2 and 2-3), resulting in unnatural frame interpolation (image quality abnormality), which is inconvenient. In the present embodiment, in order to reduce the above-mentioned inconveniences and perform natural frame interpolation, the acquisition source of the pointer cut image can be selected from a plurality of sources, and the more suitable one is adopted for the interpolation frame.

図3は、第1の実施形態におけるユーザデバイス100のハードウェア構成図である。ユーザデバイス100は、それぞれ相互に接続されているCPU(Central Processing Unit)101、表示装置102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、通信I/F105、記憶装置106及び入出力I/F107等を備える。 FIG. 3 is a hardware configuration diagram of the user device 100 according to the first embodiment. The user device 100 includes a CPU (Central Processing Unit) 101, a display device 102, a ROM (Read Only Memory) 103, a RAM (Random Access Memory) 104, a communication I / F 105, and a storage device 106, which are connected to each other. It has an output I / F 107 and the like.

ユーザデバイス100での処理を実現するプログラムは、ROM103又は記憶装置106に格納される。記憶装置106は、一例としてHDD(Hard Disc Drive)等の記憶媒体であり、インストールされたプログラムを格納すると共に、必要なデータを格納する。記憶装置106は、その他の例として、外部記憶媒体がユーザデバイス100に装着されたものであってもよい。 The program that realizes the processing in the user device 100 is stored in the ROM 103 or the storage device 106. The storage device 106 is, for example, a storage medium such as an HDD (Hard Disc Drive), which stores installed programs and stores necessary data. As another example, the storage device 106 may have an external storage medium attached to the user device 100.

RAM104は、プログラムの起動指示があった場合に、ROM103又は記憶装置106からプログラムを読み出して格納する。CPU101は、RAM104に格納されたプログラムに従ってユーザデバイス100に係る機能を実現する。 The RAM 104 reads and stores the program from the ROM 103 or the storage device 106 when the program is instructed to start. The CPU 101 realizes the function related to the user device 100 according to the program stored in the RAM 104.

表示装置102は、ユーザデバイス100が備える表示装置であり、例えば、液晶ディスプレイ、タッチパネルディスプレイ、有機EL(Electro Luminescence)、またプロジェクタ等の投影装置であってもよい。 The display device 102 is a display device included in the user device 100, and may be, for example, a liquid crystal display, a touch panel display, an organic EL (Electro Luminescence), or a projection device such as a projector.

通信I/F105は、他のユーザデバイス100又はサーバ200等とネットワーク300を介して通信を行うための有線又は無線のインタフェースである。 The communication I / F 105 is a wired or wireless interface for communicating with another user device 100, a server 200, or the like via the network 300.

入出力I/F107は、USB(Universal Serial Bus)機器、ハードウェアキー、状態通知用LED、液晶ディスプレイ等の様々な入出力装置との接続を行うためのインタフェースである。 The input / output I / F 107 is an interface for connecting to various input / output devices such as a USB (Universal Serial Bus) device, a hardware key, a status notification LED, and a liquid crystal display.

そして、ユーザデバイス100は、上述のハードウェア構成に加え、カメラ、スキャナ、プリンタ、キーボード、マウス、マイク、スピーカ、電子ペンなどそれぞれのデバイス特有のハードウェア構成を備える。 Then, in addition to the above-mentioned hardware configuration, the user device 100 includes hardware configurations specific to each device such as a camera, a scanner, a printer, a keyboard, a mouse, a microphone, a speaker, and an electronic pen.

なお、サーバ200も図2と同様のハードウェア構成を備えるものであってよい。 The server 200 may also have the same hardware configuration as in FIG.

図4は、第1の実施形態におけるユーザデバイス100の機能ブロック図である。ユーザデバイス100は、蓄積部11、フレーム補間部12、画像表示部13を含む。これら各部は、ユーザデバイス100にインストールされた1以上のプログラムがCPU101に実行させる処理により実現される。 FIG. 4 is a functional block diagram of the user device 100 according to the first embodiment. The user device 100 includes a storage unit 11, a frame interpolation unit 12, and an image display unit 13. Each of these parts is realized by a process of causing the CPU 101 to execute one or more programs installed in the user device 100.

蓄積部11は、ネットワーク300から時系列で順次入力される動画を、最新フレームから連続する過去フレームまで遡って所定のフレーム数分、蓄積する。フレームは、例えば、所定の水平解像度及び垂直解像度を有し、1ドットがRGBの3色で、各色の色深度は8bitであるカラー画像データである。色深度のビット数は、8bitに限られず16bit等さらに大きくてもよい。また、フレームは、YUV(YCbCr)のような輝度色差信号のデータ形式で記録されていてもよい。 The storage unit 11 stores moving images sequentially input from the network 300 in chronological order for a predetermined number of frames by tracing back from the latest frame to a continuous past frame. The frame is, for example, color image data having a predetermined horizontal resolution and vertical resolution, one dot having three colors of RGB, and a color depth of each color being 8 bits. The number of bits of the color depth is not limited to 8 bits and may be further larger such as 16 bits. Further, the frame may be recorded in a data format of a luminance color difference signal such as YUV (YCbCr).

フレーム補間部12は、蓄積部11から読み出した複数の入力フレームに基づいて、最新フレームと1つ前のフレームの間に挿入する補間フレームを生成する。ここで、補間するフレーム数は1枚でも複数枚でもよい。なお、連続するフレームを、Nを整数として、N−1フレーム、Nフレーム、N+1フレーム…と呼ぶことがある。 The frame interpolation unit 12 generates an interpolation frame to be inserted between the latest frame and the previous frame based on a plurality of input frames read from the storage unit 11. Here, the number of frames to be interpolated may be one or a plurality of frames. In addition, continuous frames may be referred to as N-1 frame, N frame, N + 1 frame, etc., where N is an integer.

また、連続する二つの入力フレーム、一例としてN−1フレームとNフレームを合わせて前後フレームと呼ぶことがある。そして連続する二つの入力フレームのうち最新の方のフレーム、つまりNフレームを後フレームと呼び、1つ前のフレーム、つまりN−1を前フレームと呼ぶことがある。この時連続する二つの入力フレームの間に補間フレームが挿入されている場合は、補間フレームの直前の入力フレームが前フレームであるN−1フレームであり、補間フレームの直後の入力フレームが後フレームであるNフレームである。 Further, two consecutive input frames, for example, an N-1 frame and an N frame may be collectively referred to as a front-rear frame. The latest frame of the two consecutive input frames, that is, the N frame may be referred to as a rear frame, and the previous frame, that is, N-1 may be referred to as a front frame. At this time, if an interpolation frame is inserted between two consecutive input frames, the input frame immediately before the interpolation frame is the N-1 frame which is the front frame, and the input frame immediately after the interpolation frame is the rear frame. It is an N frame.

画像表示部13は、入力されたフレーム間に補間フレームが挿入された動画を、ユーザデバイス100が備える表示装置102、又は投影装置201に、補間処理後の動画を順次出力又は表示する。 The image display unit 13 sequentially outputs or displays the moving image in which the interpolation frame is inserted between the input frames on the display device 102 or the projection device 201 included in the user device 100 after the interpolation processing.

図5は、フレーム補間部12の機能について説明する図である。フレーム補間部12は、オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126を含む。 FIG. 5 is a diagram illustrating the function of the frame interpolation unit 12. The frame interpolation unit 12 includes an object extraction unit 120, an object motion determination unit 121, an object transparency calculation unit 122, an interpolation object generation means determination unit 123, an interpolation object generation unit 124, an object peripheral image extraction unit 125, and an image composition unit 126. Including.

オブジェクト抽出部120は、蓄積部11から入力される複数のフレームから、動きオブジェクトの位置情報および、動きオブジェクトの画像データ(動きオブジェクト画像、より具体的にはポインタ切取画像)を抽出する。本実施形態では、補間フレームの差込み対象である連続する2フレームを、動きオブジェクト画像の取得元とする。つまり本実施形態では、連続する2フレームの時系列的に前のフレームだけでなく後のフレームからも、マウスポインタを含む画像を切り取る。 The object extraction unit 120 extracts the position information of the movement object and the image data of the movement object (movement object image, more specifically, the pointer cut image) from the plurality of frames input from the storage unit 11. In the present embodiment, two consecutive frames, which are the insertion targets of the interpolation frames, are used as the acquisition source of the motion object image. That is, in the present embodiment, the image including the mouse pointer is cut out not only from the previous frame but also from the subsequent frame in chronological order of two consecutive frames.

オブジェクト動き判定部121は、オブジェクト抽出部120から得られる動きオブジェクトの位置情報から、フレーム前後で動きオブジェクトの動きがあるか、あればその方向をも、判定する。 The object movement determination unit 121 determines whether or not there is movement of the movement object before and after the frame from the position information of the movement object obtained from the object extraction unit 120, and also determines the direction thereof.

オブジェクト透過度算出部122は、オブジェクト抽出部120から得られる動きオブジェクト画像を解析し、背景透け度合いを算出する。背景透け度合いは、例えば標準偏差といった画像特徴量である。 The object transparency calculation unit 122 analyzes the motion object image obtained from the object extraction unit 120 and calculates the background transparency degree. The background see-through degree is an image feature amount such as a standard deviation.

補間オブジェクト生成手段決定部123は、オブジェクト透過度算出部122から得られる各動きオブジェクトの背景透け度合いと、所定の閾値とから、補間オブジェクト生成手段を決定する。ここで、補間オブジェクトは、補間フレームの生成に用いる動きオブジェクトである。補間オブジェクト生成手段決定部123は、例えば、動きオブジェクトの背景の透け度合いと所定の閾値とを比較して閾値を下回れば背景が透けていないとする。 The interpolation object generation means determination unit 123 determines the interpolation object generation means from the background transparency degree of each motion object obtained from the object transparency calculation unit 122 and a predetermined threshold value. Here, the interpolation object is a motion object used to generate an interpolation frame. For example, the interpolating object generation means determination unit 123 compares the degree of transparency of the background of a moving object with a predetermined threshold value, and if the threshold value is lower than the threshold value, the background is not transparent.

補間オブジェクト生成部124は、オブジェクト動き判定部121において判定した動き方向と、補間オブジェクト生成手段決定部123が決定した補間オブジェクト生成手段と、オブジェクト抽出部120から得られる動きオブジェクト画像を用いて、補間オブジェクト画像を生成する。 The interpolation object generation unit 124 interpolates using the movement direction determined by the object movement determination unit 121, the interpolation object generation means determined by the interpolation object generation means determination unit 123, and the movement object image obtained from the object extraction unit 120. Generate an object image.

より具体的には、補間オブジェクト生成部124は、例えば、前フレームと後フレームとのいずれかが背景が透けてない場合には、背景が透けていない方の動きオブジェクト画像を補間オブジェクトとする。また、前フレームと後フレームとの両方とも背景が透けていた場合、補間オブジェクト生成部124は、いずれかの動きオブジェクト画像に対して背景が目立たないように修正し、それを補間オブジェクトとする。 More specifically, when the background of either the front frame or the rear frame is not transparent, the interpolation object generation unit 124 uses the motion object image whose background is not transparent as the interpolation object. Further, when the background is transparent in both the front frame and the rear frame, the interpolation object generation unit 124 corrects the background so as not to be conspicuous with respect to any of the motion object images, and uses it as the interpolation object.

ここで図6は、補間フレームの生成方法の違いについて説明する図である。本実施形態では、前フレームおよび後フレームの動きオブジェクト画像(ポインタ切取画像)の様子の組み合わせを、次のA〜Dの4種類に分けて考える。
A:前フレームおよび後フレームのいずれでも背景が透けていない
B:前フレームでは背景が透けて見える
C:後フレームでは背景が透けて見える
D:前フレームおよび後フレームのいずれでも背景が透けて見える
上記A〜Dの4つの場合の補間フレームの生成例は以下の通りである。
Here, FIG. 6 is a diagram for explaining the difference in the method of generating the interpolation frame. In the present embodiment, the combination of the appearance of the motion object image (pointer cut image) of the front frame and the rear frame is considered by dividing into the following four types A to D.
A: The background is not transparent in either the front frame or the rear frame B: The background is transparent in the front frame C: The background is transparent in the rear frame D: The background is transparent in both the front frame and the rear frame An example of generating an interpolation frame in the above four cases A to D is as follows.

Aの場合(前フレームおよび後フレームのいずれでも背景が透けていない)には、前フレームと後フレームとのいずれの動きオブジェクト画像を用いても、画質異常にならない。 In the case of A (the background is not transparent in either the front frame or the rear frame), the image quality does not become abnormal regardless of which of the motion object images of the front frame and the rear frame is used.

Bの場合(前フレームでは背景が透けて見える)には、前フレームと後フレームの背景透け度合いを比較し、透け度合いが低い後フレームを補間フレームの動きオブジェクト(補間オブジェクト)として使用する。したがって、補間オブジェクトにおいて背景が透けず、画質異常にはならない。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けてしまい、画質異常となっていた。 In the case of B (the background can be seen through in the front frame), the background transparency of the front frame and the rear frame is compared, and the rear frame having a low transparency is used as the motion object (interpolation object) of the interpolation frame. Therefore, the background is not transparent in the interpolated object, and the image quality does not become abnormal. In this case, since the interpolation object is always generated from the previous frame in the past, the background is transparent in the interpolation object, resulting in abnormal image quality.

Cの場合(後フレームでは背景が透けて見える)には、前フレームと後フレームの背景透け度合いを比較し、透け度合いが低い前フレームを補間オブジェクトとして使用する。したがって、補間オブジェクトにおいて背景が透けず、画質異常にはならない。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けず、画質異常にはならない。 In the case of C (the background can be seen through in the rear frame), the background transparency of the front frame and the rear frame is compared, and the front frame having a low transparency is used as the interpolation object. Therefore, the background is not transparent in the interpolated object, and the image quality does not become abnormal. In this case, since the interpolation object is always generated from the previous frame in the conventional case, the background is not transparent in the interpolation object and the image quality does not become abnormal.

Dの場合(前フレームおよび後フレームのいずれでも背景が透けて見える)には、前フレームも後フレームも所定の閾値を上回る。この場合には、動きオブジェクトの領域を、狭く修正する。これにより、背景が透ける部分を減らす。なお、この場合、従来は常に前フレームから補間オブジェクトを生成していたため、補間オブジェクトにおいて背景が透けて見え、画質異常になっていた。つまり、本実施形態によれば、画質異常を軽減することができる。 In the case of D (the background can be seen through in both the front frame and the rear frame), both the front frame and the rear frame exceed a predetermined threshold value. In this case, the area of the movement object is narrowed. This reduces the part where the background is transparent. In this case, since the interpolation object is always generated from the previous frame in the past, the background can be seen through in the interpolation object, resulting in abnormal image quality. That is, according to the present embodiment, the image quality abnormality can be reduced.

図5に戻り、オブジェクト周辺画像抽出部125は、蓄積部11から得られる、補間フレームの直後となるフレーム(後フレーム)における動きオブジェクト周辺の画像(背景)を抽出する。 Returning to FIG. 5, the object peripheral image extraction unit 125 extracts an image (background) around the motion object in the frame (rear frame) immediately after the interpolation frame obtained from the storage unit 11.

画像合成部126は、蓄積部11から得られる、補間フレームの直前となるフレーム(前フレーム)と、補間オブジェクト生成部124から得られる補間オブジェクトとを合成して、補間フレームを生成する。そして画像合成部126は、蓄積部11から得られたフレーム及び補間フレームを、画像表示部13に送信する。 The image synthesizing unit 126 generates an interpolation frame by synthesizing a frame (previous frame) immediately before the interpolation frame obtained from the storage unit 11 and an interpolation object obtained from the interpolation object generation unit 124. Then, the image synthesis unit 126 transmits the frame obtained from the storage unit 11 and the interpolation frame to the image display unit 13.

図7は、フレーム補間部12が補間フレームを生成する処理の流れの一例を示すフローチャートである。フレーム補間部12は、まずオブジェクト抽出部120として、蓄積部11から入力される複数のフレームの各々から、動きオブジェクトの位置情報および動きオブジェクト画像を抽出する(オブジェクト抽出工程)(ステップS1)。また、フレーム補間部12は、オブジェクト周辺画像抽出部125として、蓄積部11から得られる、補間フレームの直後のフレーム(後フレーム)におけるオブジェクト周辺画像を抽出する(オブジェクト周辺画像抽出工程)(ステップS2)。 FIG. 7 is a flowchart showing an example of the flow of processing in which the frame interpolation unit 12 generates an interpolation frame. First, the frame interpolation unit 12 extracts the position information of the motion object and the motion object image from each of the plurality of frames input from the storage unit 11 as the object extraction unit 120 (object extraction step) (step S1). Further, the frame interpolation unit 12 extracts the object peripheral image in the frame (rear frame) immediately after the interpolation frame obtained from the storage unit 11 as the object peripheral image extraction unit 125 (object peripheral image extraction step) (step S2). ).

オブジェクト抽出工程(ステップS1)を終えると、フレーム補間部12は、オブジェクト動き判定部121として、オブジェクト抽出部120から得られる動きオブジェクトの位置情報に基づき、前フレームと後フレームとの間での動きオブジェクトの動き方向を判断する(オブジェクト動き判断工程)(ステップS3)。また、フレーム補間部12は、オブジェクト透過度算出部122として、オブジェクト抽出部120から得られる動きオブジェクト画像を解析し、動きオブジェクトの背景透け度合いを算出する(オブジェクト背景透け度合い算出工程)(ステップS4)。 When the object extraction step (step S1) is completed, the frame interpolation unit 12 moves between the front frame and the rear frame as the object movement determination unit 121 based on the position information of the movement object obtained from the object extraction unit 120. The movement direction of the object is determined (object movement determination step) (step S3). Further, the frame interpolation unit 12 analyzes the motion object image obtained from the object extraction unit 120 as the object transparency calculation unit 122, and calculates the background transparency degree of the motion object (object background transparency calculation step) (step S4). ).

オブジェクト背景透け度合い算出工程(ステップS4)を終えると、フレーム補間部12は、補間オブジェクト生成手段決定部123として、オブジェクト透過度算出部122から得られる動きオブジェクトの背景透け度合いと所定の閾値とから、補間オブジェクト生成手段を決定する(補間オブジェクト生成手段決定工程)(ステップS5)。 When the object background transparency calculation step (step S4) is completed, the frame interpolation unit 12 serves as the interpolation object generation means determination unit 123 from the background transparency of the motion object obtained from the object transparency calculation unit 122 and a predetermined threshold value. , The interpolating object generating means is determined (interpolating object generating means determining step) (step S5).

オブジェクト動き判断工程(ステップS3)および補間オブジェクト生成手段決定工程(ステップS5)を終えると、フレーム補間部12は、補間オブジェクト生成部124として、オブジェクト動き判定部121にて判断した動き方向と、補間オブジェクト生成手段決定部123にて決定したオブジェクト生成手段に基づき、補間フレームでの動きオブジェクトの位置情報と補間フレームでの動きオブジェクト画像とからなる補間オブジェクトを生成する(補間オブジェクト生成工程)(ステップS6)。 After completing the object movement determination step (step S3) and the interpolation object generation means determination step (step S5), the frame interpolation unit 12 interpolates with the movement direction determined by the object movement determination unit 121 as the interpolation object generation unit 124. Based on the object generation means determined by the object generation means determination unit 123, an interpolation object composed of the position information of the motion object in the interpolation frame and the motion object image in the interpolation frame is generated (interpolation object generation step) (step S6). ).

補間オブジェクト生成工程(ステップS6)およびオブジェクト周辺画像抽出工程(ステップS2)を終えると、フレーム補間部12は、画像合成部126として、オブジェクト周辺画像抽出部125から得られるオブジェクト周辺画像に、補間オブジェクト生成部124から得られる補間オブジェクトを合成して、補間フレームを生成する(画像合成工程)(ステップS7)。 After completing the interpolation object generation step (step S6) and the object peripheral image extraction step (step S2), the frame interpolation unit 12 acts as the image composition unit 126 on the object peripheral image obtained from the object peripheral image extraction unit 125. The interpolation objects obtained from the generation unit 124 are combined to generate an interpolation frame (image composition step) (step S7).

そして画像合成部126は、蓄積部11から得られたフレームと補間フレームとを、画像表示部13に送信する。なお、オブジェクト周辺領域抽出工程では、後フレームを用いる例を説明したが、前フレームを用いてもよいし、これらに限らず他の手法であってもよい。 Then, the image synthesizing unit 126 transmits the frame obtained from the accumulating unit 11 and the interpolating frame to the image display unit 13. In the object peripheral region extraction step, an example of using the rear frame has been described, but the front frame may be used, and other methods may be used without being limited to these.

図8は、フレーム補間部12が補間オブジェクト生成手段を決定する処理の流れの一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of a processing flow in which the frame interpolation unit 12 determines the interpolation object generation means.

まずフレーム補間部12は、オブジェクト透過度算出部122として、前フレームオブジェクトの標準偏差S1を算出し、当該標準偏差S1を補間オブジェクト生成手段決定部123に渡す(ステップS101)。 First, the frame interpolation unit 12 calculates the standard deviation S1 of the previous frame object as the object transparency calculation unit 122, and passes the standard deviation S1 to the interpolation object generation means determination unit 123 (step S101).

次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S1とを比較する(ステップS102)。標準偏差S1が所定の閾値Sthを超えない場合(ステップS102のNo)、フレーム補間部12は、前フレームの動きオブジェクトを補間オブジェクトに使用すると決定して、本処理を終了する(ステップS103)。 Next, the frame interpolation unit 12 compares the predetermined threshold value Sth with the standard deviation S1 as the interpolation object generation means determination unit 123 (step S102). When the standard deviation S1 does not exceed the predetermined threshold value Sth (No in step S102), the frame interpolation unit 12 determines that the motion object of the previous frame is used as the interpolation object, and ends this process (step S103).

ステップS102において、標準偏差S1が所定の閾値Sthを超える場合(ステップS102のYes)、フレーム補間部12は、オブジェクト透過度算出部122として、後フレームオブジェクトの標準偏差S2を算出し、当該標準偏差S2を補間オブジェクト生成手段決定部123に渡す(ステップS104)。 In step S102, when the standard deviation S1 exceeds a predetermined threshold value Sth (Yes in step S102), the frame interpolation unit 12 calculates the standard deviation S2 of the rear frame object as the object transparency calculation unit 122, and the standard deviation S2 is passed to the interpolation object generation means determination unit 123 (step S104).

次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S2とを比較する(ステップS105)。標準偏差S2が所定の閾値Sthを超えない場合(ステップS105のNo)、フレーム補間部12は、後フレームの動きオブジェクトを補間オブジェクトに使用すると決定して、本処理を終了する(ステップS106)。 Next, the frame interpolation unit 12 compares the predetermined threshold value Sth with the standard deviation S2 as the interpolation object generation means determination unit 123 (step S105). When the standard deviation S2 does not exceed the predetermined threshold value Sth (No in step S105), the frame interpolation unit 12 determines that the motion object of the rear frame is used as the interpolation object, and ends this process (step S106).

ステップS105において、標準偏差S2が所定の閾値Sthを超える場合(ステップS105のYes)、フレーム補間部12は、前フレームの動きオブジェクト画像の外枠全周囲から一定幅削る修正を行う(ステップS107)。このときの削り幅a(削る画素数)は、任意に決められるものとする。 In step S105, when the standard deviation S2 exceeds a predetermined threshold value Sth (Yes in step S105), the frame interpolation unit 12 corrects the movement object image of the previous frame by cutting a certain width from the entire outer frame (step S107). .. The cutting width a (the number of pixels to be cut) at this time is arbitrarily determined.

次にフレーム補間部12は、オブジェクト透過度算出部122として、ステップS107で修正した動きオブジェクト画像の標準偏差S1´を算出し、当該標準偏差S1´を補間オブジェクト生成手段決定部123に渡す(ステップS108)。 Next, the frame interpolation unit 12 calculates the standard deviation S1'of the motion object image corrected in step S107 as the object transparency calculation unit 122, and passes the standard deviation S1'to the interpolation object generation means determination unit 123 (step). S108).

次にフレーム補間部12は、補間オブジェクト生成手段決定部123として、所定の閾値Sthと標準偏差S1´とを比較する(ステップS109)。標準偏差S1´が所定の閾値Sthを超えない場合(ステップS109のNo)、フレーム補間部12は、ステップS107で修正された前フレームの動きオブジェクト画像を、補間オブジェクトとして使用すると決定して、本処理を終了する(S110)。 Next, the frame interpolation unit 12 compares the predetermined threshold value Sth with the standard deviation S1'as the interpolation object generation means determination unit 123 (step S109). When the standard deviation S1'does not exceed the predetermined threshold value Sth (No in step S109), the frame interpolation unit 12 determines that the motion object image of the previous frame corrected in step S107 is used as the interpolation object. The process ends (S110).

ステップS109において、標準偏差S1´が所定の閾値Sthを超える場合(ステップS109のYes)、フレーム補間部12は、削り幅a(削る画素数)を増やして(S111)、前フレームオブジェクトを修正する(ステップS107)。フレーム補間部12は、ステップS107〜S109,S111の処理ループを、標準偏差S1´が所定の閾値Sth以下となるまで、繰り返す。 In step S109, when the standard deviation S1'exceeds a predetermined threshold value Sth (Yes in step S109), the frame interpolation unit 12 increases the cutting width a (the number of pixels to be cut) (S111) and corrects the previous frame object. (Step S107). The frame interpolation unit 12 repeats the processing loops of steps S107 to S109 and S111 until the standard deviation S1'is equal to or less than a predetermined threshold value Sth.

図9は、動きオブジェクト画像(ポインタ切取画像)から標準偏差S1(或いはS1´)を算出する際の具体例について説明する図である。本図は、図8のステップS107、S108、S109、S111を繰り返し実行し、動きオブジェクト画像の標準偏差S1´が所定の閾値Sthを下回るまで、ポインタ切取画像を修正していく様子を表している。 FIG. 9 is a diagram illustrating a specific example when calculating the standard deviation S1 (or S1') from the motion object image (pointer cut-out image). This figure shows a state in which steps S107, S108, S109, and S111 of FIG. 8 are repeatedly executed, and the pointer cut image is corrected until the standard deviation S1'of the motion object image falls below a predetermined threshold value Sth. ..

破線は、標準偏差S1(或いはS1´)を算出する際の画像領域を示す。フレーム補間部12は、初回の標準偏差S1が閾値Sthを上回った場合、現状の動きオブジェクト画像は補間オブジェクト画像として使用しないこととし、動きオブジェクト画像の外周部を削る修正を行う。 The broken line indicates the image area when calculating the standard deviation S1 (or S1'). When the initial standard deviation S1 exceeds the threshold value Sth, the frame interpolation unit 12 decides not to use the current motion object image as the interpolation object image, and corrects the outer peripheral portion of the motion object image.

次に、オブジェクトを削り幅aで削ったのちの標準偏差S1´が閾値Sthを上回った場合、フレーム補間部12は、現状(初期状態から削り幅aで削り後)の動きオブジェクト画像は補間オブジェクト画像として使用しないこととし、動きオブジェクト画像の外周をさらに削る修正を行う。フレーム補間部12は、標準偏差S1´が閾値Sth以下になるまで、上記修正を繰り返す。 Next, when the standard deviation S1'after cutting the object with the cutting width a exceeds the threshold value Sth, the frame interpolation unit 12 uses the current motion object image (after cutting with the cutting width a from the initial state) as an interpolation object. It will not be used as an image, and the outer circumference of the motion object image will be further trimmed. The frame interpolation unit 12 repeats the above modification until the standard deviation S1'is equal to or less than the threshold value Sth.

そしてフレーム補間部12は、N回修正後の標準偏差S1´が閾値Sth以下になれば、その時点での動きオブジェクト画像を、補間オブジェクトに使用すると決定する。 Then, when the standard deviation S1'after N corrections becomes equal to or less than the threshold value Sth, the frame interpolation unit 12 determines that the motion object image at that time is used as the interpolation object.

以上のように、本実施形態によれば、前フレームと後フレームとのそれぞれから切り取ったマウスポインタの画像(ポインタ切取画像)に対して、背景が透けている度合いを算出し、それぞれの背景透け度合いと、所定の閾値とから、補間フレームに使用するポインタ切取画像を決定するようにしたので、マウスポインタの半透明部分に透けて見える背景がより目立たない補間フレームを作成でき、これにより画質異常を軽減することができる。したがって、連続する2フレーム間でフレーム画像中の一部が移動する場合のフレーム補間において、自然な補間フレーム画像を生成することができる。 As described above, according to the present embodiment, the degree to which the background is transparent is calculated for the mouse pointer image (pointer cut image) cut from each of the front frame and the rear frame, and each background is transparent. Since the pointer cropped image to be used for the interpolation frame is determined from the degree and a predetermined threshold, it is possible to create an interpolation frame in which the background that can be seen through the translucent part of the mouse pointer is less noticeable. Can be reduced. Therefore, a natural interpolated frame image can be generated in frame interpolation when a part of the frame image moves between two consecutive frames.

本実施の形態の画像処理装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。 The image processing device of the present embodiment includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) or RAM, an external storage device such as an HDD or a CD drive device, and a display device such as a display device. , Equipped with input devices such as a keyboard and mouse, and has a hardware configuration using a normal computer.

本実施形態の画像処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program executed by the image processing apparatus of the present embodiment is a file in an installable format or an executable format on a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versaille Disk). It is recorded and provided on a readable recording medium.

また、本実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Further, the program executed by the image processing device of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program executed by the image processing device of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

また、本実施形態の画像処理を行うためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the program for performing the image processing of the present embodiment may be configured to be provided by incorporating it in a ROM or the like in advance.

本実施の形態の画像処理装置で実行されるプログラムは、上述した各部(オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、オブジェクト抽出部120、オブジェクト動き判定部121、オブジェクト透過度算出部122、補間オブジェクト生成手段決定部123、補間オブジェクト生成部124、オブジェクト周辺画像抽出部125、画像合成部126が主記憶装置上に生成されるようになっている。 The program executed by the image processing apparatus of the present embodiment includes the above-mentioned parts (object extraction unit 120, object motion determination unit 121, object transparency calculation unit 122, interpolation object generation means determination unit 123, and interpolation object generation unit 124. , Object peripheral image extraction unit 125, image composition unit 126), and as actual hardware, the CPU (processor) reads the ~ program from the storage medium and executes it, so that each part is mainly Loaded on the storage device, object extraction unit 120, object movement determination unit 121, object transparency calculation unit 122, interpolation object generation means determination unit 123, interpolation object generation unit 124, object peripheral image extraction unit 125, image composition unit 126. Is to be generated on the main memory.

11 …蓄積部、
12 …フレーム補間部
13 …画像表示部
100,100a〜100e…ユーザデバイス
101…CPU、102…表示装置、103…ROM、104…RAM、
105…通信I/F、106…記憶装置、107…入出力I/F
120…オブジェクト抽出部
121…オブジェクト動き判定部
122…オブジェクト透過度算出部
123…補間オブジェクト生成手段決定部
124…補間オブジェクト生成部
125…オブジェクト周辺画像抽出部
126…画像合成部
200…サーバ
201…投影装置
300…ネットワーク
1000…画像処理システム
11 ... Accumulation part,
12 ... Frame interpolation unit 13 ... Image display unit 100, 100a to 100e ... User device 101 ... CPU, 102 ... Display device, 103 ... ROM, 104 ... RAM,
105 ... Communication I / F, 106 ... Storage device, 107 ... Input / output I / F
120 ... Object extraction unit 121 ... Object movement determination unit 122 ... Object transparency calculation unit 123 ... Interpolation object generation means determination unit 124 ... Interpolation object generation unit 125 ... Object peripheral image extraction unit 126 ... Image composition unit 200 ... Server 201 ... Projection Device 300 ... Network 1000 ... Image processing system

特開平3−263989号公報Japanese Unexamined Patent Publication No. 3-263789 特開平10−336599号公報Japanese Unexamined Patent Publication No. 10-336599

Claims (6)

入力される動画の連続する二つのフレームである前後フレームの間を補う補間フレームを生成する画像処理装置であって、
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出部と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判定部と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出部と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定部と、
前記補間オブジェクト生成手段決定部が決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成部と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出部と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成部と、
を備える画像処理装置。
An image processing device that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction unit that extracts an area including an object that moves between the front and rear frames from each of the front and rear frames to obtain a movement object image, and an object extraction unit.
An object movement determination unit that determines the movement direction of the area based on each of the areas of the front and rear frames,
A transparency calculation unit that calculates the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determination unit that determines a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation unit that generates the interpolation object by the generation means determined by the interpolation object generation means determination unit,
An object peripheral image extraction unit that generates a background image as a background of the interpolating object from any of the preceding and following frames, and
An image compositing unit that generates the interpolation frame from the interpolation object and the background image, and
An image processing device comprising.
前記透過度は、前記動きオブジェクト画像のばらつき度合いを示す標準偏差である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the transmittance is a standard deviation indicating the degree of variation of the motion object image.
前記補間オブジェクト生成手段決定部は、前記前後フレームの各々の前記動きオブジェクト画像における前記透過度が前記所定の閾値より高い場合、前記前フレームの前記動きオブジェクト画像と前記後フレームの前記動きオブジェクト画像とのうち、前記透過度がより低い方の前記動きオブジェクト画像を、前記補間オブジェクト生成部における前記補間オブジェクトの生成に用いると決定する
ことを特徴とする請求項1または2に記載の画像処理装置。
When the transparency of the motion object image of each of the front and rear frames is higher than the predetermined threshold value, the interpolating object generation means determining unit determines the motion object image of the front frame and the motion object image of the rear frame. The image processing apparatus according to claim 1 or 2, wherein it is determined that the motion object image having the lower transparency is used for generating the interpolation object in the interpolation object generation unit.
前記補間オブジェクト生成手段決定部は、前記前後フレームの各々の前記動きオブジェクト画像における前記透過度が前記所定の閾値より低い場合、前記前フレームの前記動きオブジェクト画像と前記後フレームの前記動きオブジェクト画像とのいずれかを、前記補間オブジェクト生成部における前記補間オブジェクトの生成に用いると決定する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
When the transparency of the motion object image of each of the front and rear frames is lower than the predetermined threshold value, the interpolating object generation means determining unit determines the motion object image of the front frame and the motion object image of the rear frame. The image processing apparatus according to any one of claims 1 to 3, wherein any one of the above is determined to be used for generating the interpolating object in the interpolating object generation unit.
入力される動画の連続する二つのフレームである前後フレームの間を補う補間フレームを生成する画像処理方法であって、
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出工程と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判断工程と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出工程と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定工程と、
前記補間オブジェクト生成手段決定工程において決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成工程と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出工程と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成工程と、
を含む画像処理方法。
It is an image processing method that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction step of extracting a region including an object that moves between the front and rear frames from each of the front and rear frames to obtain a movement object image, and
An object movement determination step of determining the movement direction of the region based on each of the regions of the front and rear frames,
A transparency calculation step for calculating the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determination step of determining a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation step of generating the interpolation object by the generation means determined in the interpolation object generation means determination step, and
An object peripheral image extraction step of generating a background image as a background of the interpolated object from any of the preceding and following frames, and
An image composition step of generating the interpolation frame from the interpolation object and the background image, and
Image processing method including.
入力される動画の連続する二つのフレームである前後フレームの間を補う補間フレームを生成する画像処理を行うためのプログラムであって、
前記前後フレームの間で動きのあるオブジェクトを含む領域を前記前後フレームの各々から抽出して動きオブジェクト画像を得るオブジェクト抽出手段と、
前記前後フレームの各々の前記領域に基づいて、前記領域の動き方向を判断するオブジェクト動き判断手段と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像における背景の透け度合いである透過度を算出する透過度算出手段と、
前記前後フレームの各々から抽出された前記動きオブジェクト画像と前記透過度と所定の閾値とに基づいて、補間オブジェクトを生成する生成手段を決定する補間オブジェクト生成手段決定手段と、
前記補間オブジェクト生成手段決定手段において決定した生成手段により前記補間オブジェクトを生成する補間オブジェクト生成手段と、
前記前後フレームのいずれかから前記補間オブジェクトの背景とする背景画像を生成するオブジェクト周辺画像抽出手段と、
前記補間オブジェクトと前記背景画像とから前記補間フレームを生成する画像合成手段と、
を含むプログラム。
It is a program for performing image processing that generates an interpolation frame that complements the space between the previous and next frames, which are two consecutive frames of the input video.
An object extraction means for obtaining a motion object image by extracting an area including an object moving between the front and rear frames from each of the front and rear frames.
An object movement determining means for determining the movement direction of the region based on the respective regions of the front and rear frames, and
A transparency calculating means for calculating the transparency, which is the transparency of the background in the motion object image extracted from each of the front and rear frames, and
An interpolation object generation means determining means for determining a generation means for generating an interpolation object based on the motion object image extracted from each of the front and rear frames, the transparency, and a predetermined threshold value.
An interpolation object generation means that generates the interpolation object by the generation means determined in the interpolation object generation means determination means, and an interpolation object generation means.
An object peripheral image extraction means for generating a background image as a background of the interpolating object from any of the preceding and following frames, and
An image compositing means for generating the interpolation frame from the interpolation object and the background image, and
Programs that include.
JP2019052686A 2019-03-20 2019-03-20 Image processor, image processing method and program Pending JP2020154732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019052686A JP2020154732A (en) 2019-03-20 2019-03-20 Image processor, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019052686A JP2020154732A (en) 2019-03-20 2019-03-20 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2020154732A true JP2020154732A (en) 2020-09-24

Family

ID=72559235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052686A Pending JP2020154732A (en) 2019-03-20 2019-03-20 Image processor, image processing method and program

Country Status (1)

Country Link
JP (1) JP2020154732A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336599A (en) * 1997-06-05 1998-12-18 Fujitsu Ltd Inter-frame interpolated image-processing unit
JP2008288779A (en) * 2007-05-16 2008-11-27 Sony Corp Image processing device, image processing method, and program
JP2009194518A (en) * 2008-02-13 2009-08-27 Sony Corp Video processing apparatus and video processing method
JP2011019207A (en) * 2009-06-11 2011-01-27 Canon Inc Frame rate conversion apparatus and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336599A (en) * 1997-06-05 1998-12-18 Fujitsu Ltd Inter-frame interpolated image-processing unit
JP2008288779A (en) * 2007-05-16 2008-11-27 Sony Corp Image processing device, image processing method, and program
JP2009194518A (en) * 2008-02-13 2009-08-27 Sony Corp Video processing apparatus and video processing method
JP2011019207A (en) * 2009-06-11 2011-01-27 Canon Inc Frame rate conversion apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP4525692B2 (en) Image processing apparatus, image processing method, and image display apparatus
US8515254B2 (en) Video editing apparatus and video editing method
US20210133944A1 (en) Image processing apparatus, control method for an image processing apparatus, and medium
WO2019159617A1 (en) Image processing device, image processing method, and program
US9679415B2 (en) Image synthesis method and image synthesis apparatus
US11194993B2 (en) Display apparatus and display control method for displaying images
TWI464705B (en) A method for generating a composite image
JP2020028096A (en) Image processing apparatus, control method of the same, and program
JP5875415B2 (en) Image synthesizer
WO2017217011A1 (en) Image processing device, and superimposed image generation method
JP2006309661A (en) Image reproducing apparatus and image reproducing program
JP7114975B2 (en) Frame interpolation device and frame interpolation method
JP2020154732A (en) Image processor, image processing method and program
US10983746B2 (en) Generating display data
JP7102844B2 (en) Frame interpolation device, frame interpolation method and frame interpolation program
WO2012014489A1 (en) Video image signal processor and video image signal processing method
JP2005159850A (en) Combination of image and character string
US20160203617A1 (en) Image generation device and display device
KR102510821B1 (en) Method and apparatus for processing image and recording medium thereof
JP2009290828A (en) Image processor, and image processing method
JP7091767B2 (en) Frame interpolator and frame interpolation method
WO2015107880A1 (en) Image processing device, image processing method, and recording medium containing program
JP2017191144A (en) Display control apparatus, control method thereof, and program
JP2008263657A (en) Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP2008003673A (en) Animation creation system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231212