JP6866707B2 - Image processing equipment, image processing method and image processing system - Google Patents

Image processing equipment, image processing method and image processing system Download PDF

Info

Publication number
JP6866707B2
JP6866707B2 JP2017050891A JP2017050891A JP6866707B2 JP 6866707 B2 JP6866707 B2 JP 6866707B2 JP 2017050891 A JP2017050891 A JP 2017050891A JP 2017050891 A JP2017050891 A JP 2017050891A JP 6866707 B2 JP6866707 B2 JP 6866707B2
Authority
JP
Japan
Prior art keywords
scene
frame
determination unit
frames
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017050891A
Other languages
Japanese (ja)
Other versions
JP2018157299A (en
Inventor
宮城 徳子
徳子 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017050891A priority Critical patent/JP6866707B2/en
Publication of JP2018157299A publication Critical patent/JP2018157299A/en
Application granted granted Critical
Publication of JP6866707B2 publication Critical patent/JP6866707B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理システムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing system.

動画内の連続する2フレーム間の動きベクトルをブロックごとに検出し、動きベクトルを用いて補間フレームを生成し、元のフレーム間に挿入することで高フレームレート化するフレーム補間技術が既に知られている。フレーム補間が使われるケースは、例えば、PCディスプレイ表示画像を所定フレームレートで読み出し、ネットワークを介してリアルタイムで遠隔地に送信し、同じ画像を共有しながら会議を行うシステムにおいて、リアルタイムでの送受信を可能にするため低フレームレートの少ないデータ量で送信し、受信側でフレーム補間により高フレームレート化するケースがある。また例えば、PCと接続してPCから送られてきた動画をスクリーンに投影するプロジェクタにおいて、動画の動きをより滑らかに見せるために、プロジェクタにてフレーム補間を行い高フレームレート化した画像を表示するケースがある。 A frame interpolation technology that detects a motion vector between two consecutive frames in a moving image for each block, generates an interpolation frame using the motion vector, and inserts it between the original frames to increase the frame rate is already known. ing. In cases where frame interpolation is used, for example, in a system in which an image displayed on a PC display is read at a predetermined frame rate, transmitted to a remote location in real time via a network, and a conference is held while sharing the same image, transmission / reception in real time is performed. In order to make it possible, there are cases where a small amount of data with a low frame rate is transmitted and the frame rate is increased by frame interpolation on the receiving side. Further, for example, in a projector that is connected to a PC and projects a moving image sent from the PC onto a screen, in order to make the movement of the moving image appear smoother, the projector performs frame interpolation to display a high frame rate image. There is a case.

動きベクトル検出は、画像内に複数の動きが存在するケース、又は複数の動きが交差するケースで誤検出しやすくなり、補間画像に破綻が生じる恐れがある。そこで、補間画像の破綻を防ぐ1つの方法として、検出された動きベクトルからスクロールシーンであるか否かを判定し、スクロールシーンである場合はブロック毎の動きベクトルからフレーム全体の動きを示すスクロールベクトルを検出してスクロールベクトルを用いて補間フレーム生成するフレーム補間技術が既に知られている(例えば、特許文献1)。 The motion vector detection tends to be erroneously detected in the case where a plurality of motions exist in the image or the case where the plurality of motions intersect, and the interpolated image may be broken. Therefore, as one method of preventing the collapse of the interpolated image, it is determined from the detected motion vector whether or not it is a scroll scene, and in the case of a scroll scene, a scroll vector indicating the motion of the entire frame from the motion vector of each block. A frame interpolation technique for detecting an object and generating an interpolation frame using a scroll vector is already known (for example, Patent Document 1).

しかしながら、従来のスクロールシーンに対するスクロールベクトルを用いたフレーム補間は、主にカメラで撮影された自然画を対象としており、PC(Personal Computer)のディスプレイに表示されるようなオフィス文書を対象としたものではないため、ディスプレイ表示上では静止しているはずのマウスカーソル又はアプリケーションウィンドウ画面の外枠が補間フレームでは動いてしまい振動しているように見えるといった画質異常が発生する問題があった。 However, frame interpolation using a scroll vector for a conventional scroll scene mainly targets natural images taken by a camera, and targets office documents such as those displayed on a PC (Personal Computer) display. Therefore, there is a problem that an image quality abnormality occurs such that the mouse cursor or the outer frame of the application window screen, which should be stationary on the display display, moves in the interpolation frame and appears to be vibrating.

本発明は、上記の点に鑑みてなされたものであって、文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐことを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to prevent the occurrence of image quality abnormality due to frame interpolation when an office document containing characters and figures and tables is scrolled on a display screen.

そこで上記課題を解決するため、画像処理装置は、入力される動画に含まれる複数フレームから動きベクトルを検出する検出部と、前記複数フレームに基づいて、シーン種別を判定する判定部と、前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する。 Therefore, in order to solve the above problem, the image processing device includes a detection unit that detects a motion vector from a plurality of frames included in the input moving image, a determination unit that determines the scene type based on the plurality of frames, and the determination. Based on the scene type determined by the unit, it is determined whether or not to refer to the motion vector for generating the interpolation frame, and the generation unit has a generation unit for generating the interpolation frame of the moving image. When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, one of the plurality of frames is generated as an interpolation frame without referring to the motion vector, and the generation is performed. When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the unit generates an interpolation frame by weighting and adding the plurality of frames. To do.

文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐ。 Prevents image quality abnormalities due to frame interpolation when an office document containing characters and charts is scrolled on the display screen.

第1の実施の形態における画像処理システム1000の構成例を示す図である。It is a figure which shows the configuration example of the image processing system 1000 in 1st Embodiment. 第1の実施の形態におけるユーザデバイス100のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the user device 100 in 1st Embodiment. 第1の実施の形態におけるユーザデバイス100の機能構成例を示す図である。It is a figure which shows the functional configuration example of the user device 100 in 1st Embodiment. 第1の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for determining a scene in 1st Embodiment. 第1の実施の形態におけるシーン判定部13の機能を説明するための図である。It is a figure for demonstrating the function of the scene determination part 13 in 1st Embodiment. 第1の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for generating the interpolation frame in 1st Embodiment. 第1の実施の形態における補間フレーム生成部15の動作例を説明するための図である。It is a figure for demonstrating the operation example of the interpolation frame generation part 15 in 1st Embodiment. 第2の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for determining a scene in 2nd Embodiment. 第2の実施の形態におけるシーン判定部13の機能を説明するための図である。It is a figure for demonstrating the function of the scene determination part 13 in the 2nd Embodiment. 第2の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for generating the interpolation frame in 2nd Embodiment. 第3の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for determining a scene in 3rd Embodiment. 第3の実施の形態における動きベクトル検出部12の機能を説明するための図である。It is a figure for demonstrating the function of the motion vector detection unit 12 in 3rd Embodiment. オフィス文書におけるスクロールの一例を示す図である。It is a figure which shows an example of scrolling in an office document. 第3の実施の形態におけるシーン判定部13の機能を説明するための図である。It is a figure for demonstrating the function of the scene determination part 13 in 3rd Embodiment. 第4の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the procedure for determining a scene in 4th Embodiment. 第4の実施の形態におけるシーン判定部13の機能を説明するための図である。It is a figure for demonstrating the function of the scene determination part 13 in 4th Embodiment.

以下、図面に基づいて本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、第1の実施の形態における画像処理システム1000の構成例を示す図である。図1に示されるように、画像処理システム1000は、ユーザデバイス100a、ユーザデバイス100b、ユーザデバイス100c、表示デバイス200、投影装置201、サーバ300及びネットワークを含む。 FIG. 1 is a diagram showing a configuration example of the image processing system 1000 according to the first embodiment. As shown in FIG. 1, the image processing system 1000 includes a user device 100a, a user device 100b, a user device 100c, a display device 200, a projection device 201, a server 300, and a network.

ユーザデバイス100a、ユーザデバイス100b、ユーザデバイス100c(以下、それぞれを区別しない場合「ユーザデバイス100」という。)は、例えば、PC(Personal Computer)、タブレット又はスマートフォン等である。ユーザデバイス100は、ネットワークを介して、他のユーザデバイス100及びサーバ300と接続されている。ユーザデバイス100は、ネットワークを介して、他のユーザデバイス100及びサーバ300から動画データを受信して、補間処理を行い(詳細は後述)、表示デバイス200、投影装置201又はユーザデバイス100に含まれる表示装置において、補間処理後の動画を表示する。 The user device 100a, the user device 100b, and the user device 100c (hereinafter, referred to as "user device 100" when they are not distinguished from each other) are, for example, a PC (Personal Computer), a tablet, a smartphone, or the like. The user device 100 is connected to another user device 100 and the server 300 via a network. The user device 100 receives moving image data from another user device 100 and the server 300 via a network, performs interpolation processing (details will be described later), and is included in the display device 200, the projection device 201, or the user device 100. The display device displays the moving image after the interpolation processing.

表示デバイス200は、例えば、大画面液晶表示装置であり、ユーザデバイス100から出力される信号を受けて、画像を表示する。なお、表示デバイス200は、直接ネットワークと接続されて、ユーザデバイス100又はサーバ300から動画データを受信してもよい。 The display device 200 is, for example, a large-screen liquid crystal display device, which receives a signal output from the user device 100 and displays an image. The display device 200 may be directly connected to the network to receive moving image data from the user device 100 or the server 300.

投影装置201は、例えば、プロジェクタであり、ユーザデバイス100から出力される信号を受けて、画像を表示する。なお、投影装置201は、直接ネットワークと接続されて、ユーザデバイス100又はサーバ300から動画データを受信してもよい。 The projection device 201 is, for example, a projector, which receives a signal output from the user device 100 and displays an image. The projection device 201 may be directly connected to the network and receive moving image data from the user device 100 or the server 300.

サーバ300は、例えば、テレビ会議の多地点制御装置である。サーバ300は、カメラ画像及びオフィス文書等が表示されたPC画面の動画データをネットワークを介してユーザデバイス100に送信する。すなわち、サーバ300は、動画データを送信する機能を実現する送信部を有する。 The server 300 is, for example, a multipoint control device for video conferencing. The server 300 transmits the moving image data of the PC screen on which the camera image, the office document, etc. are displayed to the user device 100 via the network. That is, the server 300 has a transmission unit that realizes a function of transmitting moving image data.

図2は、第1の実施の形態におけるユーザデバイス100のハードウェア構成例を示す図である。図2に示されるように、ユーザデバイス100は、それぞれ相互に接続されているCPU(Central Processing Unit)101、表示装置102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、通信I/F105、記憶装置106及び入出力I/F107等を有する。 FIG. 2 is a diagram showing a hardware configuration example of the user device 100 according to the first embodiment. As shown in FIG. 2, the user device 100 has a CPU (Central Processing Unit) 101, a display device 102, a ROM (Read Only Memory) 103, a RAM (Random Access Memory) 104, and a communication I, which are connected to each other. It has / F105, a storage device 106, an input / output I / F107, and the like.

ユーザデバイス100での処理を実現するプログラムは、ROM103又は記憶装置106に格納される。ROM103又は記憶装置106は、インストールされたプログラムを格納すると共に、必要なデータを格納する。記憶装置106は、例えば、外部記憶媒体がユーザデバイス100に装着されたものであってもよい。 The program that realizes the processing in the user device 100 is stored in the ROM 103 or the storage device 106. The ROM 103 or the storage device 106 stores the installed program and also stores the necessary data. The storage device 106 may be, for example, one in which an external storage medium is attached to the user device 100.

RAM104は、プログラムの起動指示があった場合に、ROM103又は記憶装置106からプログラムを読み出して格納する。CPU101は、RAM104に格納されたプログラムに従ってユーザデバイス100に係る機能を実現する。 The RAM 104 reads and stores the program from the ROM 103 or the storage device 106 when the program is instructed to start. The CPU 101 realizes the function related to the user device 100 according to the program stored in the RAM 104.

表示装置102は、ユーザデバイスが有する表示装置であり、例えば、液晶ディスプレイである。 The display device 102 is a display device included in the user device, and is, for example, a liquid crystal display.

通信I/F105は、他のPCユーザデバイス100又はサーバ300等とネットワークを介して通信を行うための有線又は無線のインタフェースである。 The communication I / F 105 is a wired or wireless interface for communicating with another PC user device 100, a server 300, or the like via a network.

入出力I/F107は、USB(Universal Serial Bus)機器、ハードウェアキー、状態通知用LED、液晶ディスプレイ等の様々な入出力装置との接続を行うためのインタフェースである。 The input / output I / F 107 is an interface for connecting to various input / output devices such as a USB (Universal Serial Bus) device, a hardware key, a status notification LED, and a liquid crystal display.

なお、表示デバイス200、投影装置201及びサーバ300も図2と同様のハードウェア構成を有していてもよい。 The display device 200, the projection device 201, and the server 300 may also have the same hardware configuration as in FIG.

図3は、第1の実施の形態におけるユーザデバイス100の機能構成例を示す図である。図3に示されるように、ユーザデバイス100は、蓄積部11、動きベクトル検出部12、シーン判定部13、処理モード選択部14、補間フレーム生成部15及び画像表示部16を含む。これら各部は、ユーザデバイス100にインストールされた1以上のプログラムがCPU101に実行させる処理により実現される。また、蓄積部11はさらに通信I/F105、処理モード選択部14及び画像表示部16は入出力I/F107を用いて実現可能である。 FIG. 3 is a diagram showing a functional configuration example of the user device 100 according to the first embodiment. As shown in FIG. 3, the user device 100 includes a storage unit 11, a motion vector detection unit 12, a scene determination unit 13, a processing mode selection unit 14, an interpolation frame generation unit 15, and an image display unit 16. Each of these parts is realized by a process of causing the CPU 101 to execute one or more programs installed in the user device 100. Further, the storage unit 11 can be further realized by using the communication I / F 105, and the processing mode selection unit 14 and the image display unit 16 can be realized by using the input / output I / F 107.

蓄積部11は、ネットワークから時系列で順次入力される動画の最新フレームから連続する過去フレームまで遡って所定のフレーム数分蓄積する。フレームは、例えば、所定の水平解像度及び垂直解像度を有し、1ドットがRGBの3色で、各色の色深度は8bitであるカラー画像データである。色深度のビット数は、8bitに限られず16bit等さらに大きくてもよい。また、フレームは、YUV(YCbCr)のような輝度色差信号のデータ形式で記録されていてもよい。 The storage unit 11 stores a predetermined number of frames retroactively from the latest frame of the moving image sequentially input from the network in chronological order to the continuous past frames. The frame is, for example, color image data having a predetermined horizontal resolution and vertical resolution, one dot having three colors of RGB, and a color depth of each color being 8 bits. The number of bits of the color depth is not limited to 8 bits and may be further larger such as 16 bits. Further, the frame may be recorded in a data format of a luminance color difference signal such as YUV (YCbCr).

動きベクトル検出部12は、蓄積部11から読み出した複数のフレームに基づいて、動きベクトルを検出する。本実施の形態では、最新フレームと1つ前のフレームの2枚から動きベクトルを検出するものとするが、非線形な動きや複数の動きが交差する複雑なケースに対応できるよう3フレーム以上を使って動きベクトルを検出する既存の方法もあり、当該既存の方法を本実施の形態に用いてもよい。 The motion vector detection unit 12 detects a motion vector based on a plurality of frames read from the storage unit 11. In the present embodiment, motion vectors are detected from two frames, the latest frame and the previous frame, but three or more frames are used so as to deal with non-linear movements and complicated cases where multiple movements intersect. There is also an existing method for detecting a motion vector, and the existing method may be used in the present embodiment.

シーン判定部13は、蓄積部11から読み出した複数のフレーム及び動きベクトル検出部12で検出された動きベクトルに基づいて、シーン種別を判定する。本実施の形態において、シーン種別は、画面の一部又は全部が移動する状態に対応するスクロールシーン、スクロールしていない状態でマウスカーソルだけが動いているポインタシーン、スクロールシーン又はポインタシーン以外のシーンが含まれる。 The scene determination unit 13 determines the scene type based on the plurality of frames read from the storage unit 11 and the motion vector detected by the motion vector detection unit 12. In the present embodiment, the scene type is a scroll scene corresponding to a state in which a part or all of the screen is moved, a pointer scene in which only the mouse cursor is moving in a non-scrolling state, a scroll scene, or a scene other than the pointer scene. Is included.

処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードと、自然画向けの第2の処理モードを含む、複数処理モードのうちいずれかを選択する。処理モードは、ユーザによって選択されてもよい。 The processing mode selection unit 14 selects one of a plurality of processing modes including a first processing mode for office documents including characters and figures and a second processing mode for natural images. The processing mode may be selected by the user.

補間フレーム生成部15は、選択された処理モード及びシーン判定結果に応じた方法で、最新フレームと1つ前のフレームの間に挿入する補間フレームを生成する。 The interpolation frame generation unit 15 generates an interpolation frame to be inserted between the latest frame and the previous frame by a method according to the selected processing mode and the scene determination result.

画像表示部16は、入力されたフレーム間に補間フレームが挿入された動画を、表示デバイス200、投影装置201又はユーザデバイス100に含まれる表示装置に、補間処理後の動画を順次出力又は表示する。 The image display unit 16 sequentially outputs or displays the moving image in which the interpolation frame is inserted between the input frames to the display device included in the display device 200, the projection device 201, or the user device 100, after the interpolation processing. ..

図4は、第1の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。図4において、入力される動画のフレームの画素は、RGB各8bitで構成され、処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードが選択されているものとする。なお、ブロック(Xi,Yi)に関して、Xiは、フレーム内を構成するブロックの水平方向の座標を示し、Yiは、フレーム内を構成するブロックの垂直方向の座標を示す。ブロックは、例えば、水平方向32画素、垂直方向32画素で構成される。なお、フレームの水平方向はXn個のブロック、フレームの垂直方向はYn個のブロックで構成されているものとし、Xiは0からXn−1、Yiは0からYn−1の整数値をとる。 FIG. 4 is a flowchart for explaining an example of a procedure for determining a scene in the first embodiment. In FIG. 4, the pixels of the frame of the input moving image are composed of 8 bits each of RGB, and the processing mode selection unit 14 assumes that the first processing mode for the office document including characters and figures and tables is selected. To do. Regarding the blocks (Xi, Yi), Xi indicates the horizontal coordinates of the blocks constituting the frame, and Yi indicates the vertical coordinates of the blocks constituting the frame. The block is composed of, for example, 32 pixels in the horizontal direction and 32 pixels in the vertical direction. It is assumed that the horizontal direction of the frame is composed of Xn blocks and the vertical direction of the frame is composed of Yn blocks, and Xi takes an integer value of 0 to Xn-1, and Yi takes an integer value of 0 to Yn-1.

ステップS101において、シーン判定部13は、初期化を実行する。シーン判定部13は、Xi=0、Yi=0とする。また、シーン判定部13は、動き有りブロック数S=0、濃度差有りブロック数D=0とする。動き有りブロック数は、第N−1フレーム及び第Nフレームにおける同一座標(Xi,Yi)のブロック内の同一座標の画素を比較して、所定の変化が検出されたブロックの数である。第Nフレームは、動画データのうち時系列でN番目のフレームであり、第N−1フレームは、N番目のフレームの直前のフレームである。濃度差有りブロック数Sは、第N−1フレームにおけるブロック(Xi,Yi)内の画素を比較して、所定の変化が検出されたブロックの数である。 In step S101, the scene determination unit 13 executes initialization. The scene determination unit 13 sets Xi = 0 and Yi = 0. Further, the scene determination unit 13 sets the number of blocks with movement S = 0 and the number of blocks with density difference D = 0. The number of blocks with motion is the number of blocks in which a predetermined change is detected by comparing the pixels of the same coordinates in the blocks of the same coordinates (Xi, Yi) in the N-1th frame and the Nth frame. The Nth frame is the Nth frame in the time series of the moving image data, and the N-1th frame is a frame immediately before the Nth frame. The number of blocks S with a density difference is the number of blocks in which a predetermined change is detected by comparing the pixels in the blocks (Xi, Yi) in the N-1th frame.

続いて、シーン判定部13は、蓄積部11から第Nフレーム及び第N−1フレームのブロック(Xi,Yi)を読み込む(S102)。 Subsequently, the scene determination unit 13 reads the blocks (Xi, Yi) of the Nth frame and the N-1th frame from the storage unit 11 (S102).

続いて、シーン判定部13は、代表差分値算出(S103a)及び濃度差有りブロック抽出(S103b)を行う。ステップS103a及びS104aと、ステップS103b及びS104bとは、ブロック(Xi,Yi)に関する独立した処理であって、並行して行われてもよい。 Subsequently, the scene determination unit 13 performs representative difference value calculation (S103a) and block extraction with density difference (S103b). Steps S103a and S104a and steps S103b and S104b are independent processes related to blocks (Xi, Yi), and may be performed in parallel.

図5は、第1の実施の形態におけるシーン判定部13の機能を説明するための図である。図5に示されるように、シーン判定部13は、フレーム間差分算出部130、濃度差有りブロック抽出部131、判定部132を有する。 FIG. 5 is a diagram for explaining the function of the scene determination unit 13 in the first embodiment. As shown in FIG. 5, the scene determination unit 13 includes an inter-frame difference calculation unit 130, a density difference block extraction unit 131, and a determination unit 132.

フレーム間差分算出部130は、第N−1フレーム及び第Nフレームのブロック(Xi,Yi)について、画素ごとに第N−1フレーム及び第Nフレーム間の差分絶対値を算出し、ブロック(Xi,Yi)内におけるRの差分絶対値の最大値、Gの差分絶対値の最大値及びBの差分絶対値の最大値の中で、最大の値を代表差分値として算出する。 The inter-frame difference calculation unit 130 calculates the absolute difference value between the N-1th frame and the Nth frame for each pixel for the blocks (Xi, Yi) of the N-1th frame and the Nth frame, and the block (Xi). , Yi), the maximum value among the maximum value of the absolute difference value of R, the maximum value of the absolute value of the difference of G, and the maximum value of the absolute value of the difference of B is calculated as the representative difference value.

濃度差有りブロック抽出部131は、第N−1フレームのブロック(Xi,Yi)内の画素に関して、Rの最大値とRの最小値の差分が所定の閾値th1以上であるか、Gの最大値とGの最小値の差分がth1以上であるか、Bの最大値とBの最小値の差分がth1以上であるかのいずれかを満たせば、当該ブロック(Xi,Yi)を、濃度差有りブロックとして抽出する。 The block extraction unit 131 with a density difference indicates that the difference between the maximum value of R and the minimum value of R with respect to the pixels in the block (Xi, Yi) of the N-1th frame is equal to or more than a predetermined threshold th1 or the maximum of G. If either the difference between the value and the minimum value of G is th1 or more, or the difference between the maximum value of B and the minimum value of B is th1 or more, the block (Xi, Yi) has a density difference. Extract as a block with.

判定部132は、フレーム間差分算出部130から出力される代表差分値と所定の閾値th2とを比較して、代表差分値がth2以上であれば、当該ブロック(Xi,Yi)を動き有りブロックと判定し、動き有りブロック数Sを1増やす。また、判定部132は、濃度差有りブロック抽出部131から出力される濃度差有りブロック抽出結果に基づいて、濃度差有りブロック数Dを1増やす。 The determination unit 132 compares the representative difference value output from the inter-frame difference calculation unit 130 with the predetermined threshold value th2, and if the representative difference value is th2 or more, blocks the block (Xi, Yi) with motion. Is determined, and the number of moving blocks S is increased by 1. Further, the determination unit 132 increases the number of blocks D with a density difference by 1 based on the block extraction result with a density difference output from the block extraction unit 131 with a density difference.

図4に戻る。ステップS104aにおいて、判定部132は、動き有りブロック数Sをカウントする。ステップS104bにおいて、判定部132は、濃度差有りブロック数Dをカウントする。 Return to FIG. In step S104a, the determination unit 132 counts the number of moving blocks S. In step S104b, the determination unit 132 counts the number of blocks D with a density difference.

続いて、シーン判定部13は、Xi=Xn−1であるか否かを判定し、XiがXn−1に等しい場合(S105のYES)、すなわち、フレーム内ラインの水平方向のブロックが既にすべて読み込まれていた場合、ステップS107に進み、XiがXn−1に等しくない場合(S105のNO)、すなわち、フレーム内ラインの水平方向のブロックがまだすべて読み込まれていない場合、ステップS106に進む。 Subsequently, the scene determination unit 13 determines whether or not Xi = Xn-1, and if Xi is equal to Xn-1 (YES in S105), that is, all the horizontal blocks of the in-frame line are already present. If it has been read, the process proceeds to step S107, and if Xi is not equal to Xn-1 (NO in S105), that is, if all the horizontal blocks of the in-frame line have not been read yet, the process proceeds to step S106.

ステップS106において、シーン判定部13は、Xi=Xi+1として、ステップS102に進む。すなわち、シーン判定部13は、次のステップS102において、水平方向で次のブロックを読み込む。 In step S106, the scene determination unit 13 proceeds to step S102 with Xi = Xi + 1. That is, in the next step S102, the scene determination unit 13 reads the next block in the horizontal direction.

ステップS107において、シーン判定部13は、Yi=Yn−1であるか否かを判定し、YiがYi−1に等しい場合(S107のYES)、すなわち、フレーム内のブロックが既にすべて読み込まれていた場合、ステップS109に進み、YiがYi−1に等しくない場合(S107のNO)、すなわち、次に読み込むフレーム内ラインが存在する場合、ステップS108に進む。 In step S107, the scene determination unit 13 determines whether or not Yi = Yn-1, and if Yi is equal to Yi-1 (YES in S107), that is, all the blocks in the frame have already been read. If so, the process proceeds to step S109, and if Yi is not equal to Yi-1 (NO in S107), that is, if there is an in-frame line to be read next, the process proceeds to step S108.

ステップS108において、シーン判定部13は、Xi=0、Yi=Yi+1として、ステップS102に進む。すなわち、シーン判定部13は、次のステップS102において、垂直方向で次のブロックであって、水平方向で先頭のブロックを読み込む。 In step S108, the scene determination unit 13 proceeds to step S102 with Xi = 0 and Yi = Yi + 1. That is, in the next step S102, the scene determination unit 13 reads the next block in the vertical direction and the first block in the horizontal direction.

ステップS109において、判定部132は、カウントされた動き有りブロック数S、カウントされた濃度差有りブロック数Dについて、S/Dが所定の閾値th3以上か否かを判定する。すなわち、判定部132は、濃度差有りブロックの面積に対する動き有りブロックの面積から求められる比率に基づく判定を行う。S/Dが所定の閾値th3以上である場合(S109のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。S/Dが所定の閾値th3未満である場合(S109のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。 In step S109, the determination unit 132 determines whether or not the S / D is equal to or greater than the predetermined threshold value th3 with respect to the counted number of blocks with movement S and the number of counted blocks with difference in density D. That is, the determination unit 132 makes a determination based on the ratio obtained from the area of the moving block with respect to the area of the block having a density difference. When the S / D is equal to or higher than the predetermined threshold value th3 (YES in S109), the scene determination unit 13 determines that the scene is a scroll scene and completes the flow. When the S / D is less than the predetermined threshold value th3 (NO in S109), the scene determination unit 13 determines that the scene is a non-scrolling scene and completes the flow.

なお、所定の閾値th1、th2及びth3は、予め設定される。th1及びth2は、0から255の値をとりうるが、いずれも比較的小さな30前後の値としてもよい。入力されるフレーム画像は、圧縮又は伸長された画像であるケースが多いため、圧縮又は伸長で発生したノイズに反応して誤判定しないように0に対してマージンをとった値としてもよい。th3は、0〜1の間で、0.7前後の比較的大きな値に設定してもよい。 The predetermined threshold values th1, th2, and th3 are set in advance. Although th1 and th2 can take values from 0 to 255, both may be relatively small values of around 30. Since the input frame image is often a compressed or decompressed image, a value with a margin of 0 may be used so as not to make a false determination in response to noise generated by compression or decompression. th3 may be set to a relatively large value of around 0.7 between 0 and 1.

図6は、第1の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。図6において、処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードが選択されているものとする。 FIG. 6 is a flowchart for explaining an example of a procedure for generating an interpolated frame according to the first embodiment. In FIG. 6, it is assumed that the processing mode selection unit 14 has selected the first processing mode for office documents including characters and charts.

ステップS121において、補間フレーム生成部15は、図4に示されるステップS109でシーン判定の結果、スクロールシーンと判定された場合(S121のYES)、ステップS122に進み、非スクロールシーンと判定された場合(S121のNO)、ステップS123に進む。 In step S121, when the interpolation frame generation unit 15 is determined to be a scroll scene as a result of the scene determination in step S109 shown in FIG. 4 (YES in S121), proceeds to step S122 and is determined to be a non-scroll scene. (NO in S121), the process proceeds to step S123.

ステップS122において、補間フレーム生成部15は、1つ前のフレームをコピーしたものを補間フレームとして生成し、フローを完了する。 In step S122, the interpolation frame generation unit 15 generates a copy of the previous frame as an interpolation frame, and completes the flow.

ステップS123において、補間フレーム生成部15は、動きベクトルを用いて補間フレームを生成し、フローを完了する。動きベクトルを用いる補間フレームの生成は、従来のフレーム補完技術を用いてよい。 In step S123, the interpolation frame generation unit 15 generates an interpolation frame using the motion vector and completes the flow. A conventional frame complementing technique may be used to generate an interpolated frame using a motion vector.

図7は、第1の実施の形態における補間フレーム生成部15の動作例を説明するための図である。図7において、補間フレーム生成部15が、オフィス文書の入力フレーム間に1枚ずつ生成した補間フレームを挿入する具体的な動作例が示されている。 FIG. 7 is a diagram for explaining an operation example of the interpolation frame generation unit 15 in the first embodiment. FIG. 7 shows a specific operation example in which the interpolation frame generation unit 15 inserts the interpolation frames generated one by one between the input frames of the office document.

順次入力される(a)入力画像に対して、(b)従来のフレーム補間後の動画は、補間フレームにおいて、マウスカーソルが背景のスクロールと同様にスクロールベクトルによって上方向に移動されて表示されるため(第1フレームと第2フレームの補間フレーム、第2フレームと第3フレームの補間フレーム)、マウスカーソルが上下に振動して画質異常となる。(b)において、入力された第1フレームに対して、補間フレームである2番目のフレームではマウスカーソルが上に移動している。入力された第2フレームではマウスカーソルが下に戻り、補間フレームである4番目のフレームでは再度マウスカーソルが上に移動している。入力された第3フレームでは再度下に戻る。同様に、図7には図示していないが、アプリケーションウィンドウ画面の外枠も振動する。 For (a) input images that are sequentially input, (b) the moving image after conventional frame interpolation is displayed by moving the mouse cursor upward by the scroll vector in the same way as scrolling the background in the interpolated frame. Therefore (interpolation frames of the first frame and the second frame, interpolation frames of the second frame and the third frame), the mouse cursor vibrates up and down, resulting in abnormal image quality. In (b), the mouse cursor is moved up in the second frame, which is an interpolation frame, with respect to the input first frame. In the input second frame, the mouse cursor returns to the bottom, and in the fourth frame, which is the interpolation frame, the mouse cursor moves up again. In the input third frame, it returns to the bottom again. Similarly, although not shown in FIG. 7, the outer frame of the application window screen also vibrates.

一方、(c)第1の実施の形態のフレーム補間後の動画において、補間フレーム生成部15は、スクロールシーンと判定された第1フレーム、第2フレーム、第3フレームに対して補間フレームを生成する場合、1つ前のフレームをコピーしたものを補間フレームとする(第1フレームと第2フレームの補間フレーム、第2フレームと第3フレームの補間フレーム)。非スクロールシーンと判定された場合は、従来技術と同様に前後のフレームから動きベクトルを用いて補間フレームを生成する(第3フレームと第4フレームの補間フレーム)。したがって、(c)第1の実施の形態のフレーム補間後の動画は、スクロールシーンでマウスカーソルは動かない。したがって、(c)の動画においては、(b)で発生していた画質異常が発生しない。なお、図中のポインタシーンについては第2の実施の形態で説明する。 On the other hand, in the moving image after frame interpolation of the first embodiment (c), the interpolation frame generation unit 15 generates an interpolation frame for the first frame, the second frame, and the third frame determined to be scroll scenes. In this case, a copy of the previous frame is used as an interpolation frame (interpolation frame of the first frame and the second frame, interpolation frame of the second frame and the third frame). If it is determined to be a non-scrolling scene, an interpolated frame is generated from the previous and next frames using motion vectors (interpolated frames of the third frame and the fourth frame) as in the conventional technique. Therefore, in the moving image after frame interpolation of the first embodiment (c), the mouse cursor does not move in the scroll scene. Therefore, in the moving image of (c), the image quality abnormality that occurred in (b) does not occur. The pointer scene in the figure will be described in the second embodiment.

上述したように、第1の実施の形態によれば、画像処理システム1000は、フレーム間の差分ブロック数及び濃度差があるブロック数に基づいたシーン判定の結果に基づいて、補間フレームの生成方法を変えることで、従来の補間フレームの生成方法では発生していた画質異常を防ぐことができる。すなわち、文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐことができる。 As described above, according to the first embodiment, the image processing system 1000 is a method of generating an interpolation frame based on the result of scene determination based on the number of difference blocks between frames and the number of blocks having a density difference. By changing the above, it is possible to prevent an image quality abnormality that has occurred in the conventional method of generating an interpolated frame. That is, when an office document containing characters and figures and tables is scrolled on the display screen, it is possible to prevent the occurrence of image quality abnormality due to frame interpolation.

図8は、第2の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第2の実施の形態では第1の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第1の実施の形態と同様でもよい。 FIG. 8 is a flowchart for explaining an example of a procedure for determining a scene in the second embodiment. The second embodiment will be described which is different from the first embodiment. Therefore, the same as in the first embodiment may be used without particular mention.

ステップS201において、シーン判定部13は、初期化を実行する。図4に示されるステップS101の初期化に加えて、動き有りブロックのグループ数cnt=0とする。動き有りブロックのグループ数は、フレームにおいて、近接しているブロックの所定の範囲(例えば、2×2ブロック)については、動き有りブロック数が複数検出された場合であっても1としてカウントした数である。 In step S201, the scene determination unit 13 executes initialization. In addition to the initialization of step S101 shown in FIG. 4, the number of groups of moving blocks is set to cnt = 0. The number of groups of moving blocks is the number counted as 1 for a predetermined range of adjacent blocks (for example, 2 × 2 blocks) in the frame even when a plurality of moving blocks are detected. Is.

図9は、第2の実施の形態におけるシーン判定部13の機能を説明するための図である。第2の実施の形態においては、シーン判定部13の判定部132は、1)スクロールシーン、2)マウスカーソルを動かしているポインタシーン、3)その他のシーン、以上の3つのシーンのいずれであるかシーン判定を行う。1)スクロールシーンの判定は第1の実施の形態と同様である。第1の実施の形態で非スクロールシーンと判定されるケースの中から2)ポインタシーンを判定し、ポインタシーン以外のケースを3)その他のシーンと判定する。 FIG. 9 is a diagram for explaining the function of the scene determination unit 13 in the second embodiment. In the second embodiment, the determination unit 132 of the scene determination unit 13 is any of the above three scenes: 1) scroll scene, 2) pointer scene in which the mouse cursor is moved, 3) other scenes. Or make a scene judgment. 1) The determination of the scroll scene is the same as that of the first embodiment. From the cases determined to be non-scrolling scenes in the first embodiment, 2) the pointer scene is determined, and the cases other than the pointer scene are determined to be 3) other scenes.

判定部132にて、2)ポインタシーンを判定する方法を以下説明する。図9に示される斜線網掛けのブロックを動き有りブロックとすると、破線で囲まれる所定ブロック数の範囲内(例えば2×2ブロック以内)で構成される動き有りブロックのグループが、フレーム内に2つ存在する場合に、ポインタシーンであると判定する。第N−1フレームで左下の2ブロックに係る位置にあったマウスカーソルが、第Nフレームで右上の2ブロックに掛かる位置に移動した場合、または、第N−1フレームで右上の2ブロックに掛かる位置にあったマウスカーソルが第Nフレームで左下の2ブロックに掛かる位置に移動した場合に、図9に示されるような動き有りブロックが検出され、動き有りブロックのグループ数は2とカウントされる。 The method of determining 2) the pointer scene by the determination unit 132 will be described below. Assuming that the shaded blocks shown in FIG. 9 are moving blocks, a group of moving blocks composed of a predetermined number of blocks surrounded by broken lines (for example, within 2 × 2 blocks) is 2 in the frame. If there is one, it is determined that it is a pointer scene. When the mouse cursor that was in the position related to the lower left 2 blocks in the N-1 frame moves to the position that hangs on the upper right 2 blocks in the Nth frame, or hangs on the upper right 2 blocks in the N-1 frame. When the mouse cursor at the position moves to the position where it hangs on the lower left two blocks in the Nth frame, the moving blocks as shown in FIG. 9 are detected, and the number of groups of moving blocks is counted as 2. ..

判定部132が、近接しているブロックの所定の範囲で構成される動き有りブロックのグループが、フレーム内に2つ存在するか否かを判定する具体的な方法について以下説明する。シーン判定部13は、動き有りブロックのグループをカウントする変数をcntとし、cnt=0に初期化する。シーン判定部13は、(X,Y)=(0,0)のブロックからX軸方向に1ライン走査し、終わったらYに1加算して、次のラインを走査する。判定部132は、動き有りブロックを検出した場合、cntに1加算する。当該動き有りブロックの座標を(X,Y)=(x1,y1)とすると、(x1+1,y1)、(x1,y1+1)、(x1+1,y1+1)の3ブロックに関しては、判定部132は、動き有りブロックが検出されてもcntに1加算する処理をしない。フレームの最後まで走査完了した時点でcnt=2であれば、動き有りブロックのグループがフレーム内に2つ存在することが判定できる。 A specific method for the determination unit 132 to determine whether or not there are two groups of moving blocks in a frame, which are composed of a predetermined range of adjacent blocks, will be described below. The scene determination unit 13 sets a variable that counts a group of moving blocks as cnt, and initializes it to cnt = 0. The scene determination unit 13 scans one line in the X-axis direction from the block (X, Y) = (0,0), adds 1 to Y when finished, and scans the next line. When the determination unit 132 detects a moving block, it adds 1 to ct. Assuming that the coordinates of the moving block are (X, Y) = (x1, y1), the determination unit 132 moves with respect to the three blocks (x1 + 1, y1), (x1, y1 + 1), and (x1 + 1, y1 + 1). Even if a block is detected, the process of adding 1 to ct is not performed. If cnt = 2 when scanning is completed to the end of the frame, it can be determined that there are two groups of moving blocks in the frame.

図8に戻る。ステップS204c及びステップS210が、第1の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S204c and step S210 are different from the first embodiment, the steps will be described below.

ステップS204cにおいて、判定部132は、動き有りブロックのグループ数cntをカウントする。ステップS204aにおいて、動き有りブロック数Sがカウントされるため、Sに基づいて、cntはカウント可能である。また、ステップS204cは、ステップS203b及びステップS204bと並行して行われてもよい。 In step S204c, the determination unit 132 counts the number of groups of moving blocks cnt. Since the number of moving blocks S is counted in step S204a, the CNTs can be counted based on S. Further, step S204c may be performed in parallel with step S203b and step S204b.

ステップS210において、判定部132は、cnt=2であるか否かを判定する。cntが2である場合(S210でYES)、シーン判定部13は、シーンをポインタシーンであると判定してフローを完了する。cntが2ではない場合、シーン判定部13は、シーンをその他のシーンであると判定してフローを完了する。 In step S210, the determination unit 132 determines whether or not ct = 2. When ct is 2 (YES in S210), the scene determination unit 13 determines that the scene is a pointer scene and completes the flow. When ct is not 2, the scene determination unit 13 determines that the scene is another scene and completes the flow.

図10は、第2の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。ステップS223〜S225が、第1の実施の形態と異なるため、当該ステップを以下説明する。 FIG. 10 is a flowchart for explaining an example of a procedure for generating an interpolated frame in the second embodiment. Since steps S223 to S225 are different from the first embodiment, the steps will be described below.

ステップS223において、シーン判定部13が、シーン判定の結果がポインタシーンであると判定した場合(S223のYES)、ステップS224に進む。シーン判定部13が、シーン判定の結果がポインタシーンではないと判定した場合(S223のNO)、ステップS225に進む。 If the scene determination unit 13 determines in step S223 that the result of the scene determination is a pointer scene (YES in S223), the process proceeds to step S224. When the scene determination unit 13 determines that the result of the scene determination is not a pointer scene (NO in S223), the process proceeds to step S225.

ステップS224において、補間フレーム生成部15は、動きベクトルを用いて補間フレームを生成し、フローを完了する。動きベクトルを用いる補間フレームの生成は、従来のフレーム補完技術を用いてよい。 In step S224, the interpolation frame generation unit 15 generates an interpolation frame using the motion vector and completes the flow. A conventional frame complementing technique may be used to generate an interpolated frame using a motion vector.

ステップS225において、補間フレーム生成部15は、前後のフレームを重みづけ加算した補間フレームを生成し、フローを完了する。重みづけ加算した補間フレームの生成は、従来のフレーム補間技術を用いてよい。例えば、図7に示されるように、入力フレーム間に1フレームを挿入する場合は、前後のフレームにそれぞれ1/2の重みをつけて加算したもの、すなわち平均画像が補間フレームとなる。また、入力フレーム間に2フレームずつ挿入する場合は、1枚目の補間フレームは、前のフレームに2/3の重み、後ろのフレームに1/3の重みを付けて加算した画像となり、2枚目の補間フレームは、前のフレームに1/3の重み、後ろのフレームに2/3の重みを付けて加算した画像となる。その他のシーンとして判定されるケースに、例えば、マウスのドラッグ操作シーンがある。マウスのドラッグ操作シーンは、重みづけ加算による補間フレーム生成により、比較的動きが自然に見え違和感の少ない動画となることが知られている。 In step S225, the interpolation frame generation unit 15 generates an interpolation frame by weighting and adding the preceding and following frames, and completes the flow. A conventional frame interpolation technique may be used to generate the weighted and added interpolation frame. For example, as shown in FIG. 7, when one frame is inserted between the input frames, the preceding and following frames are added with a weight of 1/2, that is, the average image is the interpolation frame. When two frames are inserted between the input frames, the first interpolation frame is an image obtained by adding a weight of 2/3 to the previous frame and a weight of 1/3 to the rear frame. The first interpolated frame is an image obtained by adding a weight of 1/3 to the previous frame and a weight of 2/3 to the rear frame. A case determined as another scene is, for example, a mouse drag operation scene. It is known that the mouse drag operation scene becomes a moving image in which the movement looks relatively natural and there is little discomfort by generating an interpolated frame by weighting addition.

上述したように、第2の実施の形態によれば、画像処理システム1000は、フレーム間の差分ブロック数、フレーム間の差分ブロックのグループ数及び濃度差があるブロック数に基づいたシーン判定の結果に基づいて、補間フレームの生成方法を変えることで、マウスカーソルの表示に適した画面表示を行うことができる。 As described above, according to the second embodiment, the image processing system 1000 determines the result of the scene determination based on the number of difference blocks between frames, the number of groups of difference blocks between frames, and the number of blocks having a density difference. By changing the method of generating the interpolation frame based on the above, it is possible to display a screen suitable for displaying the mouse cursor.

図11は、第3の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第3の実施の形態では第1の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第1の実施の形態と同様でもよい。 FIG. 11 is a flowchart for explaining an example of a procedure for determining a scene in the third embodiment. The third embodiment will be described which is different from the first embodiment. Therefore, the same as in the first embodiment may be used without particular mention.

ステップS301において、シーン判定部13は、初期化を実行する。図4に示されるステップS101の初期化と同様に、Xi=0、Yi=0、D=0とする。さらに、上方向への動き有りブロック数M1=0、下方向への動き有りブロック数M2=0とする。動き有りブロック数は、動きベクトルに基づいて上方向又は下方向への動きを検出されたブロックの数である。 In step S301, the scene determination unit 13 executes initialization. Similar to the initialization in step S101 shown in FIG. 4, Xi = 0, Yi = 0, and D = 0. Further, the number of blocks with upward movement M1 = 0 and the number of blocks with downward movement M2 = 0. The number of blocks with motion is the number of blocks in which motion in the upward or downward direction is detected based on the motion vector.

図12は、第3の実施の形態における動きベクトル検出部12について説明するための図である。動きベクトル検出に関しては幾つか既存の方法が知られているが、第3の実施の形態では、ブロックマッチングによる方法で行うものとする。第N−1フレームが最新フレームの1つ前のフレーム、第Nフレームが最新フレームとする。ブロックマッチングによる方法は、フレーム内を所定画素数(例えば32x32画素)で構成されるブロックに分割し、第N−1フレームのブロックと相関の高い第Nフレームのブロックを探す。図12に示される斜線で塗りつぶしたブロック同士の相関が高いとすると、動きベクトルは、第N−1フレームの斜線ブロックの位置から第Nフレームの斜線ブロックの位置へと延びた矢印で示される。動きベクトル(Vx,Vy)をブロック単位の座標で表すと、(0,−2)となる。すなわち、Y方向に−2ブロック分の動きが検出されている。このようにして、動きベクトル検知を第Nフレームの全ブロックに関して行う。 FIG. 12 is a diagram for explaining the motion vector detection unit 12 according to the third embodiment. Although some existing methods are known for motion vector detection, in the third embodiment, the method by block matching is used. The N-1th frame is the frame immediately before the latest frame, and the Nth frame is the latest frame. In the block matching method, the frame is divided into blocks composed of a predetermined number of pixels (for example, 32x32 pixels), and a block of the Nth frame having a high correlation with the block of the N-1th frame is searched for. Assuming that the blocks filled with diagonal lines shown in FIG. 12 have a high correlation, the motion vector is indicated by an arrow extending from the position of the diagonal line block of the N-1th frame to the position of the diagonal line block of the Nth frame. When the motion vector (Vx, Vy) is expressed by the coordinates in block units, it becomes (0, -2). That is, the movement of -2 blocks in the Y direction is detected. In this way, motion vector detection is performed for all blocks of the Nth frame.

図13は、オフィス文書におけるスクロールの例を示す図である。図13に示されるように、PCのディスプレイ表示画像に重ねて、動きベクトルを図示したものである。動きベクトルが表示されている領域には、文字又は図表が描画されているものとする。 FIG. 13 is a diagram showing an example of scrolling in an office document. As shown in FIG. 13, the motion vector is illustrated by superimposing it on the display display image of the PC. It is assumed that characters or charts are drawn in the area where the motion vector is displayed.

図13に示されるスクロール画面の例1は、オフィス文書がPCのディスプレイに全画面表示された場合の例である。アプリケーションのウィンドウの枠及びマウスカーソル以外の画像がスクロールされて、下方向に動いている。また、図13に示されるスクロール画面の例2は、全画面表示ではない場合の例である。スクロールで下方向に動いているのはウィンドウの枠の内側だけであり、ウィンドウの枠の外側は壁紙又はアイコン画像が静止したままの状態で表示される。オフィス文書のスクロールにおいては、オフィス文書を読み進めるため、下方向へのスクロールが想定される。また、オフィス文書の表示を前の状態に戻すために逆方向である上方向へのスクロールも想定される。 Example 1 of the scroll screen shown in FIG. 13 is an example in which the office document is displayed in full screen on the display of the PC. Images other than the application window frame and mouse cursor are scrolled and moving downward. Further, the scroll screen example 2 shown in FIG. 13 is an example in the case where the scroll screen is not displayed in full screen. Only the inside of the window frame is scrolling downward, and the outside of the window frame is displayed with the wallpaper or icon image still. When scrolling an office document, it is assumed that the office document is scrolled downward in order to read the office document. In addition, scrolling upward, which is the opposite direction, is also assumed in order to return the display of the office document to the previous state.

図14は、第3の実施の形態におけるシーン判定部13について説明するための図である。第3の実施の形態においては、シーン判定部13の判定部135は、動きベクトルを用いてシーンを判定することにより判定精度を高める。なお、第N−1フレームが最新フレームの1つ前のフレーム、第Nフレームが最新フレームとする。 FIG. 14 is a diagram for explaining the scene determination unit 13 in the third embodiment. In the third embodiment, the determination unit 135 of the scene determination unit 13 enhances the determination accuracy by determining the scene using the motion vector. The N-1th frame is the frame immediately before the latest frame, and the Nth frame is the latest frame.

上方向への動き有りブロック抽出部133は、第N−1フレームの各ブロックの動きベクトルを参照して、動きベクトル(Vx,Vy)がVx=0かつVy<0ならば、上方向への動き有りブロックとして抽出する。下方向への動き有りブロック抽出部134は、第N−1フレームの各ブロックの動きベクトルを参照して、動きベクトル(Vx,Vy)がVx=0かつVy>0ならば、下方向への動き有りブロックとして抽出する。したがって、上方向への動き有りブロック数と上方向への動きを示す動きベクトルの数、下方向への動き有りブロック数と下方向への動きを示す動きベクトルの数、はそれぞれ一致する。 The block extraction unit 133 with upward movement refers to the motion vector of each block in the N-1th frame, and if the motion vector (Vx, Vy) is Vx = 0 and Vy <0, the block extraction unit 133 moves upward. Extract as a moving block. The block extraction unit 134 with downward movement refers to the motion vector of each block in the N-1th frame, and if the motion vector (Vx, Vy) is Vx = 0 and Vy> 0, the block extraction unit 134 moves downward. Extract as a moving block. Therefore, the number of blocks with upward movement and the number of motion vectors indicating upward movement, the number of blocks with downward movement and the number of motion vectors indicating downward movement are the same, respectively.

濃度差有りブロック抽出部131は、シーン判定部13の第1の実施の形態と同様である。判定部135は、上方向への動き有りブロック抽出部133が抽出したブロックに基づいて、上方向への動き有りブロック数M1と、下方向への動き有りブロック抽出部134が抽出したブロックに基づいて、下方向への動き有りブロック数M2をカウントする。濃度差有りブロック数Dは、第1の実施の形態同様に濃度差有りブロック抽出部131が抽出したブロックに基づいてカウントされる。シーン判定部13の判定部135は、M1/D又はM2/Dが所定の閾値th4以上である場合は、スクロールシーンであると判定する。M1/D及びM2/Dが所定の閾値th4未満である場合は、非スクロールシーンであると判定する。 The block extraction unit 131 with a density difference is the same as that of the first embodiment of the scene determination unit 13. The determination unit 135 is based on the number of blocks with upward movement M1 and the blocks extracted by the block extraction unit 134 with downward movement, based on the blocks extracted by the block extraction unit 133 with upward movement. Then, the number of blocks with downward movement M2 is counted. The number of blocks D with a density difference is counted based on the blocks extracted by the block extraction unit 131 with a density difference as in the first embodiment. The determination unit 135 of the scene determination unit 13 determines that the scene is a scroll scene when M1 / D or M2 / D is equal to or higher than the predetermined threshold value th4. When M1 / D and M2 / D are less than the predetermined threshold value th4, it is determined that the scene is a non-scrolling scene.

図13に示された例と同様に、PCディスプレイ画面上でのスクロール動作は、主に上方向か下方向への移動であり、例えば、斜め方向へのスクロールは少ない。そこで、濃度差有りブロック数Dに対する上方向の動き有りブロック数M1の比率、又は、濃度差有りブロック数Dに対する下方向の動き有りブロック数M2の比率で判定することにより、スクロールシーンの判定精度を高めている。閾値th4は所定の閾値であり、予め設定される。閾値th3と同様に、閾値th4は、比較的大きな値に設定するのがよい。 Similar to the example shown in FIG. 13, the scrolling operation on the PC display screen is mainly an upward or downward movement, and for example, scrolling in an oblique direction is small. Therefore, the determination accuracy of the scroll scene is determined by determining the ratio of the number of blocks with upward movement M1 to the number of blocks with difference in density D or the ratio of the number of blocks with downward movement M2 to the number of blocks with density difference D. Is increasing. The threshold value th4 is a predetermined threshold value and is set in advance. Similar to the threshold value th3, the threshold value th4 is preferably set to a relatively large value.

図11に戻る。ステップS302a、ステップS303a、ステップS303c、ステップS304a、ステップS304c及びステップS309が、第1の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S302a, step S303a, step S303c, step S304a, step S304c and step S309 are different from the first embodiment, the steps will be described below.

ステップS302aにおいて、シーン判定部13は、第N−1フレームの(Xi,Yi)ブロックの動きベクトルを動きベクトル検出部12から読み込む。続いて、上方向への動き有りブロック抽出部133は、上方向への動き有りブロックを抽出し(S303a)、判定部135は、上方向への動き有りブロック数M1をカウントする(S304a)。並行して、下方向への動き有りブロック抽出部134は、下方向への動き有りブロックを抽出し(S303c)、判定部135は、下方向への動き有りブロック数M2をカウントする(S304c)。 In step S302a, the scene determination unit 13 reads the motion vector of the (Xi, Yi) block of the N-1th frame from the motion vector detection unit 12. Subsequently, the upwardly moving block extraction unit 133 extracts the upwardly moving blocks (S303a), and the determination unit 135 counts the number of upwardly moving blocks M1 (S304a). At the same time, the downwardly moving block extraction unit 134 extracts the downwardly moving blocks (S303c), and the determination unit 135 counts the number of downwardly moving blocks M2 (S304c). ..

ステップS309において、判定部135が、M1/D又はM2/Dがth4以上であると判定した場合は(S309のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。判定部135が、M1/D及びM2/Dがth4未満であると判定した場合は、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。 In step S309, when the determination unit 135 determines that M1 / D or M2 / D is th4 or more (YES in S309), the scene determination unit 13 determines that the scene is a scroll scene and performs a flow. Complete. When the determination unit 135 determines that M1 / D and M2 / D are less than th4, the scene determination unit 13 determines that the scene is a non-scrolling scene and completes the flow.

上述したように、第3の実施の形態によれば、画像処理システム1000は、動きベクトルによる上方向への動き有りブロック数、動きベクトルによる下方向への動き有りブロック数及び濃度差があるブロック数に基づいてシーン判定をすることで、上下方向のスクロールに対するシーン判定の精度を高めることができる。 As described above, according to the third embodiment, the image processing system 1000 has the number of blocks with upward movement due to the motion vector, the number of blocks with downward movement due to the motion vector, and the blocks having a density difference. By judging the scene based on the number, it is possible to improve the accuracy of the scene judgment for scrolling in the vertical direction.

図15は、第4の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第第4の実施の形態は、図13に示されるスクロール画面の2つの例のどちらであっても、精度よくスクロールシーンであると判定できるようことを目的とする。第4の実施の形態では第3の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第3の実施の形態と同様でもよい。 FIG. 15 is a flowchart for explaining an example of a procedure for determining a scene in the fourth embodiment. A fourth embodiment aims to accurately determine that the scroll scene is a scroll scene in either of the two examples of the scroll screen shown in FIG. The fourth embodiment will be described which is different from the third embodiment. Therefore, the same as in the third embodiment may be applied without particular mention.

ステップS401において、図11に示されるステップS301での初期化と同様に、Xi=0、Yi=0、M1=0、M2=0、D=0とし、さらに動きベクトルに基づいた動き有りブロック数M3=0とする。動き有りブロック数M3は、動きベクトルに基づいて、いずれかの方向への動きを検出されたブロックの数である。 In step S401, similarly to the initialization in step S301 shown in FIG. 11, Xi = 0, Yi = 0, M1 = 0, M2 = 0, D = 0, and the number of blocks with motion based on the motion vector. Let M3 = 0. The number of blocks with motion M3 is the number of blocks in which motion in any direction is detected based on the motion vector.

図16は、第4の実施の形態におけるシーン判定部13について説明するための図である。上方向への動き有りブロック抽出部133、下方向への動き有りブロック抽出部134、濃度差有りブロック抽出部131は、図14に示される第3の実施の形態と同様である。 FIG. 16 is a diagram for explaining the scene determination unit 13 in the fourth embodiment. The block extraction unit 133 with an upward movement, the block extraction unit 134 with a downward movement, and the block extraction unit 131 with a concentration difference are the same as those in the third embodiment shown in FIG.

動き有りブロック抽出部136は、第N−1フレームの各ブロックの動きベクトル(Vx,Vy)のX方向又はY方向の絶対値について、|Vx|>0又は|Vy|>0ならば、動き有りブロックとして抽出する。すなわち、動き有りブロック抽出部136は、あるブロックの動きベクトルが非0であれば、当該ブロックを動き有りブロックとして抽出する。 The motion block extraction unit 136 moves the motion vector (Vx, Vy) of each block in the N-1th frame if the absolute value in the X direction or the Y direction is | Vx |> 0 or | Vy |> 0. Extract as a block with. That is, if the motion vector of a certain block is non-zero, the motion block extraction unit 136 extracts the block as a motion block.

判定部137は、上方向への動き有りブロック数M1、下方向への動き有りブロック数M2及び動き有りブロック数M3をカウントし、さらに濃度差有りブロック数Dもカウントする。シーン判定部13の判定部137は、M1/D又はM2/Dがth4以上であり、かつM1/M3又はM2/M3が所定の閾値th5以上である場合、スクロールシーンであると判定する。シーン判定部13の判定部137は、M1/D及びM2/Dがth4未満、又はM1/M3及びM2/M3がth5未満である場合は非スクロールシーンであると判定する。 The determination unit 137 counts the number of blocks with movement M1 in the upward direction, the number of blocks M2 with movement in the downward direction, and the number of blocks with movement M3, and further counts the number of blocks D with a density difference. The determination unit 137 of the scene determination unit 13 determines that the scene is a scroll scene when M1 / D or M2 / D is th4 or more and M1 / M3 or M2 / M3 is a predetermined threshold value th5 or more. The determination unit 137 of the scene determination unit 13 determines that the scene is a non-scrolling scene when M1 / D and M2 / D are less than th4, or M1 / M3 and M2 / M3 are less than th5.

閾値th5は所定の閾値であり、予め設定される。th5は、0〜1の間の値で、1に近い値に設定するとよい。マージンを持たせても0.95くらいの大きい値でもよい。すなわち、図13に示されるスクロール画面の例2を想定し、スクロール部分の面積がフレーム内である程度の面積を占め、かつ動き有り部分とスクロール部分がほぼ同一の領域であって、スクロール部分以外で動いている領域はほぼ存在しない場合に、スクロールシーンであると判定することで、スクロールシーンの判定精度を高めている。 The threshold value th5 is a predetermined threshold value and is set in advance. th5 is a value between 0 and 1, and may be set to a value close to 1. It may have a margin or a large value of about 0.95. That is, assuming Example 2 of the scroll screen shown in FIG. 13, the area of the scroll portion occupies a certain area in the frame, and the moving portion and the scroll portion are substantially the same area, except for the scroll portion. When there is almost no moving area, it is determined that the scroll scene is a scroll scene, thereby improving the determination accuracy of the scroll scene.

なお、上方向への動き有りブロック抽出部133、下方向への動き有りブロック抽出部134、動き有りブロック抽出部136は、全て0を閾値として判定するとしたが、動きベクトル検出精度による誤差が生じる可能性を考慮し、例えば1を閾値として判定する等、マージンを持たせてもよい。 The block extraction unit 133 with movement in the upward direction, the block extraction unit 134 with movement in the downward direction, and the block extraction unit 136 with movement all determine 0 as a threshold value, but an error occurs due to the motion vector detection accuracy. In consideration of the possibility, a margin may be provided, for example, 1 may be determined as a threshold value.

図15に戻る。ステップS403d、ステップS404d、ステップS409及びステップS410が、第3の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S403d, step S404d, step S409 and step S410 are different from the third embodiment, the steps will be described below.

ステップS403dにおいて、動き有りブロック抽出部136は、動き有りブロックを抽出し(S403d)、判定部137は、動き有りブロック数M1をカウントする(S404d)。 In step S403d, the moving block extraction unit 136 extracts the moving blocks (S403d), and the determination unit 137 counts the number of moving blocks M1 (S404d).

ステップS409において、判定部137が、M1/D又はM2/Dがth4以上であると判定した場合は(S409のYES)、ステップS410に進み、M1/D及びM2/Dがth4未満であると判定した場合は(S409のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。 If the determination unit 137 determines in step S409 that M1 / D or M2 / D is th4 or more (YES in S409), the process proceeds to step S410, and M1 / D and M2 / D are less than th4. If it is determined (NO in S409), the scene determination unit 13 determines that the scene is a non-scrolling scene and completes the flow.

ステップS410において、判定部137が、M1/M3又はM2/M3がth5以上であると判定した場合は(S410のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。判定部137が、M1/M3及びM2/M3がth5未満と判定した場合は(S410のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。 In step S410, when the determination unit 137 determines that M1 / M3 or M2 / M3 is th5 or more (YES in S410), the scene determination unit 13 determines that the scene is a scroll scene and performs a flow. Complete. When the determination unit 137 determines that M1 / M3 and M2 / M3 are less than th5 (NO in S410), the scene determination unit 13 determines that the scene is a non-scrolling scene and completes the flow.

上述したように、第4の実施の形態によれば、画像処理システム1000は、動きベクトルによる上方向への動き有りブロック数、動きベクトルによる下方向への動き有りブロック数、動き有りブロック数及び濃度差があるブロック数に基づいてシーン判定をすることで、特にPCディスプレイ上でのウィンドウ内のみのスクロールに対するシーン判定の精度を高めることができる。 As described above, according to the fourth embodiment, the image processing system 1000 includes the number of blocks with upward movement due to the motion vector, the number of blocks with downward movement due to the motion vector, the number of blocks with movement, and the number of blocks with movement. By making a scene judgment based on the number of blocks having a density difference, it is possible to improve the accuracy of the scene judgment especially for scrolling only in the window on the PC display.

なお、動画の処理に関して、動画に音声が伴っている場合、即時処理して動画を出力しないと音声と動画に時間的なずれが生じるため、次々と入力される動画のフレームに対して、即時処理してフレーム補間した動画を出力する必要がある。第1の実施の形態から第4の実施の形態のいずれも、シーン判定部13は、該当ブロックを抽出して当該ブロック数をカウントし閾値判定する構成を有する。当該構成は、ヒストグラムを作成及び分析してシーン判定するといった従来手法に比べて簡易であり、即時性に優れている。 Regarding video processing, if the video is accompanied by audio, there will be a time lag between the audio and the video unless the video is processed immediately and the video is output. It is necessary to output a video that has been processed and frame-interpolated. In each of the first to fourth embodiments, the scene determination unit 13 has a configuration in which the corresponding block is extracted, the number of the blocks is counted, and the threshold value is determined. The configuration is simpler than the conventional method of creating and analyzing a histogram and determining a scene, and is excellent in immediacy.

なお、本発明の実施の形態において、動きベクトル検出部12は、検出部の一例である。シーン判定部13は、判定部の一例である。補間フレーム生成部15は、生成部の一例である。ユーザデバイス100は、画像処理装置の一例である。動き有りブロックは、動きがある領域の一例である。濃度差有りブロックは、濃度変化がある領域の一例である。 In the embodiment of the present invention, the motion vector detection unit 12 is an example of the detection unit. The scene determination unit 13 is an example of the determination unit. The interpolation frame generation unit 15 is an example of a generation unit. The user device 100 is an example of an image processing device. The moving block is an example of a moving area. The block with a concentration difference is an example of a region where the concentration changes.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the examples of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed.

1000 画像処理システム
100 ユーザデバイス
200 表示デバイス
201 投影装置
300 サーバ
101 CPU
102 表示装置
103 ROM
104 RAM
105 通信I/F
106 記憶装置
107 入出力I/F
11 蓄積部
12 動きベクトル検出部
13 シーン判定部
14 処理モード選択部
15 補間フレーム生成部
16 画像表示部
130 フレーム間差分算出部
131 濃度差有りブロック抽出部
132 判定部
133 上方向への動き有りブロック抽出部
134 下方向への動き有りブロック抽出部
135 判定部
136 動き有りブロック抽出部
137 判定部
1000 Image processing system 100 User device 200 Display device 201 Projection device 300 Server 101 CPU
102 Display device 103 ROM
104 RAM
105 Communication I / F
106 Storage device 107 I / O I / F
11 Accumulation unit 12 Motion vector detection unit 13 Scene judgment unit 14 Processing mode selection unit 15 Interpolation frame generation unit 16 Image display unit 130 Interframe difference calculation unit 131 Density difference block extraction unit 132 Judgment unit 133 Upward movement block Extraction unit 134 Downward movement Block extraction unit 135 Judgment unit 136 Movement Block extraction unit 137 Judgment unit

特開2011−130409号公報Japanese Unexamined Patent Publication No. 2011-130409

Claims (9)

入力される動画に含まれる複数フレームから動きベクトルを検出する検出部と、
前記複数フレームに基づいて、シーン種別を判定する判定部と、
前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、
前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、
前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する画像処理装置。
A detector that detects motion vectors from multiple frames included in the input video,
A determination unit that determines the scene type based on the plurality of frames,
Based on the scene type determined by the determination unit, it has a generation unit that determines whether or not to refer to the motion vector for generation of the interpolation frame and generates the interpolation frame of the moving image.
When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, the generation unit uses one of the plurality of frames as an interpolation frame without referring to the motion vector. Generate and
When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the generation unit weights and adds the plurality of frames to the interpolated frame. An image processing device that produces.
前記判定部は、前記複数フレーム間の差分から動きがある領域の数を計数し、前記動きがある領域の数から算出される面積に基づいて、シーン種別が前記スクロールシーンであるか否かを判定する請求項1記載の画像処理装置。 The determination unit counts the number of moving regions from the difference between the plurality of frames, and determines whether or not the scene type is the scroll scene based on the area calculated from the number of moving regions. The image processing apparatus according to claim 1. 前記判定部は、前記複数フレームのうちの1フレームにおいて濃度変化がある領域の数を計数し、前記濃度変化がある領域の数から算出される面積に対する前記動きがある領域の数から算出される面積の比率に基づいて、シーン種別が前記スクロールシーンであるか否かを判定する請求項2記載の画像処理装置。 The determination unit counts the number of regions having a density change in one of the plurality of frames, and is calculated from the number of regions having the movement with respect to the area calculated from the number of regions having the density change. The image processing apparatus according to claim 2, wherein it is determined whether or not the scene type is the scroll scene based on the area ratio. 前記判定部は、前記複数フレーム間の差分から動きがある領域のグループの数を計数し、前記グループの数が2である場合、シーン種別をマウスカーソルが移動するポインタシーンであると判定する請求項2又は3記載の画像処理装置。 The determination unit counts the number of groups in a moving region from the difference between the plurality of frames, and when the number of the groups is 2, it determines that the scene type is a pointer scene in which the mouse cursor moves. Item 2. The image processing apparatus according to item 2 or 3. 前記判定部は、前記動きベクトルのうち、上方向への動きを示す動きベクトル又は下方向への動きを示す動きベクトルに基づいて、前記スクロールシーンであるか否かを判定する請求項1記載の画像処理装置。 The first aspect of claim 1, wherein the determination unit determines whether or not the scroll scene is based on a motion vector indicating an upward movement or a motion vector indicating a downward movement among the motion vectors. Image processing device. 前記判定部は、前記複数フレームのうちの1フレームにおいて濃度変化がある領域の数を計数し、前記濃度変化がある領域の数に対する上方向への動きを示す動きベクトルの数の比率、又は前記濃度変化がある領域の数に対する下方向への動きを示す動きベクトルの数の比率に基づいて、前記スクロールシーンであるか否かを判定する請求項5記載の画像処理装置。 The determination unit counts the number of regions having a density change in one of the plurality of frames, and is the ratio of the number of motion vectors indicating upward movement to the number of regions having a density change, or the said. The image processing apparatus according to claim 5 , wherein it is determined whether or not the scene is a scroll scene based on the ratio of the number of motion vectors indicating the downward motion to the number of regions having a density change. 前記判定部は、前記動きベクトルから動きがある領域の数を計数し、前記動きがある領域の数に対する上方向への動きを示す動きベクトルの数の比率、又は前記動きがある領域の数に対する下方向への動きを示す動きベクトルの数の比率に基づいて、前記スクロールシーンであるか否かを判定する請求項5記載の画像処理装置。 The determination unit counts the number of motion regions from the motion vector, and the ratio of the number of motion vectors indicating upward movement to the number of motion regions, or the number of motion regions. The image processing apparatus according to claim 5 , wherein it is determined whether or not the scene is a scroll scene based on the ratio of the number of motion vectors indicating the downward movement. 入力される動画に含まれる複数フレームから動きベクトルを検出する検出手順と、
前記複数フレームに基づいて、シーン種別を判定する判定手順と、
前記判定手順により判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成手順と、
記判定手順によりシーン種別が画面の一部又は全部が移動するスクロールシーンであると判定された場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成する手順と、
前記判定手順によりシーン種別が前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定された場合、前記複数フレームを重み付け加算して補間フレームを生成する手順とを実行する画像処理方法。
A detection procedure that detects motion vectors from multiple frames included in the input video,
Judgment procedure for determining the scene type based on the plurality of frames and
Based on the scene type determined by the determination procedure, it is determined whether or not to refer to the motion vector for generating the interpolation frame, and the generation procedure for generating the interpolation frame of the moving image and the generation procedure.
If a scene type is determined to some or all of the screen is scrolled scene moved by prior Symbol judging procedure, a procedure for generating one of said plurality of frames without reference to the motion vector as the interpolation frame When,
When it is determined by the determination procedure that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the plurality of frames are weighted and added to generate an interpolation frame. Image processing method to execute and.
サーバと、ネットワークを介して前記サーバと接続される画像処理装置とを含む画像処理システムであって、
前記サーバは、
動画を前記ネットワークを介して前記画像処理装置に送信する送信部を有し、
前記画像処理装置は、
受信された前記動画に含まれる複数フレームから動きベクトルを検出する検出部と、
前記複数フレームに基づいて、シーン種別を判定する判定部と、
前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、
前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、
前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する画像処理システム。
An image processing system including a server and an image processing device connected to the server via a network.
The server
It has a transmitter that transmits a moving image to the image processing device via the network.
The image processing device is
A detector that detects motion vectors from a plurality of frames included in the received moving image,
A determination unit that determines the scene type based on the plurality of frames,
Based on the scene type determined by the determination unit, it has a generation unit that determines whether or not to refer to the motion vector for generation of the interpolation frame and generates the interpolation frame of the moving image.
When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, the generation unit uses one of the plurality of frames as an interpolation frame without referring to the motion vector. Generate and
When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the generation unit weights and adds the plurality of frames to the interpolated frame. An image processing system that produces.
JP2017050891A 2017-03-16 2017-03-16 Image processing equipment, image processing method and image processing system Active JP6866707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050891A JP6866707B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing method and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050891A JP6866707B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing method and image processing system

Publications (2)

Publication Number Publication Date
JP2018157299A JP2018157299A (en) 2018-10-04
JP6866707B2 true JP6866707B2 (en) 2021-04-28

Family

ID=63718338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050891A Active JP6866707B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP6866707B2 (en)

Also Published As

Publication number Publication date
JP2018157299A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
US20210281771A1 (en) Video processing method, electronic device and non-transitory computer readable medium
CN106980510B (en) Window self-adaption method and device of player
CN101815197B (en) Image display system, image display apparatus, and control method for image display apparatus
JP2004312680A (en) Motion estimation apparatus and method for detecting scrolling text or graphic data
JP2004350281A (en) Deinterlace method and deinterlace apparatus for video signal
US11030715B2 (en) Image processing method and apparatus
KR20200079697A (en) Image processing apparatus and image processing method thereof
KR101855057B1 (en) Fire alarm system and method
AU2021360753A1 (en) Video stream manipulation
US9082203B2 (en) Image processing system for image resizing based upon operational feedback parameters and related methods
JP4991360B2 (en) Frame rate conversion device and video display device
WO2015165023A1 (en) Screen sharing method, device and system
KR101791917B1 (en) Method for automatically converting normal video to virtual reality video and device using the same
WO2013008374A1 (en) Moving image area detection device
TW484112B (en) Method and apparatus for past and future motion classification
JP6866707B2 (en) Image processing equipment, image processing method and image processing system
KR100813986B1 (en) Method for motion adaptive deinterlacing and apparatus thereof
CN109491565B (en) Method and equipment for displaying component information of object in three-dimensional scene
JPWO2011067869A1 (en) Image processing apparatus and image processing method
JP2015191630A (en) Information processing device, change detection method and change detection program
US10109077B2 (en) Image generation device and display device
CN107483940B (en) A kind of screen video coding method based on screen change detection
JP2019176218A (en) Frame interpolation device and frame interpolation method
RU2732989C2 (en) Method, device and system for generating a video signal
CN101903907A (en) Edge directed image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R151 Written notification of patent or utility model registration

Ref document number: 6866707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151