JP6866707B2 - Image processing equipment, image processing method and image processing system - Google Patents
Image processing equipment, image processing method and image processing system Download PDFInfo
- Publication number
- JP6866707B2 JP6866707B2 JP2017050891A JP2017050891A JP6866707B2 JP 6866707 B2 JP6866707 B2 JP 6866707B2 JP 2017050891 A JP2017050891 A JP 2017050891A JP 2017050891 A JP2017050891 A JP 2017050891A JP 6866707 B2 JP6866707 B2 JP 6866707B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- frame
- determination unit
- frames
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Television Systems (AREA)
Description
本発明は、画像処理装置、画像処理方法及び画像処理システムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing system.
動画内の連続する2フレーム間の動きベクトルをブロックごとに検出し、動きベクトルを用いて補間フレームを生成し、元のフレーム間に挿入することで高フレームレート化するフレーム補間技術が既に知られている。フレーム補間が使われるケースは、例えば、PCディスプレイ表示画像を所定フレームレートで読み出し、ネットワークを介してリアルタイムで遠隔地に送信し、同じ画像を共有しながら会議を行うシステムにおいて、リアルタイムでの送受信を可能にするため低フレームレートの少ないデータ量で送信し、受信側でフレーム補間により高フレームレート化するケースがある。また例えば、PCと接続してPCから送られてきた動画をスクリーンに投影するプロジェクタにおいて、動画の動きをより滑らかに見せるために、プロジェクタにてフレーム補間を行い高フレームレート化した画像を表示するケースがある。 A frame interpolation technology that detects a motion vector between two consecutive frames in a moving image for each block, generates an interpolation frame using the motion vector, and inserts it between the original frames to increase the frame rate is already known. ing. In cases where frame interpolation is used, for example, in a system in which an image displayed on a PC display is read at a predetermined frame rate, transmitted to a remote location in real time via a network, and a conference is held while sharing the same image, transmission / reception in real time is performed. In order to make it possible, there are cases where a small amount of data with a low frame rate is transmitted and the frame rate is increased by frame interpolation on the receiving side. Further, for example, in a projector that is connected to a PC and projects a moving image sent from the PC onto a screen, in order to make the movement of the moving image appear smoother, the projector performs frame interpolation to display a high frame rate image. There is a case.
動きベクトル検出は、画像内に複数の動きが存在するケース、又は複数の動きが交差するケースで誤検出しやすくなり、補間画像に破綻が生じる恐れがある。そこで、補間画像の破綻を防ぐ1つの方法として、検出された動きベクトルからスクロールシーンであるか否かを判定し、スクロールシーンである場合はブロック毎の動きベクトルからフレーム全体の動きを示すスクロールベクトルを検出してスクロールベクトルを用いて補間フレーム生成するフレーム補間技術が既に知られている(例えば、特許文献1)。 The motion vector detection tends to be erroneously detected in the case where a plurality of motions exist in the image or the case where the plurality of motions intersect, and the interpolated image may be broken. Therefore, as one method of preventing the collapse of the interpolated image, it is determined from the detected motion vector whether or not it is a scroll scene, and in the case of a scroll scene, a scroll vector indicating the motion of the entire frame from the motion vector of each block. A frame interpolation technique for detecting an object and generating an interpolation frame using a scroll vector is already known (for example, Patent Document 1).
しかしながら、従来のスクロールシーンに対するスクロールベクトルを用いたフレーム補間は、主にカメラで撮影された自然画を対象としており、PC(Personal Computer)のディスプレイに表示されるようなオフィス文書を対象としたものではないため、ディスプレイ表示上では静止しているはずのマウスカーソル又はアプリケーションウィンドウ画面の外枠が補間フレームでは動いてしまい振動しているように見えるといった画質異常が発生する問題があった。 However, frame interpolation using a scroll vector for a conventional scroll scene mainly targets natural images taken by a camera, and targets office documents such as those displayed on a PC (Personal Computer) display. Therefore, there is a problem that an image quality abnormality occurs such that the mouse cursor or the outer frame of the application window screen, which should be stationary on the display display, moves in the interpolation frame and appears to be vibrating.
本発明は、上記の点に鑑みてなされたものであって、文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐことを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to prevent the occurrence of image quality abnormality due to frame interpolation when an office document containing characters and figures and tables is scrolled on a display screen.
そこで上記課題を解決するため、画像処理装置は、入力される動画に含まれる複数フレームから動きベクトルを検出する検出部と、前記複数フレームに基づいて、シーン種別を判定する判定部と、前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する。 Therefore, in order to solve the above problem, the image processing device includes a detection unit that detects a motion vector from a plurality of frames included in the input moving image, a determination unit that determines the scene type based on the plurality of frames, and the determination. Based on the scene type determined by the unit, it is determined whether or not to refer to the motion vector for generating the interpolation frame, and the generation unit has a generation unit for generating the interpolation frame of the moving image. When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, one of the plurality of frames is generated as an interpolation frame without referring to the motion vector, and the generation is performed. When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the unit generates an interpolation frame by weighting and adding the plurality of frames. To do.
文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐ。 Prevents image quality abnormalities due to frame interpolation when an office document containing characters and charts is scrolled on the display screen.
以下、図面に基づいて本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、第1の実施の形態における画像処理システム1000の構成例を示す図である。図1に示されるように、画像処理システム1000は、ユーザデバイス100a、ユーザデバイス100b、ユーザデバイス100c、表示デバイス200、投影装置201、サーバ300及びネットワークを含む。
FIG. 1 is a diagram showing a configuration example of the
ユーザデバイス100a、ユーザデバイス100b、ユーザデバイス100c(以下、それぞれを区別しない場合「ユーザデバイス100」という。)は、例えば、PC(Personal Computer)、タブレット又はスマートフォン等である。ユーザデバイス100は、ネットワークを介して、他のユーザデバイス100及びサーバ300と接続されている。ユーザデバイス100は、ネットワークを介して、他のユーザデバイス100及びサーバ300から動画データを受信して、補間処理を行い(詳細は後述)、表示デバイス200、投影装置201又はユーザデバイス100に含まれる表示装置において、補間処理後の動画を表示する。
The
表示デバイス200は、例えば、大画面液晶表示装置であり、ユーザデバイス100から出力される信号を受けて、画像を表示する。なお、表示デバイス200は、直接ネットワークと接続されて、ユーザデバイス100又はサーバ300から動画データを受信してもよい。
The
投影装置201は、例えば、プロジェクタであり、ユーザデバイス100から出力される信号を受けて、画像を表示する。なお、投影装置201は、直接ネットワークと接続されて、ユーザデバイス100又はサーバ300から動画データを受信してもよい。
The
サーバ300は、例えば、テレビ会議の多地点制御装置である。サーバ300は、カメラ画像及びオフィス文書等が表示されたPC画面の動画データをネットワークを介してユーザデバイス100に送信する。すなわち、サーバ300は、動画データを送信する機能を実現する送信部を有する。
The
図2は、第1の実施の形態におけるユーザデバイス100のハードウェア構成例を示す図である。図2に示されるように、ユーザデバイス100は、それぞれ相互に接続されているCPU(Central Processing Unit)101、表示装置102、ROM(Read Only Memory)103、RAM(Random Access Memory)104、通信I/F105、記憶装置106及び入出力I/F107等を有する。
FIG. 2 is a diagram showing a hardware configuration example of the
ユーザデバイス100での処理を実現するプログラムは、ROM103又は記憶装置106に格納される。ROM103又は記憶装置106は、インストールされたプログラムを格納すると共に、必要なデータを格納する。記憶装置106は、例えば、外部記憶媒体がユーザデバイス100に装着されたものであってもよい。
The program that realizes the processing in the
RAM104は、プログラムの起動指示があった場合に、ROM103又は記憶装置106からプログラムを読み出して格納する。CPU101は、RAM104に格納されたプログラムに従ってユーザデバイス100に係る機能を実現する。
The
表示装置102は、ユーザデバイスが有する表示装置であり、例えば、液晶ディスプレイである。
The
通信I/F105は、他のPCユーザデバイス100又はサーバ300等とネットワークを介して通信を行うための有線又は無線のインタフェースである。
The communication I /
入出力I/F107は、USB(Universal Serial Bus)機器、ハードウェアキー、状態通知用LED、液晶ディスプレイ等の様々な入出力装置との接続を行うためのインタフェースである。
The input / output I /
なお、表示デバイス200、投影装置201及びサーバ300も図2と同様のハードウェア構成を有していてもよい。
The
図3は、第1の実施の形態におけるユーザデバイス100の機能構成例を示す図である。図3に示されるように、ユーザデバイス100は、蓄積部11、動きベクトル検出部12、シーン判定部13、処理モード選択部14、補間フレーム生成部15及び画像表示部16を含む。これら各部は、ユーザデバイス100にインストールされた1以上のプログラムがCPU101に実行させる処理により実現される。また、蓄積部11はさらに通信I/F105、処理モード選択部14及び画像表示部16は入出力I/F107を用いて実現可能である。
FIG. 3 is a diagram showing a functional configuration example of the
蓄積部11は、ネットワークから時系列で順次入力される動画の最新フレームから連続する過去フレームまで遡って所定のフレーム数分蓄積する。フレームは、例えば、所定の水平解像度及び垂直解像度を有し、1ドットがRGBの3色で、各色の色深度は8bitであるカラー画像データである。色深度のビット数は、8bitに限られず16bit等さらに大きくてもよい。また、フレームは、YUV(YCbCr)のような輝度色差信号のデータ形式で記録されていてもよい。
The
動きベクトル検出部12は、蓄積部11から読み出した複数のフレームに基づいて、動きベクトルを検出する。本実施の形態では、最新フレームと1つ前のフレームの2枚から動きベクトルを検出するものとするが、非線形な動きや複数の動きが交差する複雑なケースに対応できるよう3フレーム以上を使って動きベクトルを検出する既存の方法もあり、当該既存の方法を本実施の形態に用いてもよい。
The motion
シーン判定部13は、蓄積部11から読み出した複数のフレーム及び動きベクトル検出部12で検出された動きベクトルに基づいて、シーン種別を判定する。本実施の形態において、シーン種別は、画面の一部又は全部が移動する状態に対応するスクロールシーン、スクロールしていない状態でマウスカーソルだけが動いているポインタシーン、スクロールシーン又はポインタシーン以外のシーンが含まれる。
The
処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードと、自然画向けの第2の処理モードを含む、複数処理モードのうちいずれかを選択する。処理モードは、ユーザによって選択されてもよい。
The processing
補間フレーム生成部15は、選択された処理モード及びシーン判定結果に応じた方法で、最新フレームと1つ前のフレームの間に挿入する補間フレームを生成する。
The interpolation
画像表示部16は、入力されたフレーム間に補間フレームが挿入された動画を、表示デバイス200、投影装置201又はユーザデバイス100に含まれる表示装置に、補間処理後の動画を順次出力又は表示する。
The
図4は、第1の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。図4において、入力される動画のフレームの画素は、RGB各8bitで構成され、処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードが選択されているものとする。なお、ブロック(Xi,Yi)に関して、Xiは、フレーム内を構成するブロックの水平方向の座標を示し、Yiは、フレーム内を構成するブロックの垂直方向の座標を示す。ブロックは、例えば、水平方向32画素、垂直方向32画素で構成される。なお、フレームの水平方向はXn個のブロック、フレームの垂直方向はYn個のブロックで構成されているものとし、Xiは0からXn−1、Yiは0からYn−1の整数値をとる。
FIG. 4 is a flowchart for explaining an example of a procedure for determining a scene in the first embodiment. In FIG. 4, the pixels of the frame of the input moving image are composed of 8 bits each of RGB, and the processing
ステップS101において、シーン判定部13は、初期化を実行する。シーン判定部13は、Xi=0、Yi=0とする。また、シーン判定部13は、動き有りブロック数S=0、濃度差有りブロック数D=0とする。動き有りブロック数は、第N−1フレーム及び第Nフレームにおける同一座標(Xi,Yi)のブロック内の同一座標の画素を比較して、所定の変化が検出されたブロックの数である。第Nフレームは、動画データのうち時系列でN番目のフレームであり、第N−1フレームは、N番目のフレームの直前のフレームである。濃度差有りブロック数Sは、第N−1フレームにおけるブロック(Xi,Yi)内の画素を比較して、所定の変化が検出されたブロックの数である。
In step S101, the
続いて、シーン判定部13は、蓄積部11から第Nフレーム及び第N−1フレームのブロック(Xi,Yi)を読み込む(S102)。
Subsequently, the
続いて、シーン判定部13は、代表差分値算出(S103a)及び濃度差有りブロック抽出(S103b)を行う。ステップS103a及びS104aと、ステップS103b及びS104bとは、ブロック(Xi,Yi)に関する独立した処理であって、並行して行われてもよい。
Subsequently, the
図5は、第1の実施の形態におけるシーン判定部13の機能を説明するための図である。図5に示されるように、シーン判定部13は、フレーム間差分算出部130、濃度差有りブロック抽出部131、判定部132を有する。
FIG. 5 is a diagram for explaining the function of the
フレーム間差分算出部130は、第N−1フレーム及び第Nフレームのブロック(Xi,Yi)について、画素ごとに第N−1フレーム及び第Nフレーム間の差分絶対値を算出し、ブロック(Xi,Yi)内におけるRの差分絶対値の最大値、Gの差分絶対値の最大値及びBの差分絶対値の最大値の中で、最大の値を代表差分値として算出する。
The inter-frame
濃度差有りブロック抽出部131は、第N−1フレームのブロック(Xi,Yi)内の画素に関して、Rの最大値とRの最小値の差分が所定の閾値th1以上であるか、Gの最大値とGの最小値の差分がth1以上であるか、Bの最大値とBの最小値の差分がth1以上であるかのいずれかを満たせば、当該ブロック(Xi,Yi)を、濃度差有りブロックとして抽出する。
The
判定部132は、フレーム間差分算出部130から出力される代表差分値と所定の閾値th2とを比較して、代表差分値がth2以上であれば、当該ブロック(Xi,Yi)を動き有りブロックと判定し、動き有りブロック数Sを1増やす。また、判定部132は、濃度差有りブロック抽出部131から出力される濃度差有りブロック抽出結果に基づいて、濃度差有りブロック数Dを1増やす。
The
図4に戻る。ステップS104aにおいて、判定部132は、動き有りブロック数Sをカウントする。ステップS104bにおいて、判定部132は、濃度差有りブロック数Dをカウントする。
Return to FIG. In step S104a, the
続いて、シーン判定部13は、Xi=Xn−1であるか否かを判定し、XiがXn−1に等しい場合(S105のYES)、すなわち、フレーム内ラインの水平方向のブロックが既にすべて読み込まれていた場合、ステップS107に進み、XiがXn−1に等しくない場合(S105のNO)、すなわち、フレーム内ラインの水平方向のブロックがまだすべて読み込まれていない場合、ステップS106に進む。
Subsequently, the
ステップS106において、シーン判定部13は、Xi=Xi+1として、ステップS102に進む。すなわち、シーン判定部13は、次のステップS102において、水平方向で次のブロックを読み込む。
In step S106, the
ステップS107において、シーン判定部13は、Yi=Yn−1であるか否かを判定し、YiがYi−1に等しい場合(S107のYES)、すなわち、フレーム内のブロックが既にすべて読み込まれていた場合、ステップS109に進み、YiがYi−1に等しくない場合(S107のNO)、すなわち、次に読み込むフレーム内ラインが存在する場合、ステップS108に進む。
In step S107, the
ステップS108において、シーン判定部13は、Xi=0、Yi=Yi+1として、ステップS102に進む。すなわち、シーン判定部13は、次のステップS102において、垂直方向で次のブロックであって、水平方向で先頭のブロックを読み込む。
In step S108, the
ステップS109において、判定部132は、カウントされた動き有りブロック数S、カウントされた濃度差有りブロック数Dについて、S/Dが所定の閾値th3以上か否かを判定する。すなわち、判定部132は、濃度差有りブロックの面積に対する動き有りブロックの面積から求められる比率に基づく判定を行う。S/Dが所定の閾値th3以上である場合(S109のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。S/Dが所定の閾値th3未満である場合(S109のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。
In step S109, the
なお、所定の閾値th1、th2及びth3は、予め設定される。th1及びth2は、0から255の値をとりうるが、いずれも比較的小さな30前後の値としてもよい。入力されるフレーム画像は、圧縮又は伸長された画像であるケースが多いため、圧縮又は伸長で発生したノイズに反応して誤判定しないように0に対してマージンをとった値としてもよい。th3は、0〜1の間で、0.7前後の比較的大きな値に設定してもよい。 The predetermined threshold values th1, th2, and th3 are set in advance. Although th1 and th2 can take values from 0 to 255, both may be relatively small values of around 30. Since the input frame image is often a compressed or decompressed image, a value with a margin of 0 may be used so as not to make a false determination in response to noise generated by compression or decompression. th3 may be set to a relatively large value of around 0.7 between 0 and 1.
図6は、第1の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。図6において、処理モード選択部14は、文字及び図表が含まれるオフィス文書向けの第1の処理モードが選択されているものとする。
FIG. 6 is a flowchart for explaining an example of a procedure for generating an interpolated frame according to the first embodiment. In FIG. 6, it is assumed that the processing
ステップS121において、補間フレーム生成部15は、図4に示されるステップS109でシーン判定の結果、スクロールシーンと判定された場合(S121のYES)、ステップS122に進み、非スクロールシーンと判定された場合(S121のNO)、ステップS123に進む。
In step S121, when the interpolation
ステップS122において、補間フレーム生成部15は、1つ前のフレームをコピーしたものを補間フレームとして生成し、フローを完了する。
In step S122, the interpolation
ステップS123において、補間フレーム生成部15は、動きベクトルを用いて補間フレームを生成し、フローを完了する。動きベクトルを用いる補間フレームの生成は、従来のフレーム補完技術を用いてよい。
In step S123, the interpolation
図7は、第1の実施の形態における補間フレーム生成部15の動作例を説明するための図である。図7において、補間フレーム生成部15が、オフィス文書の入力フレーム間に1枚ずつ生成した補間フレームを挿入する具体的な動作例が示されている。
FIG. 7 is a diagram for explaining an operation example of the interpolation
順次入力される(a)入力画像に対して、(b)従来のフレーム補間後の動画は、補間フレームにおいて、マウスカーソルが背景のスクロールと同様にスクロールベクトルによって上方向に移動されて表示されるため(第1フレームと第2フレームの補間フレーム、第2フレームと第3フレームの補間フレーム)、マウスカーソルが上下に振動して画質異常となる。(b)において、入力された第1フレームに対して、補間フレームである2番目のフレームではマウスカーソルが上に移動している。入力された第2フレームではマウスカーソルが下に戻り、補間フレームである4番目のフレームでは再度マウスカーソルが上に移動している。入力された第3フレームでは再度下に戻る。同様に、図7には図示していないが、アプリケーションウィンドウ画面の外枠も振動する。 For (a) input images that are sequentially input, (b) the moving image after conventional frame interpolation is displayed by moving the mouse cursor upward by the scroll vector in the same way as scrolling the background in the interpolated frame. Therefore (interpolation frames of the first frame and the second frame, interpolation frames of the second frame and the third frame), the mouse cursor vibrates up and down, resulting in abnormal image quality. In (b), the mouse cursor is moved up in the second frame, which is an interpolation frame, with respect to the input first frame. In the input second frame, the mouse cursor returns to the bottom, and in the fourth frame, which is the interpolation frame, the mouse cursor moves up again. In the input third frame, it returns to the bottom again. Similarly, although not shown in FIG. 7, the outer frame of the application window screen also vibrates.
一方、(c)第1の実施の形態のフレーム補間後の動画において、補間フレーム生成部15は、スクロールシーンと判定された第1フレーム、第2フレーム、第3フレームに対して補間フレームを生成する場合、1つ前のフレームをコピーしたものを補間フレームとする(第1フレームと第2フレームの補間フレーム、第2フレームと第3フレームの補間フレーム)。非スクロールシーンと判定された場合は、従来技術と同様に前後のフレームから動きベクトルを用いて補間フレームを生成する(第3フレームと第4フレームの補間フレーム)。したがって、(c)第1の実施の形態のフレーム補間後の動画は、スクロールシーンでマウスカーソルは動かない。したがって、(c)の動画においては、(b)で発生していた画質異常が発生しない。なお、図中のポインタシーンについては第2の実施の形態で説明する。
On the other hand, in the moving image after frame interpolation of the first embodiment (c), the interpolation
上述したように、第1の実施の形態によれば、画像処理システム1000は、フレーム間の差分ブロック数及び濃度差があるブロック数に基づいたシーン判定の結果に基づいて、補間フレームの生成方法を変えることで、従来の補間フレームの生成方法では発生していた画質異常を防ぐことができる。すなわち、文字及び図表が含まれるオフィス文書が表示画面上でスクロールされるとき、フレーム補間による画質異常の発生を防ぐことができる。
As described above, according to the first embodiment, the
図8は、第2の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第2の実施の形態では第1の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第1の実施の形態と同様でもよい。 FIG. 8 is a flowchart for explaining an example of a procedure for determining a scene in the second embodiment. The second embodiment will be described which is different from the first embodiment. Therefore, the same as in the first embodiment may be used without particular mention.
ステップS201において、シーン判定部13は、初期化を実行する。図4に示されるステップS101の初期化に加えて、動き有りブロックのグループ数cnt=0とする。動き有りブロックのグループ数は、フレームにおいて、近接しているブロックの所定の範囲(例えば、2×2ブロック)については、動き有りブロック数が複数検出された場合であっても1としてカウントした数である。
In step S201, the
図9は、第2の実施の形態におけるシーン判定部13の機能を説明するための図である。第2の実施の形態においては、シーン判定部13の判定部132は、1)スクロールシーン、2)マウスカーソルを動かしているポインタシーン、3)その他のシーン、以上の3つのシーンのいずれであるかシーン判定を行う。1)スクロールシーンの判定は第1の実施の形態と同様である。第1の実施の形態で非スクロールシーンと判定されるケースの中から2)ポインタシーンを判定し、ポインタシーン以外のケースを3)その他のシーンと判定する。
FIG. 9 is a diagram for explaining the function of the
判定部132にて、2)ポインタシーンを判定する方法を以下説明する。図9に示される斜線網掛けのブロックを動き有りブロックとすると、破線で囲まれる所定ブロック数の範囲内(例えば2×2ブロック以内)で構成される動き有りブロックのグループが、フレーム内に2つ存在する場合に、ポインタシーンであると判定する。第N−1フレームで左下の2ブロックに係る位置にあったマウスカーソルが、第Nフレームで右上の2ブロックに掛かる位置に移動した場合、または、第N−1フレームで右上の2ブロックに掛かる位置にあったマウスカーソルが第Nフレームで左下の2ブロックに掛かる位置に移動した場合に、図9に示されるような動き有りブロックが検出され、動き有りブロックのグループ数は2とカウントされる。
The method of determining 2) the pointer scene by the
判定部132が、近接しているブロックの所定の範囲で構成される動き有りブロックのグループが、フレーム内に2つ存在するか否かを判定する具体的な方法について以下説明する。シーン判定部13は、動き有りブロックのグループをカウントする変数をcntとし、cnt=0に初期化する。シーン判定部13は、(X,Y)=(0,0)のブロックからX軸方向に1ライン走査し、終わったらYに1加算して、次のラインを走査する。判定部132は、動き有りブロックを検出した場合、cntに1加算する。当該動き有りブロックの座標を(X,Y)=(x1,y1)とすると、(x1+1,y1)、(x1,y1+1)、(x1+1,y1+1)の3ブロックに関しては、判定部132は、動き有りブロックが検出されてもcntに1加算する処理をしない。フレームの最後まで走査完了した時点でcnt=2であれば、動き有りブロックのグループがフレーム内に2つ存在することが判定できる。
A specific method for the
図8に戻る。ステップS204c及びステップS210が、第1の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S204c and step S210 are different from the first embodiment, the steps will be described below.
ステップS204cにおいて、判定部132は、動き有りブロックのグループ数cntをカウントする。ステップS204aにおいて、動き有りブロック数Sがカウントされるため、Sに基づいて、cntはカウント可能である。また、ステップS204cは、ステップS203b及びステップS204bと並行して行われてもよい。
In step S204c, the
ステップS210において、判定部132は、cnt=2であるか否かを判定する。cntが2である場合(S210でYES)、シーン判定部13は、シーンをポインタシーンであると判定してフローを完了する。cntが2ではない場合、シーン判定部13は、シーンをその他のシーンであると判定してフローを完了する。
In step S210, the
図10は、第2の実施の形態における補間フレームを生成する手順の一例を説明するためのフローチャートである。ステップS223〜S225が、第1の実施の形態と異なるため、当該ステップを以下説明する。 FIG. 10 is a flowchart for explaining an example of a procedure for generating an interpolated frame in the second embodiment. Since steps S223 to S225 are different from the first embodiment, the steps will be described below.
ステップS223において、シーン判定部13が、シーン判定の結果がポインタシーンであると判定した場合(S223のYES)、ステップS224に進む。シーン判定部13が、シーン判定の結果がポインタシーンではないと判定した場合(S223のNO)、ステップS225に進む。
If the
ステップS224において、補間フレーム生成部15は、動きベクトルを用いて補間フレームを生成し、フローを完了する。動きベクトルを用いる補間フレームの生成は、従来のフレーム補完技術を用いてよい。
In step S224, the interpolation
ステップS225において、補間フレーム生成部15は、前後のフレームを重みづけ加算した補間フレームを生成し、フローを完了する。重みづけ加算した補間フレームの生成は、従来のフレーム補間技術を用いてよい。例えば、図7に示されるように、入力フレーム間に1フレームを挿入する場合は、前後のフレームにそれぞれ1/2の重みをつけて加算したもの、すなわち平均画像が補間フレームとなる。また、入力フレーム間に2フレームずつ挿入する場合は、1枚目の補間フレームは、前のフレームに2/3の重み、後ろのフレームに1/3の重みを付けて加算した画像となり、2枚目の補間フレームは、前のフレームに1/3の重み、後ろのフレームに2/3の重みを付けて加算した画像となる。その他のシーンとして判定されるケースに、例えば、マウスのドラッグ操作シーンがある。マウスのドラッグ操作シーンは、重みづけ加算による補間フレーム生成により、比較的動きが自然に見え違和感の少ない動画となることが知られている。
In step S225, the interpolation
上述したように、第2の実施の形態によれば、画像処理システム1000は、フレーム間の差分ブロック数、フレーム間の差分ブロックのグループ数及び濃度差があるブロック数に基づいたシーン判定の結果に基づいて、補間フレームの生成方法を変えることで、マウスカーソルの表示に適した画面表示を行うことができる。
As described above, according to the second embodiment, the
図11は、第3の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第3の実施の形態では第1の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第1の実施の形態と同様でもよい。 FIG. 11 is a flowchart for explaining an example of a procedure for determining a scene in the third embodiment. The third embodiment will be described which is different from the first embodiment. Therefore, the same as in the first embodiment may be used without particular mention.
ステップS301において、シーン判定部13は、初期化を実行する。図4に示されるステップS101の初期化と同様に、Xi=0、Yi=0、D=0とする。さらに、上方向への動き有りブロック数M1=0、下方向への動き有りブロック数M2=0とする。動き有りブロック数は、動きベクトルに基づいて上方向又は下方向への動きを検出されたブロックの数である。
In step S301, the
図12は、第3の実施の形態における動きベクトル検出部12について説明するための図である。動きベクトル検出に関しては幾つか既存の方法が知られているが、第3の実施の形態では、ブロックマッチングによる方法で行うものとする。第N−1フレームが最新フレームの1つ前のフレーム、第Nフレームが最新フレームとする。ブロックマッチングによる方法は、フレーム内を所定画素数(例えば32x32画素)で構成されるブロックに分割し、第N−1フレームのブロックと相関の高い第Nフレームのブロックを探す。図12に示される斜線で塗りつぶしたブロック同士の相関が高いとすると、動きベクトルは、第N−1フレームの斜線ブロックの位置から第Nフレームの斜線ブロックの位置へと延びた矢印で示される。動きベクトル(Vx,Vy)をブロック単位の座標で表すと、(0,−2)となる。すなわち、Y方向に−2ブロック分の動きが検出されている。このようにして、動きベクトル検知を第Nフレームの全ブロックに関して行う。
FIG. 12 is a diagram for explaining the motion
図13は、オフィス文書におけるスクロールの例を示す図である。図13に示されるように、PCのディスプレイ表示画像に重ねて、動きベクトルを図示したものである。動きベクトルが表示されている領域には、文字又は図表が描画されているものとする。 FIG. 13 is a diagram showing an example of scrolling in an office document. As shown in FIG. 13, the motion vector is illustrated by superimposing it on the display display image of the PC. It is assumed that characters or charts are drawn in the area where the motion vector is displayed.
図13に示されるスクロール画面の例1は、オフィス文書がPCのディスプレイに全画面表示された場合の例である。アプリケーションのウィンドウの枠及びマウスカーソル以外の画像がスクロールされて、下方向に動いている。また、図13に示されるスクロール画面の例2は、全画面表示ではない場合の例である。スクロールで下方向に動いているのはウィンドウの枠の内側だけであり、ウィンドウの枠の外側は壁紙又はアイコン画像が静止したままの状態で表示される。オフィス文書のスクロールにおいては、オフィス文書を読み進めるため、下方向へのスクロールが想定される。また、オフィス文書の表示を前の状態に戻すために逆方向である上方向へのスクロールも想定される。 Example 1 of the scroll screen shown in FIG. 13 is an example in which the office document is displayed in full screen on the display of the PC. Images other than the application window frame and mouse cursor are scrolled and moving downward. Further, the scroll screen example 2 shown in FIG. 13 is an example in the case where the scroll screen is not displayed in full screen. Only the inside of the window frame is scrolling downward, and the outside of the window frame is displayed with the wallpaper or icon image still. When scrolling an office document, it is assumed that the office document is scrolled downward in order to read the office document. In addition, scrolling upward, which is the opposite direction, is also assumed in order to return the display of the office document to the previous state.
図14は、第3の実施の形態におけるシーン判定部13について説明するための図である。第3の実施の形態においては、シーン判定部13の判定部135は、動きベクトルを用いてシーンを判定することにより判定精度を高める。なお、第N−1フレームが最新フレームの1つ前のフレーム、第Nフレームが最新フレームとする。
FIG. 14 is a diagram for explaining the
上方向への動き有りブロック抽出部133は、第N−1フレームの各ブロックの動きベクトルを参照して、動きベクトル(Vx,Vy)がVx=0かつVy<0ならば、上方向への動き有りブロックとして抽出する。下方向への動き有りブロック抽出部134は、第N−1フレームの各ブロックの動きベクトルを参照して、動きベクトル(Vx,Vy)がVx=0かつVy>0ならば、下方向への動き有りブロックとして抽出する。したがって、上方向への動き有りブロック数と上方向への動きを示す動きベクトルの数、下方向への動き有りブロック数と下方向への動きを示す動きベクトルの数、はそれぞれ一致する。
The
濃度差有りブロック抽出部131は、シーン判定部13の第1の実施の形態と同様である。判定部135は、上方向への動き有りブロック抽出部133が抽出したブロックに基づいて、上方向への動き有りブロック数M1と、下方向への動き有りブロック抽出部134が抽出したブロックに基づいて、下方向への動き有りブロック数M2をカウントする。濃度差有りブロック数Dは、第1の実施の形態同様に濃度差有りブロック抽出部131が抽出したブロックに基づいてカウントされる。シーン判定部13の判定部135は、M1/D又はM2/Dが所定の閾値th4以上である場合は、スクロールシーンであると判定する。M1/D及びM2/Dが所定の閾値th4未満である場合は、非スクロールシーンであると判定する。
The
図13に示された例と同様に、PCディスプレイ画面上でのスクロール動作は、主に上方向か下方向への移動であり、例えば、斜め方向へのスクロールは少ない。そこで、濃度差有りブロック数Dに対する上方向の動き有りブロック数M1の比率、又は、濃度差有りブロック数Dに対する下方向の動き有りブロック数M2の比率で判定することにより、スクロールシーンの判定精度を高めている。閾値th4は所定の閾値であり、予め設定される。閾値th3と同様に、閾値th4は、比較的大きな値に設定するのがよい。 Similar to the example shown in FIG. 13, the scrolling operation on the PC display screen is mainly an upward or downward movement, and for example, scrolling in an oblique direction is small. Therefore, the determination accuracy of the scroll scene is determined by determining the ratio of the number of blocks with upward movement M1 to the number of blocks with difference in density D or the ratio of the number of blocks with downward movement M2 to the number of blocks with density difference D. Is increasing. The threshold value th4 is a predetermined threshold value and is set in advance. Similar to the threshold value th3, the threshold value th4 is preferably set to a relatively large value.
図11に戻る。ステップS302a、ステップS303a、ステップS303c、ステップS304a、ステップS304c及びステップS309が、第1の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S302a, step S303a, step S303c, step S304a, step S304c and step S309 are different from the first embodiment, the steps will be described below.
ステップS302aにおいて、シーン判定部13は、第N−1フレームの(Xi,Yi)ブロックの動きベクトルを動きベクトル検出部12から読み込む。続いて、上方向への動き有りブロック抽出部133は、上方向への動き有りブロックを抽出し(S303a)、判定部135は、上方向への動き有りブロック数M1をカウントする(S304a)。並行して、下方向への動き有りブロック抽出部134は、下方向への動き有りブロックを抽出し(S303c)、判定部135は、下方向への動き有りブロック数M2をカウントする(S304c)。
In step S302a, the
ステップS309において、判定部135が、M1/D又はM2/Dがth4以上であると判定した場合は(S309のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。判定部135が、M1/D及びM2/Dがth4未満であると判定した場合は、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。
In step S309, when the
上述したように、第3の実施の形態によれば、画像処理システム1000は、動きベクトルによる上方向への動き有りブロック数、動きベクトルによる下方向への動き有りブロック数及び濃度差があるブロック数に基づいてシーン判定をすることで、上下方向のスクロールに対するシーン判定の精度を高めることができる。
As described above, according to the third embodiment, the
図15は、第4の実施の形態におけるシーンを判定する手順の一例を説明するためのフローチャートである。第第4の実施の形態は、図13に示されるスクロール画面の2つの例のどちらであっても、精度よくスクロールシーンであると判定できるようことを目的とする。第4の実施の形態では第3の実施の形態と異なる点について説明する。したがって、特に言及されない点については、第3の実施の形態と同様でもよい。 FIG. 15 is a flowchart for explaining an example of a procedure for determining a scene in the fourth embodiment. A fourth embodiment aims to accurately determine that the scroll scene is a scroll scene in either of the two examples of the scroll screen shown in FIG. The fourth embodiment will be described which is different from the third embodiment. Therefore, the same as in the third embodiment may be applied without particular mention.
ステップS401において、図11に示されるステップS301での初期化と同様に、Xi=0、Yi=0、M1=0、M2=0、D=0とし、さらに動きベクトルに基づいた動き有りブロック数M3=0とする。動き有りブロック数M3は、動きベクトルに基づいて、いずれかの方向への動きを検出されたブロックの数である。 In step S401, similarly to the initialization in step S301 shown in FIG. 11, Xi = 0, Yi = 0, M1 = 0, M2 = 0, D = 0, and the number of blocks with motion based on the motion vector. Let M3 = 0. The number of blocks with motion M3 is the number of blocks in which motion in any direction is detected based on the motion vector.
図16は、第4の実施の形態におけるシーン判定部13について説明するための図である。上方向への動き有りブロック抽出部133、下方向への動き有りブロック抽出部134、濃度差有りブロック抽出部131は、図14に示される第3の実施の形態と同様である。
FIG. 16 is a diagram for explaining the
動き有りブロック抽出部136は、第N−1フレームの各ブロックの動きベクトル(Vx,Vy)のX方向又はY方向の絶対値について、|Vx|>0又は|Vy|>0ならば、動き有りブロックとして抽出する。すなわち、動き有りブロック抽出部136は、あるブロックの動きベクトルが非0であれば、当該ブロックを動き有りブロックとして抽出する。
The motion
判定部137は、上方向への動き有りブロック数M1、下方向への動き有りブロック数M2及び動き有りブロック数M3をカウントし、さらに濃度差有りブロック数Dもカウントする。シーン判定部13の判定部137は、M1/D又はM2/Dがth4以上であり、かつM1/M3又はM2/M3が所定の閾値th5以上である場合、スクロールシーンであると判定する。シーン判定部13の判定部137は、M1/D及びM2/Dがth4未満、又はM1/M3及びM2/M3がth5未満である場合は非スクロールシーンであると判定する。
The
閾値th5は所定の閾値であり、予め設定される。th5は、0〜1の間の値で、1に近い値に設定するとよい。マージンを持たせても0.95くらいの大きい値でもよい。すなわち、図13に示されるスクロール画面の例2を想定し、スクロール部分の面積がフレーム内である程度の面積を占め、かつ動き有り部分とスクロール部分がほぼ同一の領域であって、スクロール部分以外で動いている領域はほぼ存在しない場合に、スクロールシーンであると判定することで、スクロールシーンの判定精度を高めている。 The threshold value th5 is a predetermined threshold value and is set in advance. th5 is a value between 0 and 1, and may be set to a value close to 1. It may have a margin or a large value of about 0.95. That is, assuming Example 2 of the scroll screen shown in FIG. 13, the area of the scroll portion occupies a certain area in the frame, and the moving portion and the scroll portion are substantially the same area, except for the scroll portion. When there is almost no moving area, it is determined that the scroll scene is a scroll scene, thereby improving the determination accuracy of the scroll scene.
なお、上方向への動き有りブロック抽出部133、下方向への動き有りブロック抽出部134、動き有りブロック抽出部136は、全て0を閾値として判定するとしたが、動きベクトル検出精度による誤差が生じる可能性を考慮し、例えば1を閾値として判定する等、マージンを持たせてもよい。
The
図15に戻る。ステップS403d、ステップS404d、ステップS409及びステップS410が、第3の実施の形態と異なるため、当該ステップを以下説明する。 Return to FIG. Since step S403d, step S404d, step S409 and step S410 are different from the third embodiment, the steps will be described below.
ステップS403dにおいて、動き有りブロック抽出部136は、動き有りブロックを抽出し(S403d)、判定部137は、動き有りブロック数M1をカウントする(S404d)。
In step S403d, the moving
ステップS409において、判定部137が、M1/D又はM2/Dがth4以上であると判定した場合は(S409のYES)、ステップS410に進み、M1/D及びM2/Dがth4未満であると判定した場合は(S409のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。
If the
ステップS410において、判定部137が、M1/M3又はM2/M3がth5以上であると判定した場合は(S410のYES)、シーン判定部13は、シーンをスクロールシーンであると判定してフローを完了する。判定部137が、M1/M3及びM2/M3がth5未満と判定した場合は(S410のNO)、シーン判定部13は、シーンを非スクロールシーンであると判定してフローを完了する。
In step S410, when the
上述したように、第4の実施の形態によれば、画像処理システム1000は、動きベクトルによる上方向への動き有りブロック数、動きベクトルによる下方向への動き有りブロック数、動き有りブロック数及び濃度差があるブロック数に基づいてシーン判定をすることで、特にPCディスプレイ上でのウィンドウ内のみのスクロールに対するシーン判定の精度を高めることができる。
As described above, according to the fourth embodiment, the
なお、動画の処理に関して、動画に音声が伴っている場合、即時処理して動画を出力しないと音声と動画に時間的なずれが生じるため、次々と入力される動画のフレームに対して、即時処理してフレーム補間した動画を出力する必要がある。第1の実施の形態から第4の実施の形態のいずれも、シーン判定部13は、該当ブロックを抽出して当該ブロック数をカウントし閾値判定する構成を有する。当該構成は、ヒストグラムを作成及び分析してシーン判定するといった従来手法に比べて簡易であり、即時性に優れている。
Regarding video processing, if the video is accompanied by audio, there will be a time lag between the audio and the video unless the video is processed immediately and the video is output. It is necessary to output a video that has been processed and frame-interpolated. In each of the first to fourth embodiments, the
なお、本発明の実施の形態において、動きベクトル検出部12は、検出部の一例である。シーン判定部13は、判定部の一例である。補間フレーム生成部15は、生成部の一例である。ユーザデバイス100は、画像処理装置の一例である。動き有りブロックは、動きがある領域の一例である。濃度差有りブロックは、濃度変化がある領域の一例である。
In the embodiment of the present invention, the motion
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the examples of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed.
1000 画像処理システム
100 ユーザデバイス
200 表示デバイス
201 投影装置
300 サーバ
101 CPU
102 表示装置
103 ROM
104 RAM
105 通信I/F
106 記憶装置
107 入出力I/F
11 蓄積部
12 動きベクトル検出部
13 シーン判定部
14 処理モード選択部
15 補間フレーム生成部
16 画像表示部
130 フレーム間差分算出部
131 濃度差有りブロック抽出部
132 判定部
133 上方向への動き有りブロック抽出部
134 下方向への動き有りブロック抽出部
135 判定部
136 動き有りブロック抽出部
137 判定部
1000
102
104 RAM
105 Communication I / F
106 Storage device 107 I / O I / F
11
Claims (9)
前記複数フレームに基づいて、シーン種別を判定する判定部と、
前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、
前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、
前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する画像処理装置。 A detector that detects motion vectors from multiple frames included in the input video,
A determination unit that determines the scene type based on the plurality of frames,
Based on the scene type determined by the determination unit, it has a generation unit that determines whether or not to refer to the motion vector for generation of the interpolation frame and generates the interpolation frame of the moving image.
When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, the generation unit uses one of the plurality of frames as an interpolation frame without referring to the motion vector. Generate and
When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the generation unit weights and adds the plurality of frames to the interpolated frame. An image processing device that produces.
前記複数フレームに基づいて、シーン種別を判定する判定手順と、
前記判定手順により判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成手順と、
前記判定手順によりシーン種別が画面の一部又は全部が移動するスクロールシーンであると判定された場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成する手順と、
前記判定手順によりシーン種別が前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定された場合、前記複数フレームを重み付け加算して補間フレームを生成する手順とを実行する画像処理方法。 A detection procedure that detects motion vectors from multiple frames included in the input video,
Judgment procedure for determining the scene type based on the plurality of frames and
Based on the scene type determined by the determination procedure, it is determined whether or not to refer to the motion vector for generating the interpolation frame, and the generation procedure for generating the interpolation frame of the moving image and the generation procedure.
If a scene type is determined to some or all of the screen is scrolled scene moved by prior Symbol judging procedure, a procedure for generating one of said plurality of frames without reference to the motion vector as the interpolation frame When,
When it is determined by the determination procedure that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the plurality of frames are weighted and added to generate an interpolation frame. Image processing method to execute and.
前記サーバは、
動画を前記ネットワークを介して前記画像処理装置に送信する送信部を有し、
前記画像処理装置は、
受信された前記動画に含まれる複数フレームから動きベクトルを検出する検出部と、
前記複数フレームに基づいて、シーン種別を判定する判定部と、
前記判定部が判定したシーン種別に基づいて、前記動きベクトルを補間フレームの生成のために参照するか否かを決定し、前記動画の補間フレームを生成する生成部とを有し、
前記生成部は、前記判定部がシーン種別を画面の一部又は全部が移動するスクロールシーンであると判定した場合、前記動きベクトルを参照せずに前記複数フレームのうちの1つを補間フレームとして生成し、
前記生成部は、前記判定部がシーン種別を前記スクロールシーン又はスクロールしていない状態でマウスカーソルのみが動いているポインタシーンのいずれでもないと判定した場合、前記複数フレームを重み付け加算して補間フレームを生成する画像処理システム。 An image processing system including a server and an image processing device connected to the server via a network.
The server
It has a transmitter that transmits a moving image to the image processing device via the network.
The image processing device is
A detector that detects motion vectors from a plurality of frames included in the received moving image,
A determination unit that determines the scene type based on the plurality of frames,
Based on the scene type determined by the determination unit, it has a generation unit that determines whether or not to refer to the motion vector for generation of the interpolation frame and generates the interpolation frame of the moving image.
When the determination unit determines that the scene type is a scroll scene in which a part or all of the screen moves, the generation unit uses one of the plurality of frames as an interpolation frame without referring to the motion vector. Generate and
When the determination unit determines that the scene type is neither the scroll scene nor the pointer scene in which only the mouse cursor is moving in a non-scrolling state, the generation unit weights and adds the plurality of frames to the interpolated frame. An image processing system that produces.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050891A JP6866707B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050891A JP6866707B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing method and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018157299A JP2018157299A (en) | 2018-10-04 |
JP6866707B2 true JP6866707B2 (en) | 2021-04-28 |
Family
ID=63718338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017050891A Active JP6866707B2 (en) | 2017-03-16 | 2017-03-16 | Image processing equipment, image processing method and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6866707B2 (en) |
-
2017
- 2017-03-16 JP JP2017050891A patent/JP6866707B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018157299A (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210281771A1 (en) | Video processing method, electronic device and non-transitory computer readable medium | |
CN106980510B (en) | Window self-adaption method and device of player | |
CN101815197B (en) | Image display system, image display apparatus, and control method for image display apparatus | |
JP2004312680A (en) | Motion estimation apparatus and method for detecting scrolling text or graphic data | |
JP2004350281A (en) | Deinterlace method and deinterlace apparatus for video signal | |
US11030715B2 (en) | Image processing method and apparatus | |
KR20200079697A (en) | Image processing apparatus and image processing method thereof | |
KR101855057B1 (en) | Fire alarm system and method | |
AU2021360753A1 (en) | Video stream manipulation | |
US9082203B2 (en) | Image processing system for image resizing based upon operational feedback parameters and related methods | |
JP4991360B2 (en) | Frame rate conversion device and video display device | |
WO2015165023A1 (en) | Screen sharing method, device and system | |
KR101791917B1 (en) | Method for automatically converting normal video to virtual reality video and device using the same | |
WO2013008374A1 (en) | Moving image area detection device | |
TW484112B (en) | Method and apparatus for past and future motion classification | |
JP6866707B2 (en) | Image processing equipment, image processing method and image processing system | |
KR100813986B1 (en) | Method for motion adaptive deinterlacing and apparatus thereof | |
CN109491565B (en) | Method and equipment for displaying component information of object in three-dimensional scene | |
JPWO2011067869A1 (en) | Image processing apparatus and image processing method | |
JP2015191630A (en) | Information processing device, change detection method and change detection program | |
US10109077B2 (en) | Image generation device and display device | |
CN107483940B (en) | A kind of screen video coding method based on screen change detection | |
JP2019176218A (en) | Frame interpolation device and frame interpolation method | |
RU2732989C2 (en) | Method, device and system for generating a video signal | |
CN101903907A (en) | Edge directed image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210322 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6866707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |