JP2012100099A - Frame rate conversion apparatus and program - Google Patents

Frame rate conversion apparatus and program Download PDF

Info

Publication number
JP2012100099A
JP2012100099A JP2010246459A JP2010246459A JP2012100099A JP 2012100099 A JP2012100099 A JP 2012100099A JP 2010246459 A JP2010246459 A JP 2010246459A JP 2010246459 A JP2010246459 A JP 2010246459A JP 2012100099 A JP2012100099 A JP 2012100099A
Authority
JP
Japan
Prior art keywords
time
pixel
series
frame rate
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010246459A
Other languages
Japanese (ja)
Other versions
JP5511628B2 (en
Inventor
Toshie Misu
俊枝 三須
Kazuhisa Iguchi
和久 井口
Shinichi Sakaida
慎一 境田
Yoshiaki Shishikui
善明 鹿喰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2010246459A priority Critical patent/JP5511628B2/en
Publication of JP2012100099A publication Critical patent/JP2012100099A/en
Application granted granted Critical
Publication of JP5511628B2 publication Critical patent/JP5511628B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize high picture quality in the time direction by making it possible to obtain a dynamic picture image changing smoothly with a few motion blur.SOLUTION: Time alignment means 5 calculates time deviation amount δt maximizing similarity, by comparing pixel time series of a designated pixel (G(t;x,y))and pixel time series of a peripheral pixel (G(t;ξ,η)), and lets the δt be time movement amount Δt. Interpolation means 6 generates a continuous function g(t;x,y) and a continuous function g(t;ξ,η) by interpolating the pixel time series of the designated pixel (G(t;x,y))and the pixel time series of the peripheral pixel (G(t;ξ,η))in the time direction respectively, and generates an interpolation value F(t;x,y) by synthesizing the continuous function of the designated pixel g(t;x,y) and the continuous function shifted by the time movement amount Δt in the time direction g(t+Δt;ξ,η) by means of a simple average or the like. Thereby, a dynamic picture image changing smoothly with a few motion blur can be obtained.

Description

本発明は、動画像のフレームレートを変換する装置及びプログラムに関し、特に、フレームを時間方向に内挿補間する技術に関する。   The present invention relates to an apparatus and program for converting a frame rate of a moving image, and more particularly to a technique for interpolating a frame in a time direction.

従来、動画像のフレームレートを変換する技術として、様々な手法が提案されている。例えば、同一フレームを複数回繰り返して用いることにより、元の動画像を高フレームレートの動画像に変換する手法がある。また、所定の間隔でフレームを間引くことにより、低フレームレートの動画像に変換する手法もある。   Conventionally, various techniques have been proposed as techniques for converting the frame rate of a moving image. For example, there is a technique of converting an original moving image into a high frame rate moving image by repeatedly using the same frame a plurality of times. There is also a method of converting to a low frame rate moving image by thinning out frames at a predetermined interval.

また、入力画像に対し、時間または時空間の線形フィルタ処理を行うことにより内挿フレームを生成し、高フレームレートの動画像に変換する手法が提案されている(特許文献1を参照)。具体的には、この手法は、生成する内挿フレームと、この内挿フレームを基準にした前後の時点に存在する2つの入力画像のフレームとの間の時間距離に応じて、2つの入力画像のフレームにおける画素値を按分することにより、内挿フレームを生成するものである。   In addition, a technique has been proposed in which an interpolation frame is generated by performing temporal or spatio-temporal linear filtering on an input image and converted to a high frame rate moving image (see Patent Document 1). Specifically, this technique is based on the two input images according to the time distance between the generated interpolation frame and the frames of the two input images existing before and after the interpolation frame. An interpolation frame is generated by apportioning the pixel values in this frame.

また、動画像中の被写体の動きに着目し、この動き情報を用いることで画質の向上を実現する手法が提案されている(特許文献2を参照)。具体的には、この手法は、動画像中の被写体の動きをフレーム間で追跡し、動き情報を用いたブロックマッチングによって内挿フレームを生成するものである。   Also, a method has been proposed in which attention is paid to the movement of a subject in a moving image and improvement in image quality is realized by using this movement information (see Patent Document 2). Specifically, this method tracks the movement of a subject in a moving image between frames, and generates an interpolation frame by block matching using movement information.

さらに、動画像のフレームレートを変換する際の計算リソースを低減する手法も提案されている(特許文献3を参照)。具体的には、この手法は、動画像フレームの符号化データを差分符号化データに復号し、差分符号化データの動きベクトルに基づいて、差分符号化データのフレーム間に挿入される補間データを生成し、この補間データに基づいて差分符号化データのフレームレートを変換し、変換後の差分符号化データを復号することにより動画像を復元するものである。   Furthermore, a method for reducing calculation resources when converting the frame rate of a moving image has been proposed (see Patent Document 3). Specifically, this method decodes encoded data of a moving image frame into differential encoded data, and interpolates interpolation data inserted between frames of differential encoded data based on a motion vector of the differential encoded data. It generates, converts the frame rate of differentially encoded data based on this interpolation data, and restores the moving image by decoding the differentially encoded data after conversion.

特開2009−100433号公報JP 2009-100033 A 特開昭61−26382号公報JP-A-61-26382 特開2009−21963号公報JP 2009-21963 A

しかしながら、同一フレームを複数回繰り返して用いる手法、及び所定の間隔でフレームを間引く手法では、動画像において一定速度で動いている被写体が不均一になったり、時間折り返し歪みの影響が生じたりする。このため、これらの手法では、被写体の動きがぎこちなくなるという問題があった。   However, in the method of repeatedly using the same frame a plurality of times and the method of thinning out the frames at a predetermined interval, the subject moving at a constant speed in the moving image becomes non-uniform or the effect of time aliasing distortion occurs. For this reason, these methods have a problem that the movement of the subject becomes awkward.

また、特許文献1による、時間または時空間方向のフレームに対して線形フィルタ処理を行う手法では、生成した内挿フレームにおける動領域の空間解像度が低下する。このため、この手法では、不鮮明感が生じてしまうという問題があった。また、入力画像のフレームと内挿フレームとを混在して出力する場合、または入力画像のフレームに対して内挿フレームの時間位相が変化する場合には、時間的な画質変動が生じる。このため、この手法では、入力画像のフレーム及び内挿フレームによる動画像が、フリッカとして知覚されてしまうという問題があった。   Further, in the method of performing linear filter processing on a frame in time or spatio-temporal direction according to Patent Document 1, the spatial resolution of the moving region in the generated interpolation frame is reduced. For this reason, this method has a problem that blurring occurs. In addition, when the input image frame and the interpolation frame are mixedly output, or when the temporal phase of the interpolation frame changes with respect to the input image frame, temporal image quality fluctuations occur. For this reason, this method has a problem that a moving image by an input image frame and an interpolation frame is perceived as flicker.

また、特許文献2,3による、動き情報を用いたブロックマッチング手法では、よりスムーズでフリッカの少ない動画像を出力することができる。しかしながら、被写体の動きの追跡を失敗した場合には、動静の境界において画像劣化を生じる。このような画像劣化は、物体輪郭、激しい動きまたは照明変動時に顕著に表れ、歪みが時間的または空間的に偏在して生じるため、不自然な映像になってしまうという問題があった。   Also, the block matching method using motion information according to Patent Documents 2 and 3 can output a moving image with smoother and less flicker. However, when tracking of the movement of the subject fails, image degradation occurs at the boundary between motion and static. Such image degradation is conspicuous when an object outline, intense movement or illumination fluctuation occurs, and distortion is unevenly distributed temporally or spatially, resulting in an unnatural image.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、動きぶれの少ない滑らかに変化する動画像を得ることができ、時間方向の高画質化を実現可能なフレームレート変換装置及びプログラムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a frame rate capable of obtaining a smoothly changing moving image with little motion blur and realizing high image quality in the time direction. It is to provide a conversion device and a program.

前記目的を達成するために、請求項1の発明は、動画像のフレームレートを変換するフレームレート変換装置において、複数時点のフレームにより構成される動画像が格納された動画像記憶手段と、前記動画像記憶手段に格納された動画像における所定の時間範囲に含まれるフレームから、予め指定された画素位置の画素値を、指定画素時系列データとして読み出す画素時系列読出手段と、前記動画像記憶手段に格納された動画像における所定の時間範囲に含まれるフレームから、前記指定された画素位置を基準にした所定範囲内の周辺位置に存在する画素値を、周辺画素時系列データとして読み出す周辺画素時系列読出手段と、前記画素時系列読出手段により読み出された指定画素時系列データと、前記周辺画素時系列読出手段により読み出された周辺画素時系列データとが最も類似する時間位置を求め、前記時間位置を時間移動量として出力する時間位置合わせ手段と、前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を、前記時間位置合わせ手段により出力された時間移動量だけ移動させ、前記移動させた後の時系列データ及び前記移動させていない時系列データに基づいて、所望時間における画素値を内挿値として求める内挿手段と、を備えることを特徴とする。   In order to achieve the above object, the invention of claim 1 is a frame rate conversion device for converting a frame rate of a moving image, wherein a moving image storage means storing a moving image composed of frames at a plurality of points in time, and A pixel time-series reading unit that reads out a pixel value at a predetermined pixel position as designated pixel time-series data from a frame included in a predetermined time range in the moving image stored in the moving image storage unit; and the moving image storage unit Peripheral pixels for reading out, as peripheral pixel time-series data, pixel values existing at peripheral positions within a predetermined range with reference to the designated pixel position from a frame included in a predetermined time range in the moving image stored in the means A time-series reading unit; a designated pixel time-series data read by the pixel time-series reading unit; and a reading by the peripheral pixel time-series reading unit. A time alignment unit that obtains a time position that is most similar to the peripheral pixel time-series data and outputs the time position as a time movement amount; and designated pixel time-series data read by the pixel time-series reading unit; Alternatively, any one of the peripheral pixel time-series data read by the peripheral pixel time-series reading unit is moved by the time movement amount output by the time alignment unit, and the time series after the movement is performed Interpolation means for obtaining a pixel value at a desired time as an interpolation value based on the data and the non-moving time-series data.

請求項1の発明によれば、指定画素の画素値の時間変化に加えて周辺画素の画素値の時間変化を利用するようにしたから、動きぶれの少ない滑らかに変化する動画像を得ることが可能なフレームレート変換を実現することができる。また、従来のブロックマッチングが2次元的探索による位置合わせであったのに対し、時系列データ同士の1次元的な探索による位置合わせで済むため、処理が簡素化し、演算の高速化が可能になる。   According to the first aspect of the present invention, since the time change of the pixel values of the peripheral pixels is used in addition to the time change of the pixel value of the designated pixel, it is possible to obtain a smoothly changing moving image with little motion blur. Possible frame rate conversion can be realized. In addition, the conventional block matching is based on the two-dimensional search, but the time-series data is only aligned by the one-dimensional search, so the processing is simplified and the calculation speed can be increased. Become.

また、請求項2の発明は、請求項1に記載のフレームレート変換装置において、前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データを時間方向に内挿補間し、時間方向に連続した画素値を有する指定画素の連続関数を生成し、前記周辺画素時系列読出手段により読み出された周辺画素時系列データを時間方向に内挿補間し、時間方向に連続した画素値を有する周辺画素の連続関数を生成し、前記指定画素の連続関数または前記周辺画素の連続関数のうちのいずれか一方を時間方向にずらしたときに、前記指定画素の連続関数及び前記周辺画素の連続関数が最も類似する時間ずれ量を求め、前記時間ずれ量を時間移動量として出力することを特徴とする。   The invention of claim 2 is the frame rate conversion apparatus according to claim 1, wherein the time alignment means interpolates the designated pixel time-series data read by the pixel time-series reading means in the time direction. Interpolate to generate a continuous function of designated pixels having continuous pixel values in the time direction, and interpolate peripheral pixel time-series data read by the peripheral pixel time-series reading means in the time direction, Generating a continuous function of peripheral pixels having continuous pixel values, and when either one of the continuous function of the specified pixel or the continuous function of the peripheral pixel is shifted in the time direction, the continuous function of the specified pixel and A time shift amount having the most similar continuous function of the surrounding pixels is obtained, and the time shift amount is output as a time shift amount.

請求項2の発明によれば、時間的に連続した画素値を有する連続関数同士で時間位置合わせを行うから、元の離散的な画素時系列データ同士での時間位置合わせよりも確度の高い時間移動量を得ることが可能となる。   According to the second aspect of the present invention, time alignment is performed with continuous functions having temporally continuous pixel values, so that the time with higher accuracy than the time alignment between the original discrete pixel time-series data. The amount of movement can be obtained.

また、請求項3の発明は、請求項1に記載のフレームレート変換装置において、前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を時間方向に内挿補間し、時間方向に連続した画素値を有する連続関数を生成し、前記生成された連続関数、または前記連続関数が生成されていない時系列データのうちのいずれか一方を時間方向にずらしたときに、前記連続関数及び前記時系列データが最も類似する時間ずれ量を求め、前記時間ずれ量を時間移動量として出力することを特徴とする。   Further, the invention of claim 3 is the frame rate conversion apparatus according to claim 1, wherein the time alignment means is the designated pixel time-series data read by the pixel time-series reading means or the peripheral pixel time. Any one of the peripheral pixel time-series data read by the series reading means is interpolated in the time direction to generate a continuous function having continuous pixel values in the time direction, the generated continuous function, Alternatively, when any one of the time-series data in which the continuous function is not generated is shifted in the time direction, a time shift amount in which the continuous function and the time-series data are most similar is obtained, and the time shift amount is calculated. It is output as a time movement amount.

請求項3の発明によれば、時間的に連続した画素値を有する連続関数と、離散的な画素時系列データとの間で時間位置合わせを行うから、元の離散的な画素時系列データ同士での時間位置合わせよりも確度の高い時間移動量を得ることが可能となる。   According to the invention of claim 3, since the time alignment is performed between the continuous function having temporally continuous pixel values and the discrete pixel time-series data, the original discrete pixel time-series data can be compared with each other. Thus, it is possible to obtain a time movement amount with higher accuracy than the time alignment in FIG.

また、請求項4の発明は、請求項1に記載のフレームレート変換装置において、前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を、前記フレームの時間間隔の自然数倍毎にずらしたときに、前記指定画素時系列データと前記周辺画素時系列データとの間の、前記フレームの時間間隔の自然数倍毎の離散的な誤差を示す評価値が最小となる時間を求め、前記時間を含む所定時間範囲において、時間的に連続した値を有する所定の複数の連続関数と、前記離散的な評価値と間の誤差をそれぞれ求め、前記誤差が最小となる連続関数を特定し、前記特定した連続関数の極値を求め、前記極値の時間を時間移動量として出力することを特徴とする。   According to a fourth aspect of the present invention, there is provided the frame rate conversion apparatus according to the first aspect, wherein the time alignment means is the designated pixel time-series data read by the pixel time-series reading means or the peripheral pixel time. When any one of the surrounding pixel time-series data read by the series reading means is shifted every natural number times the time interval of the frame, the designated pixel time-series data and the surrounding pixel time-series data Between which the evaluation value indicating a discrete error for each natural number multiple of the time interval of the frame is minimized, and a predetermined value having a temporally continuous value in a predetermined time range including the time Error between the plurality of continuous functions and the discrete evaluation value, respectively, specifying a continuous function that minimizes the error, obtaining an extreme value of the identified continuous function, and calculating the time of the extreme value And outputs as the time movement amount.

請求項4の発明によれば、離散的な時系列データ同士にて評価値を求めるから、高速処理が可能となる。また、評価値が最小となる時間を含む時間範囲において、離散的な評価値が内挿補間されて連続化するから、確度の高い時間移動量を得ることが可能となる。   According to the invention of claim 4, since the evaluation value is obtained from discrete time-series data, high-speed processing is possible. In addition, since the discrete evaluation values are interpolated and continuous in the time range including the time when the evaluation value is the minimum, it is possible to obtain a time movement amount with high accuracy.

また、請求項5の発明は、請求項4に記載のフレームレート変換装置において、前記時間位置合わせ手段が、パラボラフィッティングまたは最小自乗フィッティングにより、前記誤差が最小となる連続関数を特定することを特徴とする。   According to a fifth aspect of the present invention, in the frame rate conversion apparatus according to the fourth aspect, the time alignment means specifies a continuous function that minimizes the error by parabolic fitting or least square fitting. And

請求項5の発明によれば、評価値が最小となる時間を含む時間範囲において、パラボラフィッティングまたは最小自乗フィッティングにて、離散的な評価値が内挿補間されて連続化される。これにより、確度の高い時間移動量を得ることが可能となる。   According to the fifth aspect of the present invention, discrete evaluation values are interpolated and made continuous by parabolic fitting or least square fitting in a time range including the time at which the evaluation value is minimized. This makes it possible to obtain a highly accurate amount of time movement.

また、請求項6の発明は、コンピュータを、請求項1から5までのいずれか一項に記載のフレームレート変換装置として機能させるためのフレームレート変換プログラムにある。   According to a sixth aspect of the present invention, there is provided a frame rate conversion program for causing a computer to function as the frame rate conversion device according to any one of the first to fifth aspects.

以上のように、本発明によれば、動きぶれの少ない滑らかに変化する動画像を得ることができる。したがって、時間方向の高画質な動画像を得ることが可能なフレームレート変換を実現することができる。   As described above, according to the present invention, it is possible to obtain a smoothly changing moving image with less motion blur. Accordingly, it is possible to realize frame rate conversion capable of obtaining a high-quality moving image in the time direction.

本発明の実施形態によるフレームレート変換装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the frame rate conversion apparatus by embodiment of this invention. 時空間ボリュームの概念を説明する図である。It is a figure explaining the concept of a spatiotemporal volume. 時空間ボリュームから特定の画素位置の画素時系列を抽出する操作を説明する図である。It is a figure explaining operation which extracts the pixel time series of a specific pixel position from a spatiotemporal volume. 時間位置合わせ手段の処理を説明する図である。It is a figure explaining the process of a time alignment means. 時間位置合わせ手段による第1の処理を示すフローチャートである。It is a flowchart which shows the 1st process by a time alignment means. 時間位置合わせ手段による第2の処理を示すフローチャートである。It is a flowchart which shows the 2nd process by a time alignment means. 内挿手段による第1の処理を示すフローチャートである。It is a flowchart which shows the 1st process by an interpolation means. 内挿手段による第2の処理を示すフローチャートである。It is a flowchart which shows the 2nd process by an interpolation means.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。図1は、本発明の実施形態によるフレームレート変換装置の全体構成を示すブロック図である。このフレームレート変換装置100は、入力動画像記憶手段1、計数手段2、画素時系列読出手段3、周辺画素時系列読出手段4、時間位置合わせ手段5、内挿手段6、画素時系列書込手段7及び出力動画像記憶手段8を備えている。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a frame rate conversion apparatus according to an embodiment of the present invention. This frame rate conversion apparatus 100 includes an input moving image storage means 1, a counting means 2, a pixel time series reading means 3, a peripheral pixel time series reading means 4, a time alignment means 5, an interpolation means 6, a pixel time series writing. Means 7 and output moving image storage means 8 are provided.

入力動画像記憶手段1には、動画像が記憶されている。この動画像をGとし、その画素位置を(x,y)、時刻tにおける画素値をG(t;x,y)とする。ここでは、水平画素位置x及び垂直画素位置yは、ともに0以上の整数によって表すこととする。画像の大きさは、水平方向にX画素、垂直方向にY画素とする。よって、画像座標(x,y)は、x∈{0,1,・・・,X−1}及びy∈{0,1,・・・,Y−1}となる。動画像のうちの処理対象(後述する補間対象または照合対象)となる時刻tは、t∈{t,t,・・・,tK−1}(Kは2以上の整数)の合計K時点とし、t<t<・・・<tK−1の順に整順されているものとする。時刻数列(t,t,・・・,tK−1)を入力動画像時間標本点列(tk∈{0,1,・・,K-1}という。入力動画像記憶手段1に記憶されている動画像は、3次元的な時空間ボリュームとしてランダムアクセスが可能である。 A moving image is stored in the input moving image storage unit 1. This moving image is G, its pixel position is (x, y), and its pixel value at time t is G (t; x, y). Here, both the horizontal pixel position x and the vertical pixel position y are represented by integers of 0 or more. The size of the image is assumed to be X pixels in the horizontal direction and Y pixels in the vertical direction. Therefore, the image coordinates (x, y) are x∈ {0, 1,..., X−1} and y∈ {0, 1,. The time t that is the processing target (interpolation target or collation target to be described later) in the moving image is the sum of tε {t 0 , t 1 ,..., T K−1 } It is assumed that the time point is K and the order is t 0 <t 1 <... <T K−1 . The time sequence (t 0 , t 1 ,..., T K-1 ) is referred to as an input moving image time sample point sequence (t k ) kε {0,1,. The moving image stored in the input moving image storage means 1 can be randomly accessed as a three-dimensional space-time volume.

図2は、時空間ボリュームの概念を説明する図であり、入力動画像記憶手段1に記憶されている動画像を示している。この動画像の時空間ボリューム10は、各画素位置及び各時刻の配列状に並べられた画素値からなる。図2に示した時空間ボリューム10には、複数の物体12,13,14等が含まれており、時間軸tに対し、物体12は静止しており、物体13は左へ移動し、物体14は右へ移動していることがわかる。   FIG. 2 is a diagram for explaining the concept of the spatiotemporal volume, and shows the moving images stored in the input moving image storage means 1. The spatiotemporal volume 10 of the moving image is composed of pixel values arranged in an array at each pixel position and each time. The spatio-temporal volume 10 shown in FIG. 2 includes a plurality of objects 12, 13, 14, etc., the object 12 is stationary with respect to the time axis t, the object 13 moves to the left, It can be seen that 14 is moving to the right.

図2の右中央に示すフレーム11は、t=tの時点において、時空間ボリューム10をxy平面に平行な平面で切った断面図であり、図2の右上に示すフレーム15は、t=tの時点において、時空間ボリューム10をxy平面に平行な平面で切った断面図である。フレーム11には、y=yの画素位置において、物体12−1,13−1,14−1が存在し、フレーム15には、y=yの画素位置において、物体12−2,13−2,14−2が存在する。また、xt平面に平行な平面やyt平面に平行な平面で切ると、移動物体が傾きをもったテクスチャとして現れる。図2の右下に示すテクスチャ16は、y=yの画素位置において、xt平面に平行な平面で切ったときの図であり、x軸上における物体12−3,13−3,14−3の移動傾向が現れている。t=tの時点において、物体12−3,13−3,14−3が図2に示すx軸上の位置に存在していることがわかる。そして、t=tの時点から時間が経過したt=tの時点において、x軸上において、物体12−3の位置は変わらず、物体13−3は左へ移動した位置に存在し、物体14−3は右へ移動した位置に存在していることがわかる。 2 is a cross-sectional view of the spatio-temporal volume 10 cut along a plane parallel to the xy plane at the time t = t A , and the frame 15 shown in the upper right of FIG. at the time of t B, it is a sectional view taken along a plane parallel space-time volume 10 in the xy plane. The frame 11, the pixel position of y = y 0, there is an object 12-1,13-1,14-1, the frame 15, the pixel position of y = y 0, the object 12-2,13 -2, 14-2 exists. In addition, when a plane parallel to the xt plane or a plane parallel to the yt plane is cut, the moving object appears as a texture having an inclination. The texture 16 shown in the lower right of FIG. 2 is a view obtained by cutting the texture 16 at a pixel position y = y 0 by a plane parallel to the xt plane, and the objects 12-3, 13-3, and 14− on the x axis. A movement tendency of 3 appears. It can be seen that the objects 12-3, 13-3, and 14-3 exist at positions on the x-axis shown in FIG. 2 at the time point t = t A. Then, at the time t = t B when the time has elapsed from the time t = t A , the position of the object 12-3 does not change on the x axis, and the object 13-3 exists at the position moved to the left, It can be seen that the object 14-3 exists at the position moved to the right.

尚、入力動画像記憶手段1は、メモリ、ハードディスク等のハードウェアであり、時間t及び空間(x,y)のいずれに関してもランダムアクセスが可能であるものとする。   The input moving image storage means 1 is hardware such as a memory and a hard disk, and can be randomly accessed in both time t and space (x, y).

図1に戻って、計数手段2は、時点tにおける動画像Gの空間(x,y)の画素位置(t;x,y)を走査するための座標値を生成するカウンタである。走査の順序及びパターンは任意である。例えば、走査は、時点tにおいて、水平方向に走査線をとり、左から右へと画素を走査し、走査線を上から下へと走査するよう画素位置(t;x,y)を順次生成するようにしてもよい。計数手段2は、生成した画素位置(t;x,y)を画素時系列読出手段3、周辺画素時系列読出手段4及び画素時系列書込手段7に出力する。   Returning to FIG. 1, the counting means 2 is a counter that generates coordinate values for scanning the pixel position (t; x, y) in the space (x, y) of the moving image G at time t. The order and pattern of scanning are arbitrary. For example, scanning takes a scanning line in the horizontal direction at time t, scans pixels from left to right, and sequentially generates pixel positions (t; x, y) to scan the scanning lines from top to bottom. You may make it do. The counting means 2 outputs the generated pixel position (t; x, y) to the pixel time series reading means 3, the peripheral pixel time series reading means 4, and the pixel time series writing means 7.

図3は、図2に示した時空間ボリューム10から特定の画素位置の画素時系列を抽出する操作を説明する図である。t=tの時点におけるフレーム23及びt=tの時点におけるフレーム24には、指定画素位置21−1,21−2及び周辺画素位置22−1,22−2の画像がそれぞれ存在する。図3の右下に示す画素時系列波形26は、図3の左下に示すテクスチャ20のうちの、照合対象時刻範囲[t,t]における指定画素位置21の画素値波形であり、後述する画素時系列読出手段3により読み出される指定画素の時系列G(t;x,y)である。また、図3の右下に示す画素時系列波形25は、図3の左下に示すテクスチャ20のうちの、探索対象時刻範囲[t+t,t+t]における周辺画素位置22の画素値波形であり、後述する周辺画素時系列読出手段4により読み出される周辺画素の時系列G(t;ξ,η)である。 FIG. 3 is a diagram for explaining an operation of extracting a pixel time series at a specific pixel position from the spatiotemporal volume 10 shown in FIG. In the frame 23 at the time t = t A and the frame 24 at the time t = t B , the images of the designated pixel positions 21-1, 21-2 and the peripheral pixel positions 22-1, 22-2 exist, respectively. A pixel time-series waveform 26 shown at the lower right of FIG. 3 is a pixel value waveform at a designated pixel position 21 in the matching target time range [t A , t B ] in the texture 20 shown at the lower left of FIG. This is the time series G (t; x, y) of the designated pixel read by the pixel time series reading means 3. Also, the pixel time-series waveform 25 shown in the lower right of FIG. 3 is a pixel at the peripheral pixel position 22 in the search target time range [t A + t C , t B + t D ] in the texture 20 shown in the lower left of FIG. It is a value waveform, and is a time series G (t; ξ, η) of peripheral pixels read by the peripheral pixel time series reading means 4 described later.

後述する時間位置合わせ手段5は、探索対象時刻範囲[t+t,t+t]における周辺画素位置22の画素時系列波形25(図3の右下の黒丸)の中から、照合対象時刻範囲[t,t]における指定画素位置21の画素時系列波形26(図3の右下の白丸)に類似する時刻範囲を探索する。照合対象時刻範囲内の時間標本点の集合をUとし、探索対象時刻範囲内の時間標本点の集合をSとする。尚、t及びtは過去方向及び未来方向への時間探索範囲であり、好ましくはt<0及びt>0なる値が設定される。 The time alignment means 5 to be described later compares the pixel time-series waveform 25 (black circle on the lower right in FIG. 3) of the peripheral pixel position 22 in the search target time range [t A + t C , t B + t D ]. A time range similar to the pixel time-series waveform 26 (white circle at the lower right in FIG. 3) at the designated pixel position 21 in the time range [t A , t B ] is searched. A set of time sample points within the verification target time range is set as U, and a set of time sample points within the search target time range is set as S. Note that t C and t D are time search ranges in the past and future directions, and preferably t C <0 and t D > 0 are set.

図1に戻って、画素時系列読出手段3は、計数手段2から画素位置(t;x,y)を入力し、入力動画像記憶手段1から、画素位置(t;x,y)における動画像Gの画素時系列(G(t;x,y))t∈Uを読み出す。画素時系列読出手段3は、指定画素の時系列G(t;x,y)を時間位置合わせ手段5及び内挿手段6に出力する。 Returning to FIG. 1, the pixel time-series reading unit 3 inputs the pixel position (t; x, y) from the counting unit 2, and the moving image at the pixel position (t; x, y) from the input moving image storage unit 1. Read out the pixel time series (G (t; x, y)) tεU of the image G. The pixel time series reading unit 3 outputs the time series G (t; x, y) of the designated pixel to the time alignment unit 5 and the interpolation unit 6.

周辺画素時系列読出手段4は、計数手段2から画素位置(t;x,y)を入力し、入力動画像記憶手段1から、画素位置(t;x,y)(指定画素位置(x,y))を基準にして、周辺画素位置(ξ,η)における動画像Gの画素時系列(G(t;ξ,η))t∈Sを読み出す。 The peripheral pixel time-series reading unit 4 receives the pixel position (t; x, y) from the counting unit 2 and receives the pixel position (t; x, y) (designated pixel position (x, y) from the input moving image storage unit 1. y)) as a reference, the pixel time series (G (t; ξ, η)) tεS of the moving image G at the peripheral pixel position (ξ, η) is read out.

指定画素位置(x,y)の周辺画素とは、指定画素位置(x,y)以外の位置にある画像内の画素である。典型的には、指定画素位置(x,y)からの距離が所定の閾値以下となる近傍に存在する画素であり、例えば、指定画素位置(x,y)に隣接する画素である。周辺画素は、一つの画素であってもよいし、複数の画素であってもよい。例えば、指定画素位置(x,y)に隣接する複数の画素、及びその複数の画素位置から順次選択された画素を周辺画素としてもよい。   The peripheral pixel at the designated pixel position (x, y) is a pixel in the image at a position other than the designated pixel position (x, y). Typically, the pixel exists in the vicinity where the distance from the designated pixel position (x, y) is equal to or smaller than a predetermined threshold, for example, a pixel adjacent to the designated pixel position (x, y). The peripheral pixel may be a single pixel or a plurality of pixels. For example, a plurality of pixels adjacent to the designated pixel position (x, y) and pixels sequentially selected from the plurality of pixel positions may be used as the peripheral pixels.

例えば、周辺画素時系列読出手段4は、指定画素位置(x,y)の空間4近傍位置(x−1,y)、(x+1,y)、(x,y−1)及び(x,y+1)の4画素から、順次1画素位置を周辺画素位置(ξ,η)に設定し、入力動画像記憶手段1から、動画像Gの画素時系列(G(t;ξ,η))t∈Sを読み出すようにしてもよい。周辺画素時系列読出手段4は、周辺画素の時系列G(t;ξ,η)を時間位置合わせ手段5及び内挿手段6に出力する。 For example, the peripheral pixel time-series reading unit 4 has the position (x-1, y), (x + 1, y), (x, y-1) and (x, y + 1) near the space 4 of the designated pixel position (x, y). ), One pixel position is sequentially set to the peripheral pixel position (ξ, η), and the pixel time series of the moving image G (G (t; ξ, η)) from the input moving image storage means 1. S may be read out. The peripheral pixel time series reading unit 4 outputs the time series G (t; ξ, η) of the peripheral pixels to the time alignment unit 5 and the interpolation unit 6.

〔時間位置合わせ手段〕
時間位置合わせ手段5は、画素時系列読出手段3から指定画素の時系列G(t;x,y)を入力すると共に、周辺画素時系列読出手段4から周辺画素の時系列G(t;ξ,η)を入力し、指定画素の画素時系列(G(t;x,y))t∈Uと周辺画素の画素時系列(G(t;ξ,η))t∈Sとの間で、時間方向の時間位置合わせを行う。時間位置合わせとは、両画素時系列の波形が最も重なるように、いずれかの画素時系列を時間方向に平行移動させ、その時間移動量Δtを求める操作である。
[Time alignment means]
The time alignment means 5 receives the time series G (t; x, y) of the designated pixel from the pixel time series reading means 3 and also the time series G (t; ξ) of the peripheral pixels from the peripheral pixel time series reading means 4. , Η) and the pixel time series of the specified pixel (G (t; x, y)) t∈U and the pixel time series of the surrounding pixels (G (t; ξ, η)) t∈S. Perform time alignment in the time direction. The time alignment is an operation for obtaining a time movement amount Δt by translating one of the pixel time series in the time direction so that the waveforms of the two pixel time series overlap most.

図4は、時間位置合わせ手段5の処理を説明する図である。図4に示すように、時間位置合わせ手段5は、指定画素の画素時系列(G(t;x,y))t∈Uである画素時系列波形26を基準にして、周辺画素の画素時系列(G(t;ξ,η))t∈Sである画素時系列波形25を時間方向にずらし、両波形が最も重なるときの平行移動量Δtを求める(図4における時間位置合わせ後の画素時系列波形27を参照)。以下の説明では、時間位置合わせ手段5は、周辺画素の画素時系列(G(t;ξ,η))t∈Sを時間方向に平行移動させる。 FIG. 4 is a diagram for explaining the processing of the time alignment means 5. As shown in FIG. 4, the time alignment means 5 uses the pixel time series waveform 26 of the designated pixel as the pixel time series (G (t; x, y)) t∈U as a reference. Sequence (G (t; ξ, η)) The pixel time-series waveform 25 with tεS is shifted in the time direction to obtain the parallel movement amount Δt when the two waveforms overlap most (pixel after time alignment in FIG. 4) (See time-series waveform 27). In the following description, the time alignment means 5 translates the pixel time series (G (t; ξ, η)) tεS of the peripheral pixels in the time direction.

両画素時系列(G(t;x,y))t∈U,(G(t;ξ,η))t∈Sは、時間に関して離散的である。以下、画素時系列の時間間隔が、不等間隔及び等間隔のいずれにも適用可能な位置合わせ法と、等間隔の場合に適用可能な位置合わせ法について説明する。画素時系列の時間間隔が不等間隔であるとは、図2に示した動画像の時空間ボリューム10を構成するフレームの時間間隔が同じでないことをいう。また、画素時系列の時間間隔が等間隔であるとは、フレームの時間間隔が同じであることをいう。 Both pixel time series (G (t; x, y)) tεU , (G (t; ξ, η)) tεS are discrete with respect to time. Hereinafter, an alignment method that can be applied to both the unequal interval and the equal interval, and an alignment method that can be applied when the pixel time series time interval is an equal interval will be described. The time interval of the pixel time series being unequal means that the time intervals of the frames constituting the spatiotemporal volume 10 of the moving image shown in FIG. 2 are not the same. In addition, the time intervals of the pixel time series being equal intervals means that the time intervals of the frames are the same.

(時空間ボリューム10のフレームが不等時間間隔及び等時間間隔のいずれの場合にも適用可能な位置合わせ法)
図5は、時間位置合わせ手段5による第1の処理(不等時間間隔及び等時間間隔のいずれの場合にも適用可能な位置合わせ法)を示すフローチャートである。時間位置合わせ手段5は、画素時系列読出手段3から指定画素の時系列G(t;x,y)を入力すると共に、周辺画素時系列読出手段4から周辺画素の時系列G(t;ξ,η)を入力する(ステップS501)。そして、時間位置合わせ手段5は、指定画素の画素時系列(G(t;x,y))t∈U及び周辺画素の画素時系列(G(t;ξ,η))t∈Sに対し、時間方向に内挿補間する。指定画素の画素時系列(G(t;x,y))t∈Uの内挿結果を、時刻tに関する連続関数g(t;x,y)とする。同様に、周辺画素の画素時系列(G(t;ξ,η))t∈Sの内挿結果を、時刻tに関する連続関数g(t;ξ,η)とする(ステップS502)。内挿には、例えば、一次内挿または三次内挿を用いることができる。
(Alignment method applicable to the case where the frame of the spatio-temporal volume 10 is an unequal time interval or an equal time interval)
FIG. 5 is a flowchart showing the first processing (alignment method applicable to both unequal time intervals and equal time intervals) by the time alignment means 5. The time alignment means 5 receives the time series G (t; x, y) of the designated pixel from the pixel time series reading means 3 and also the time series G (t; ξ) of the peripheral pixels from the peripheral pixel time series reading means 4. , Η) is input (step S501). Then, the time alignment means 5 performs the pixel time series (G (t; x, y)) t∈U of the designated pixel and the pixel time series (G (t; ξ, η)) t∈S of the surrounding pixels. Interpolate in the time direction. A pixel time series (G (t; x, y)) of a designated pixel Let the interpolation result of tεU be a continuous function g (t; x, y) for time t. Similarly, the interpolated result of the pixel time series (G (t; ξ, η)) tεS of the peripheral pixels is set as a continuous function g (t; ξ, η) for time t (step S502). For the interpolation, for example, primary interpolation or cubic interpolation can be used.

時間位置合わせ手段5は、一次内挿による場合、以下の式により補間を行い、連続関数g(t;x,y)を生成する。

Figure 2012100099
尚、連続関数g(t;ξ,η)は、前記式(1)において、x及びyをξ及びηにそれぞれ置き換えたものである。また、kは整数である。 In the case of linear interpolation, the time alignment means 5 performs interpolation according to the following formula to generate a continuous function g (t; x, y).
Figure 2012100099
The continuous function g (t; ξ, η) is obtained by replacing x and y with ξ and η in the above equation (1). K is an integer.

特に、時系列G(t;x,y)が、整数の時点tにおいて単位時間間隔で時間標本化されている場合には、前記式(1)は以下の式となる。

Figure 2012100099
ここで、
Figure 2012100099
は床関数を示す。 In particular, when the time series G (t; x, y) is time-sampled at unit time intervals at an integer time point t, the expression (1) becomes the following expression.
Figure 2012100099
here,
Figure 2012100099
Indicates the floor function.

時間位置合わせ手段5は、指定画素の連続関数g(t;x,y)と周辺画素の連続関数g(t;ξ,η)との間で、時間方向の時間位置合わせを行う。例えば、時間位置合わせ手段5は、指定画素の連続関数g(t;x,y)と、周辺画素の連続関数g(t;ξ,η)を時間方向にδtずらした連続関数g(t+δt;ξ,η)とを比較し(ステップS503)、これらの間の類似度を算出し、その類似度が最大化する時間ずれ量δtを求める(ステップS504)。そして、時間位置合わせ手段5は、時間ずれ量δtを時間移動量Δtとして出力する(ステップS505)。   The time alignment means 5 performs time alignment in the time direction between the continuous function g (t; x, y) of the designated pixel and the continuous function g (t; ξ, η) of the surrounding pixels. For example, the time alignment means 5 has a continuous function g (t + δt; in which the continuous function g (t; x, y) of the designated pixel and the continuous function g (t; ξ, η) of the surrounding pixels are shifted by δt in the time direction. (ξ, η) are compared (step S503), the degree of similarity between them is calculated, and a time shift amount δt that maximizes the degree of similarity is obtained (step S504). Then, the time alignment means 5 outputs the time shift amount δt as the time movement amount Δt (step S505).

例えば、類似性の評価尺度に絶対値誤差を用いる場合には、時間位置合わせ手段5は、以下の評価値mを最小化する時間ずれ量δtを求め、これを時間移動量Δtとする。

Figure 2012100099
Figure 2012100099
For example, when an absolute value error is used as the similarity evaluation scale, the time alignment unit 5 obtains a time shift amount δt that minimizes the following evaluation value m, and sets this as a time movement amount Δt.
Figure 2012100099
Figure 2012100099

また、例えば、類似性の評価尺度に正規化相関を用いる場合には、時間位置合わせ手段5は、前記式(3)(4)の代わりに、以下の式を用いて、時間移動量Δtを求める。

Figure 2012100099
Figure 2012100099
Further, for example, when using normalized correlation for the similarity evaluation scale, the time alignment means 5 uses the following equations instead of the equations (3) and (4) to calculate the time movement amount Δt. Ask.
Figure 2012100099
Figure 2012100099

尚、式(3)〜(6)の計算は、時刻に関して離散化しても構わない。この場合、式(3)(5)の積分演算は、総和演算に置き換えられる。   In addition, you may discretize the calculation of Formula (3)-(6) regarding time. In this case, the integral operation of the equations (3) and (5) is replaced with the sum operation.

また、時間位置合わせ手段5は、指定画素の連続関数g(t;x,y)及び周辺画素の連続関数g(t+δt;ξ,η)の対のうち、指定画素の連続関数g(t;x,y)の代わりに、時間に関して離散的な時系列G(t;x,y)を用いるようにしてもよい。   In addition, the time alignment unit 5 selects the continuous function g (t; of the designated pixel from the pair of the continuous function g (t; x, y) of the designated pixel and the continuous function g (t + δt; ξ, η) of the surrounding pixels. Instead of x, y), a discrete time series G (t; x, y) with respect to time may be used.

さらに、時間位置合わせ手段5は、指定画素の連続関数g(t;x,y)及び周辺画素の連続関数g(t+δt;ξ,η)の対のうち、周辺画素の連続関数g(t+δt;ξ,η)の代わりに、時間に関して離散的な時系列G(t+δt;ξ,η)を用いるようにしてもよい。   Further, the time alignment means 5 includes a peripheral pixel continuous function g (t + δt; out of a pair of a continuous function g (t; x, y) of the designated pixel and a continuous function g (t + δt; ξ, η) of the peripheral pixel. Instead of ξ, η), a discrete time series G (t + δt; ξ, η) may be used.

このように、時間位置合わせ手段5における第1の処理によれば、指定画素の画素時系列(G(t;x,y))t∈Uを時間方向に内挿補間することにより連続関数g(t;x,y)を生成し、同様に、周辺画素の画素時系列(G(t;ξ,η))t∈Sを時間方向に内挿補間することにより連続関数g(t;ξ,η)を生成し、指定画素の連続関数g(t;x,y)と周辺画素の連続関数g(t;ξ,η)を時間方向にδtずらした連続関数g(t+δt;ξ,η)とを比較し、これらの間の類似度が最大化する時間ずれ量δtを求め、この時間ずれ量δtを時間移動量Δtとして出力するようにした。これにより、画素時系列G(t;x,y))t∈U,(G(t;ξ,η))t∈Sの時間間隔が不等時間間隔及び等時間間隔のいずれの場合であっても、その時間間隔(フレームの時間間隔)よりも短い時間間隔において(連続した時間において)、時間移動量Δtを求めることができる。つまり、元の離散的な画素時系列G(t;x,y))t∈U,(G(t;ξ,η))t∈Sの時間間隔よりも、細かい確度の時間移動量Δtを求めることができる。また、従来の動き情報を用いたブロックマッチング法では、2次元的な探索により空間位置合わせを行っていたのに対し、時間位置合わせ手段5における第1の処理では、1次元的な探索により時間位置合わせを行うようにしたから、処理が簡素化され、演算の高速化を実現することができる。 As described above, according to the first processing in the time alignment unit 5, the continuous function g is obtained by interpolating the pixel time series (G (t; x, y)) tεU of the designated pixel in the time direction. (T; x, y) is generated, and similarly, the continuous time function g (t; ξ) is obtained by interpolating the pixel time series (G (t; ξ, η)) tεS of the surrounding pixels in the time direction. , Η), and a continuous function g (t + δt; ξ, η) in which the continuous function g (t; x, y) of the designated pixel and the continuous function g (t; ξ, η) of the surrounding pixels are shifted by δt in the time direction. ), A time shift amount δt that maximizes the similarity between them is obtained, and this time shift amount δt is output as a time shift amount Δt. As a result, the time interval of the pixel time series G (t; x, y)) tεU and (G (t; ξ, η)) tεS is either an unequal time interval or an equal time interval. However, the time movement amount Δt can be obtained at a time interval shorter than the time interval (frame time interval) (at a continuous time). That is, the amount of time movement Δt with a finer accuracy than the time interval of the original discrete pixel time series G (t; x, y)) t∈U , (G (t; ξ, η)) t∈S is obtained. Can be sought. In the conventional block matching method using motion information, spatial alignment is performed by a two-dimensional search, whereas in the first processing in the time alignment means 5, time is determined by a one-dimensional search. Since the alignment is performed, the processing is simplified and the calculation speed can be increased.

(時空間ボリューム10のフレームが等時間間隔の場合に適用可能な位置合わせ法)
図6は、時間位置合わせ手段5による第2の処理(等時間間隔の場合に適用可能な位置合わせ法)を示すフローチャートである。時間位置合わせ手段5は、前記式(1)(2)のような画素時系列波形の内挿を行わずに、時間移動量Δtを求める。以下の説明において、時間軸の標本点は、単位時間間隔(1刻みの間隔)とする。
(Alignment method applicable when the frames of the spatio-temporal volume 10 are equally spaced)
FIG. 6 is a flowchart showing the second processing (alignment method applicable in the case of equal time intervals) by the time alignment means 5. The time alignment means 5 obtains the time movement amount Δt without performing the interpolation of the pixel time series waveform as in the equations (1) and (2). In the following description, the sample point on the time axis is assumed to be a unit time interval (one step interval).

時間位置合わせ手段5は、画素時系列読出手段3から指定画素の時系列G(t;x,y)を入力すると共に、周辺画素時系列読出手段4から周辺画素の時系列G(t;ξ,η)を入力する(ステップS601)。そして、時間位置合わせ手段5は、指定画素の時系列G(t;x,y)と、周辺画素の時系列G(t;ξ,η)を時間方向にδtずらした関数G(t+δt;ξ,η)との間の類似性を、δt毎に定量化する。ここで、δtは、動画像の時空間ボリューム10を構成するフレームの時間間隔の自然数倍とする。   The time alignment means 5 receives the time series G (t; x, y) of the designated pixel from the pixel time series reading means 3 and also the time series G (t; ξ) of the peripheral pixels from the peripheral pixel time series reading means 4. , Η) is input (step S601). The time alignment means 5 then functions G (t + δt; ξ) by shifting the time series G (t; x, y) of the designated pixel and the time series G (t; ξ, η) of the neighboring pixels by δt in the time direction. , Η) is quantified for each δt. Here, δt is a natural number times the time interval of the frames constituting the spatiotemporal volume 10 of the moving image.

例えば、類似性の評価尺度に絶対値誤差を用いる場合には、時間位置合わせ手段5は、以下の評価値m(δt)をδt∈{t,tC+1,tC+2,・・・,tD−1,t}の範囲で求める(ステップS602)。そして、評価値m(δt)を最小化するδtを求め、これを時刻sとする(ステップS603)。

Figure 2012100099
Figure 2012100099
For example, when an absolute value error is used for the similarity evaluation scale, the time alignment means 5 uses the following evaluation value m (δt) as δtε {t C , t C + 1 , t C + 2 ,. It is obtained in the range of D−1 , t D } (step S602). Then, δt that minimizes the evaluation value m (δt) is obtained, and this is set as time s (step S603).
Figure 2012100099
Figure 2012100099

そして、時間位置合わせ手段5は、時刻sを含む(時刻s近傍の)時刻集合Rにおいて、評価値mの離散的なグラフに対し、連続的な曲線の当てはめを行う。例えば、曲線には放物線が用いられる(これをパラボラフィッティングという。)。パラボラフィッティングを用いる場合、時刻集合Rには、少なくとも3個以上の元を有するものとする。   Then, the time alignment means 5 performs continuous curve fitting on the discrete graph of the evaluation value m in the time set R including the time s (near the time s). For example, a parabola is used for the curve (this is called parabolic fitting). When parabolic fitting is used, the time set R has at least three elements.

時刻集合Rは、時刻sと、その前後の既定個数の時刻群とによって構成してもよい(例えば、R={s−1,s,s+1}、R={s−2,s−1,s,s+1,s+2}等)。   The time set R may be composed of the time s and a predetermined number of time groups before and after the time s (for example, R = {s−1, s, s + 1}, R = {s−2, s−1, s, s + 1, s + 2}, etc.).

ここで、曲線を、tに関する関数f(t)とする。関数f(t)は、時間軸に対して連続した値を有する連続関数である。pは、曲線の形状を変えるパラメータである。尚、パラメータpは、スカラーであってもよいし、ベクトルであってもよい。例えば、パラボラフィッティングを用いる場合、関数f(t)は、以下の式となる。

Figure 2012100099
とおける。 Here, let the curve be a function f p (t) related to t. The function f p (t) is a continuous function having continuous values with respect to the time axis. p is a parameter that changes the shape of the curve. The parameter p may be a scalar or a vector. For example, when parabolic fitting is used, the function f p (t) is expressed by the following equation.
Figure 2012100099
You can.

そして、時間位置合わせ手段5は、時刻範囲Rにおいて、前記式(9)の連続関数f(t)と離散的な評価値m(t)とを比較し(ステップS604)、評価値m(t)と前記式(9)の連続関数f(t)との間の誤差が最小になるように、パラメータpを求める(ステップS605)。 Then, in the time range R, the time alignment means 5 compares the continuous function f p (t) of the equation (9) with the discrete evaluation value m (t) (step S604), and the evaluation value m ( The parameter p is obtained so that the error between t) and the continuous function f p (t) in the equation (9) is minimized (step S605).

例えば、最小自乗フィッティングを用いる場合、以下の式によりパラメータpを求める。

Figure 2012100099
For example, when the least square fitting is used, the parameter p is obtained by the following equation.
Figure 2012100099

特に、パラボラフィッティングを用いる場合には、以下の式によりパラメータpを求める。

Figure 2012100099
In particular, when parabolic fitting is used, the parameter p is obtained by the following equation.
Figure 2012100099

そして、時間位置合わせ手段5は、求めたパラメータpによる曲線y=f(t)を最小化(mの評価尺度として絶対値誤差、自乗誤差等、小さい値ほど評価が良い尺度を用いた場合)または最大化(mの評価尺度として正規化相関値等、大きい値ほど評価が良い尺度を用いた場合)する時間tを求め(ステップS606)、これを時間移動量Δtとして出力する(ステップS607)。すなわち、時間位置合わせ手段5は、求めたパラメータpによる曲線y=f(t)の極値を求め、極値におけるtを時間移動量Δtとして出力する。 Then, the time alignment means 5 minimizes the curve y = f p (t) based on the obtained parameter p (when a measure that is better evaluated as a smaller value, such as an absolute value error or a square error, is used as an evaluation measure of m) ) Or maximizing (when a scale such as a normalized correlation value that has a better evaluation is used as an evaluation scale for m) is obtained (step S606), and this is output as a time shift amount Δt (step S607). ). That is, the time alignment means 5 obtains the extreme value of the curve y = f p (t) by the obtained parameter p, and outputs t at the extreme value as the time movement amount Δt.

例えば、時間位置合わせ手段5は、曲線y=f(t)を最小化するtを求める場合、以下の式により時間移動量Δtを求める。

Figure 2012100099
尚、時間位置合わせ手段5は、曲線y=f(t)を最大化するtを求める場合、前記式(12)の「arg min」を「arg max」に置き換えた式により、時間移動量Δtを求める。 For example, when the time alignment means 5 obtains t that minimizes the curve y = f p (t), it obtains the time movement amount Δt by the following equation.
Figure 2012100099
When the time alignment means 5 obtains t that maximizes the curve y = f p (t), the time shift amount is calculated by an expression in which “arg min” in the expression (12) is replaced with “arg max”. Δt is obtained.

特に、パラボラフィッティングを用いる場合には、時間位置合わせ手段5は、以下の式により時間移動量Δtを求める。

Figure 2012100099
となる。 In particular, when parabolic fitting is used, the time alignment means 5 obtains the time movement amount Δt by the following equation.
Figure 2012100099
It becomes.

さらに、R={s−1,s,s+1}に対するパラボラフィッティングを用いる場合には、時間位置合わせ手段5は、以下の式により時間移動量Δtを求める。

Figure 2012100099
Further, when parabolic fitting for R = {s−1, s, s + 1} is used, the time alignment means 5 obtains the time movement amount Δt by the following equation.
Figure 2012100099

このように、時間位置合わせ手段5における第2の処理によれば、指定画素の画素時系列(G(t;x,y))t∈Uと、周辺画素の画素時系列(G(t;ξ,η))t∈Sを時間方向にδt(フレームの時間間隔の自然数倍)ずらした画素時系列(G(t+δt;ξ,η))t∈Sとの間の誤差を示す評価値m(δt)を求め、評価値m(δt)が最小となる時間ずれ量δtを含む時間範囲において、離散的な評価値m(t)と連続的な関数f(t)との間の誤差が最小となるパラメータpを求め、その関数f(t)を最小化または最大化する時間tを求め、この時間tを時間移動量Δtとして出力するようにした。これにより、画素時系列G(t;x,y))t∈U,(G(t;ξ,η))t∈Sの時間間隔が等時間間隔の場合に、その時間間隔よりも短い時間間隔において(連続した時間において)、時間移動量Δtを求めることができる。つまり、元の離散的な画素時系列G(t;x,y))t∈U,(G(t;ξ,η))t∈Sの時間間隔よりも、細かい確度の時間移動量Δtを求めることができる。また、1次元的な探索により時間位置合わせを行うと共に、離散的な画素時系列G(t;x,y))t∈U,(G(t;ξ,η))t∈Sを用いて評価値m(δt)を求めるようにしたから、処理が簡素化され、演算の高速化を実現することができる。 Thus, according to the second process in the time alignment means 5, the pixel time series (G (t; x, y)) tεU of the designated pixel and the pixel time series (G (t; ξ, η)) Indicates an error with respect to a pixel time series (G (t + δt; ξ, η)) tεS obtained by shifting tεS by δt (natural number times the time interval of the frame) in the time direction. An evaluation value m (δt) is obtained, and a discrete evaluation value m (t) and a continuous function f p (t) are obtained in a time range including a time shift amount δt at which the evaluation value m (δt) is minimized. A parameter p that minimizes the error between them is obtained, a time t for minimizing or maximizing the function f p (t) is obtained, and this time t is output as a time movement amount Δt. As a result, when the time intervals of the pixel time series G (t; x, y)) tεU , (G (t; ξ, η)) tεS are equal time intervals, the time is shorter than the time interval. In the interval (at successive times), the time movement amount Δt can be obtained. That is, the amount of time movement Δt with a finer accuracy than the time interval of the original discrete pixel time series G (t; x, y)) t∈U , (G (t; ξ, η)) t∈S is obtained. Can be sought. In addition, time alignment is performed by a one-dimensional search, and a discrete pixel time series G (t; x, y)) tεU and (G (t; ξ, η)) tεS is used. Since the evaluation value m (δt) is obtained, the processing is simplified and the calculation speed can be increased.

〔内挿手段〕
図1に戻って、内挿手段6は、指定画素の画素時系列(G(t;x,y))t∈Uと、周辺画素の画素時系列(G(t;ξ,η))t∈Sと、時間移動量Δtとに基づいて、画素位置(x,y)の時刻tにおける画素値の内挿値F(t;x,y)を推定する。内挿値F(t;x,y)は、指定画素の画素時系列(G(t;x,y))t∈U、及び周辺画素の画素時系列(G(t;ξ,η))t∈Sを時刻移動量Δtずらした画素時系列(G(t+Δt;ξ,η))の両波形を共に近似するような滑らかな波形上の、時刻tにおける標本点として定義することができる。
[Interpolation means]
Returning to FIG. 1, the interpolation means 6 performs the pixel time series (G (t; x, y)) t∈U of the designated pixel and the pixel time series (G (t; ξ, η)) t of the surrounding pixels. Based on εS and the time movement amount Δt, an interpolation value F (t; x, y) of the pixel value at the time t at the pixel position (x, y) is estimated. The interpolated value F (t; x, y) is the pixel time series (G (t; x, y)) t∈U of the designated pixel and the pixel time series (G (t; ξ, η)) of the surrounding pixels. It can be defined as a sample point at time t on a smooth waveform that approximates both waveforms of a pixel time series (G (t + Δt; ξ, η)) in which tεS is shifted by a time movement amount Δt.

(内挿補間により連続関数を生成し、内挿値を求める手法)
図7は、内挿手段6による第1の処理(内挿補間により連続関数を生成し、内挿値を求める手法)を示すフローチャートである。内挿手段6は、画素時系列読出手段3から指定画素の時系列G(t;x,y)を入力し、周辺画素時系列読出手段4から周辺画素の時系列G(t;ξ,η)を入力すると共に、時間位置合わせ手段5から時間移動量Δtを入力する(ステップS701)。そして、内挿手段6は、指定画素の画素時系列(G(t;x,y))t∈Uを時間方向に内挿補間し、時刻tに関する連続関数g(t;x,y)に変換する(ステップS702)。例えば、1次内挿による場合には、以下の式により連続関数g(t;x,y)を生成する。

Figure 2012100099
(A method to generate a continuous function by interpolation and obtain an interpolation value)
FIG. 7 is a flowchart showing a first process (a technique for generating a continuous function by interpolation and obtaining an interpolation value) by the interpolation means 6. The interpolation means 6 receives the time series G (t; x, y) of the designated pixel from the pixel time series reading means 3 and the time series G (t; ξ, η) of the peripheral pixels from the peripheral pixel time series reading means 4. ) And a time movement amount Δt are input from the time alignment means 5 (step S701). Then, the interpolation means 6 interpolates the pixel time series (G (t; x, y)) t∈U of the designated pixel in the time direction, and converts it into a continuous function g (t; x, y) for the time t. Conversion is performed (step S702). For example, in the case of linear interpolation, a continuous function g (t; x, y) is generated by the following equation.
Figure 2012100099

同様に、内挿手段6は、周辺画素の画素時系列(G(t;ξ,η))t∈Sを時間方向に内挿補間し、時刻tに関する連続関数g(t;ξ,η)に変換する(ステップS702)。例えば、1次内挿による場合には、以下の式により連続関数g(t;ξ,η)を生成する。

Figure 2012100099
Similarly, the interpolating means 6 interpolates the pixel time series (G (t; ξ, η)) t∈S of the peripheral pixels in the time direction, and continuously functions g (t; ξ, η) with respect to time t. (Step S702). For example, in the case of linear interpolation, a continuous function g (t; ξ, η) is generated by the following equation.
Figure 2012100099

そして、内挿手段6は、前記式(15)により生成された指定画素の連続関数g(t;x,y)の波形と、前記式(16)により生成された周辺画素の連続関数g(t;ξ,η)の波形を時間方向にΔtだけずらした連続関数g(t+Δt;ξ,η)の波形とを合成し(ステップS703)、内挿値F(t;x,y)を求めて画素時系列書込手段7に出力する(ステップS704)。   Then, the interpolation means 6 calculates the waveform of the continuous function g (t; x, y) of the designated pixel generated by the equation (15) and the continuous function g () of the surrounding pixels generated by the equation (16). The waveform of the continuous function g (t + Δt; ξ, η) obtained by shifting the waveform of t; ξ, η) by Δt in the time direction is synthesized (step S703), and the interpolated value F (t; x, y) is obtained. To the pixel time-series writing means 7 (step S704).

尚、以上の説明では、周辺画素の画素位置(ξ,η)は1か所で定式化を進めてきたが、周辺画素の画素位置は複数あっても構わない。以下、周辺画素の画素位置がM個(Mは自然数)あるものとし、そのm番目(mは0以上M未満の整数)の画素位置を(ξ,η)とする。また、このm番目の周辺画素の画素位置(ξ,η)における時間移動量ΔtをΔtとし、探索対象時刻範囲内の時間標本点の集合SをSとする。 In the above description, the pixel positions (ξ, η) of the peripheral pixels have been formulated at one place, but there may be a plurality of pixel positions of the peripheral pixels. Hereinafter, it is assumed that there are M pixel positions of peripheral pixels (M is a natural number), and the m-th pixel position (m is an integer of 0 or more and less than M) is (ξ m , η m ). In addition, the time movement amount Δt at the pixel position (ξ m , η m ) of the m-th peripheral pixel is Δt m and the set S of time sample points within the search target time range is S m .

内挿値F(t;x,y)を求めるための合成手法として、例えば、単純平均が用いられる。内挿手段6は、単純平均を示す以下の式により、内挿値F(t;x,y)を求める。

Figure 2012100099
As a synthesis method for obtaining the interpolated value F (t; x, y), for example, a simple average is used. The interpolation means 6 calculates | requires the interpolation value F (t; x, y) by the following formula | equation which shows a simple average.
Figure 2012100099

また、内挿値F(t;x,y)を算出するための合成手法として、例えば、重み付き平均が用いられる。内挿手段6は、重み付き平均を示す以下の式により、内挿値F(t;x,y)を求める。

Figure 2012100099
ここで、w(t)は、時刻tにおける周辺画素位置(ξ,η)に対する重み係数である。尚、w−1(t)は、時刻tにおける指定画素位置(x,y)に対する重み係数である。 For example, a weighted average is used as a synthesis method for calculating the interpolated value F (t; x, y). The interpolation means 6 calculates | requires the interpolation value F (t; x, y) by the following formula | equation which shows a weighted average.
Figure 2012100099
Here, w m (t) is a weighting factor for the peripheral pixel position (ξ m , η m ) at time t. Note that w −1 (t) is a weighting coefficient for the designated pixel position (x, y) at time t.

尚、重み係数w(t)は、指定画素位置(x,y)と周辺画素位置(ξ,η)との間の距離に応じて定めるようにしてもよい。例えば、重み係数w(t)は、距離dに関する関数α(d)を用いて、以下の式で表される(式(19)の例は、時刻tに関して不変である)。

Figure 2012100099
The weighting factor w m (t) may be determined according to the distance between the designated pixel position (x, y) and the peripheral pixel position (ξ m , η m ). For example, the weighting factor w m (t) is expressed by the following equation using the function α (d) relating to the distance d (the example of the equation (19) is invariant with respect to the time t).
Figure 2012100099

関数α(d)は、好ましくは距離dに対して減少関数とする。すなわち、関数α(d)は、距離dが短い場合は、重み係数w(t)が大きくなり、距離dが長い場合は、重み係数w(t)が小さくなるような関数とする。例えば、以下の式で表される。

Figure 2012100099
ここで、λは、距離dに対する関数値α(d)の減衰の速さを決めるための減衰係数であり、λが大きいほど減衰が緩やかになる。例えば、λ=1とする。 The function α (d) is preferably a decreasing function with respect to the distance d. That is, the function alpha (d), when the distance d is short, the weighting factor w m (t) increases, the distance d is longer is a function, such as the weighting factor w m (t) becomes smaller. For example, it is represented by the following formula.
Figure 2012100099
Here, λ is an attenuation coefficient for determining the speed of attenuation of the function value α (d) with respect to the distance d, and the attenuation becomes gentler as λ increases. For example, λ = 1.

また、重み係数w(t)は、時刻列(t+Δtk∈Smまたは(tk∈Uと、時刻tとの間の時間距離に応じて定めるようにしてもよい。まず、時間距離e(t)を、例えば、以下のように定義する。

Figure 2012100099
このe(t)は、位置合わせをした時系列と注目時刻tとの間の最小時間距離である。 The weighting factor w m (t) may be determined according to the time distance between the time sequence (t k + Δt m ) kεSm or (t k ) kεU and the time t. First, the time distance e m (t) is defined as follows, for example.
Figure 2012100099
This e m (t) is the minimum time distance between the aligned time series and the attention time t.

重み係数w(t)は、時間距離eに関する関数β(e)を用いて、以下の式で表される(式(22)の例は、空間位置に関して不変である)。

Figure 2012100099
The weighting factor w m (t) is expressed by the following equation using the function β (e) regarding the time distance e (the example of the equation (22) is invariant with respect to the spatial position).
Figure 2012100099

関数β(e)は、好ましくは時間距離eに対して減少関数とする。すなわち、関数β(e)は、時間距離eが短い場合、重み係数w(t)が大きくなり、時間距離eが長い場合、重み係数w(t)が小さくなるような関数とする。例えば、以下の式により表される。

Figure 2012100099
ここで、μは、時間距離eに対する関数値β(e)の減衰の速さを決めるための減衰係数であり、μが大きいほど減衰が緩やかになる。例えば、μ=1とする。 The function β (e) is preferably a decreasing function with respect to the time distance e. That is, the function β (e) is a function such that the weighting factor w m (t) increases when the time distance e is short, and the weighting factor w m (t) decreases when the time distance e is long. For example, it is represented by the following formula.
Figure 2012100099
Here, μ is an attenuation coefficient for determining the speed of attenuation of the function value β (e) with respect to the time distance e, and the attenuation becomes gentler as μ increases. For example, μ = 1.

さらに、重み係数w(t)は、空間距離d及び時間距離eの両距離に応じて定めるようにしてもよい。例えば、重み係数w(t)は、以下の式で表される。

Figure 2012100099
ここで、γ(α,β)は、α及びβの値を合成するための関数であり、好ましくはαに関して増加関数、βに関して増加関数とする。例えば、以下の式で表される。
Figure 2012100099
Figure 2012100099
Further, the weighting factor w m (t) may also be determined according to both the distance of the spatial distance d m and the time distance e m. For example, the weight coefficient w m (t) is expressed by the following equation.
Figure 2012100099
Here, γ (α, β) is a function for synthesizing the values of α and β, and is preferably an increase function for α and an increase function for β. For example, it is represented by the following formula.
Figure 2012100099
Figure 2012100099

また、重み係数w(t)は、式(12)において時間移動量Δtを求めたときの最小(または最大)評価値を考慮して、定めるようにしてもよい。例えば、以下の式のように、周辺画素の画素位置(ξ,η)の時間移動量Δtを求めたときの最小(または最大)評価値をrとする。このとき、最小評価値rが小さいほど重み係数w(t)が大きくなるように(最大評価値rが大きいほど重み係数w(t)が大きくなるように)、重み係数w(t)を定めればよい。

Figure 2012100099
Further, the weight coefficient w m (t) may be determined in consideration of the minimum (or maximum) evaluation value when the time movement amount Δt is obtained in the equation (12). For example, as shown in the following expression, the minimum (or maximum) evaluation value when calculated time shift amount Delta] t m of pixel positions around the pixel (xi] m, eta m) and r m. At this time, (as weight as the maximum evaluation value r m is greater coefficient w m (t) increases) as the minimum evaluation value r m is smaller as the weighting factor w m (t) increases, the weighting factor w m (T) may be determined.
Figure 2012100099

(劣化モデルに基づく復元処理により内挿値を求める手法)
図8は、内挿手段6による第2の処理(劣化モデルに基づく復元処理により内挿値を求める手法)を示すフローチャートである。内挿手段6は、画素時系列読出手段3から指定画素の時系列G(t;x,y)を入力し、周辺画素時系列読出手段4から周辺画素の時系列G(t;ξ,η)を入力すると共に、時間位置合わせ手段5から時間移動量Δtを入力する(ステップS801)。
(Method to obtain the interpolated value by restoration processing based on the degradation model)
FIG. 8 is a flowchart showing a second process (a technique for obtaining an interpolated value by a restoration process based on a deterioration model) by the interpolating means 6. The interpolation means 6 receives the time series G (t; x, y) of the designated pixel from the pixel time series reading means 3 and the time series G (t; ξ, η) of the peripheral pixels from the peripheral pixel time series reading means 4. ) And a time movement amount Δt from the time alignment means 5 (step S801).

ここで、求めるべき内挿値Fから画素時系列Gへの観測モデル(時間標本化のモデル)D(Dは汎関数)を、以下のように定義する。

Figure 2012100099
Here, an observation model (time sampling model) D (D is a functional) from the interpolation value F to be obtained to the pixel time series G is defined as follows.
Figure 2012100099

観測モデルDとして、例えば、動きぼけをモデル化したものが用いられる。時刻tにおける画像(フレーム)を撮影したときのカメラのシャッター時間(または、撮像素子の蓄積時間)をτとおくと、動きぼけの観測モデルDは、以下の式で表される。

Figure 2012100099
As the observation model D, for example, a model obtained by modeling motion blur is used. If the camera shutter time (or image sensor accumulation time) when an image (frame) at time t k is taken is τ k , the motion blur observation model D is expressed by the following equation.
Figure 2012100099

内挿結果である内挿値F(t;x,y)の仮の結果をΦ(t;x,y)とする。内挿手段6は、この仮の結果Φが指定画素の時系列G(t;x,y)に整合するか否かを、誤差評価汎関数Jにより評価する。内挿手段6は、以下の式により、評価値J[Φ]が最小となるように、仮の結果Φの試行錯誤(例えば、最急降下法等による最適化)を行い、仮の結果Φの最適化結果を内挿値Fとして求める。

Figure 2012100099
ここで、Vは、最適化を行う時刻の範囲である。例えば、時刻範囲Vは、注目時刻t近傍の時間区間(例えば、時刻tとその前後1秒の時間区間)とする。 The provisional result of the interpolation value F (t; x, y) that is the interpolation result is Φ (t; x, y). The interpolation means 6 evaluates whether or not the temporary result Φ matches the time series G (t; x, y) of the designated pixel by using the error evaluation functional J. The interpolation means 6 performs trial and error (for example, optimization by the steepest descent method) of the temporary result Φ so that the evaluation value J [Φ] is minimized by the following formula, and the temporary result Φ The optimization result is obtained as an interpolation value F.
Figure 2012100099
Here, V is a time range for performing optimization. For example, the time range V is a time interval in the vicinity of the attention time t (for example, a time interval of time t and 1 second before and after the time t).

具体的には、内挿手段6は、指定画素の時系列G(t;x,y)と観測モデルDの値との間の誤差(指定画素の誤差)を算出し、周辺画素の時系列G(t;ξ,η)を時間移動量Δtずらした時系列G(t+Δt;ξ,η)と観測モデルDの値との間の誤差を算出して全ての周辺画素の誤差合計(周辺画素の誤差)を算出し、指定画素の誤差と周辺画素の誤差とを加算し、この加算結果を、最適化を行う時刻範囲Vにて合計して評価値J[Φ]を求める(ステップS802)。そして、内挿手段6は、評価値J[Φ]が最小となる仮の結果Φを算出し(ステップS803)、この仮の結果Φを内挿値F(t;x,y)として画素時系列書込手段7に出力する(ステップS804)。   Specifically, the interpolation means 6 calculates an error (designated pixel error) between the time series G (t; x, y) of the designated pixel and the value of the observation model D, and the time series of the surrounding pixels. The error between the time series G (t + Δt; ξ, η) obtained by shifting G (t; ξ, η) by the time movement amount Δt and the value of the observation model D is calculated, and the total error (peripheral pixels) of all peripheral pixels is calculated. The error of the designated pixel and the error of the surrounding pixels are added, and the addition result is summed in the time range V for optimization to obtain the evaluation value J [Φ] (step S802). . Then, the interpolation means 6 calculates a provisional result Φ that minimizes the evaluation value J [Φ] (step S803), and uses the provisional result Φ as the interpolation value F (t; x, y) for pixel time. The data is output to the series writing means 7 (step S804).

〔画素時系列書込手段〕
図1に戻って、画素時系列書込手段7は、計数手段2から画素位置(t;x,y)を入力すると共に、内挿手段6から内挿値F(t;x,y)を入力し、画素位置(t;x,y)に応じて書き込みアドレスを変化させることにより、時刻数列(t,t,・・・,tL−1)(出力動画像時間標本点列(Tk∈{0,1,・・,L-1}という。)における内挿値列(F(T;x,y))k∈{0,1,・・,L-1}を出力動画像記憶手段8に記憶させる。これにより、出力動画像記憶手段8には、入力動画像記憶手段1に記憶された動画像に比べて、フレームレートが変換された動画像の時空間ボリューム10が記憶される。ここで、時刻Tはk番目の時刻標本点であり、Lは時刻列の標本点総数である。
[Pixel time series writing means]
Returning to FIG. 1, the pixel time-series writing unit 7 inputs the pixel position (t; x, y) from the counting unit 2, and receives the interpolation value F (t; x, y) from the interpolation unit 6. The time sequence (t 0 , t 1 ,..., T L−1 ) (output moving image time sample point sequence () is input by changing the write address according to the pixel position (t; x, y). T k ) k∈ {0,1,..., L-1} .) Interpolated value sequence (F (T k ; x, y)) k∈ {0,1,. Is stored in the output moving image storage means 8. As a result, the output moving image storage unit 8 stores a spatio-temporal volume 10 of a moving image having a frame rate converted as compared to the moving image stored in the input moving image storage unit 1. Here, time T k is the k-th time sample point, and L is the total number of sample points in the time sequence.

尚、時刻Tは、整数値であっても、非整数値であっても構わない。例えば、出力動画像時間標本点列(Tk∈{0,1,・・,L-1}を、入力動画像時間標本点列(tk∈{0,1,・・,K-1}より細かくとれば、フレームレートのアップサンプリングが実現される。逆に、出力動画像時間標本点列(Tk∈{0,1,・・,L-1}を、入力動画像時間標本点列(tk∈{0,1,・・,K-1}より粗くとればフレームレートのダウンサンプリングが実現できる。さらに、出力動画像時間標本点列(Tk∈{0,1,・・,L-1}の時間間隔及び入力動画像時間標本点列(tk∈{0,1,・・,K-1}の時間間隔は、それぞれ等間隔であっても、片方または両方が不等間隔であっても構わない。また、出力動画像時間標本点列(Tk∈{0,1,・・,L-1}の時間間隔及び入力動画像時間標本点列(tk∈{0,1,・・,K-1}の時間間隔が、共に等間隔の場合において、両者のフレームレートの比は有理数比であっても無理数比であっても構わない。さらに、出力動画像時間標本点列(Tk∈{0,1,・・,L-1}及び入力動画像時間標本点列(tk∈{0,1,・・,K-1}の位相は、揃っていても、ずれていても、時間と共に変化しても構わない。 Note that the time T k may be an integer value or a non-integer value. For example, the output video time sample point sequence (T k ) kε {0,1,..., L-1} is changed to the input video time sample point sequence (t k ) kε {0,1,. If it is finer than K-1} , frame rate upsampling is realized. Conversely, the output video time sample point sequence (T k ) kε {0,1,..., L-1} is replaced with the input video time sample point sequence (t k ) kε {0,1,. , K-1}, the frame rate downsampling can be realized. Further, the time interval of the output video time sample point sequence (T k ) kε {0,1,..., L-1} and the input video time sample point sequence (t k ) kε {0,1, · The time intervals of K−1} may be equal intervals, or one or both may be unequal intervals. Also, the time interval of the output video time sample point sequence (T k ) kε {0,1,..., L-1} and the input video time sample point sequence (t k ) kε {0,1, · When the time intervals of K−1} are both equal, the ratio of the frame rates of both may be a rational number ratio or an irrational ratio. Furthermore, the output video time sample point sequence (T k ) kε {0,1,..., L-1} and the input video time sample point sequence (t k ) kε {0,1,. −1} phase may be aligned, shifted, or may change with time.

出力動画像記憶手段8には、処理結果の動画像の時空間ボリューム10が記憶される。記憶される動画像の時空間ボリューム10において、画素位置(t;x,y)における画素時系列は(F(T;x,y))k∈{0,1,・・,L-1}である。 The output moving image storage means 8 stores a spatio-temporal volume 10 of the processed moving image. In the spatiotemporal volume 10 of the stored moving image, the pixel time series at the pixel position (t; x, y) is (F (T k ; x, y)) kε {0,1,. } .

尚、出力動画像記憶手段8は、メモリ、ハードディスク等のハードウェアであり、時間t及び空間(x,y)のいずれに関してもランダムアクセスが可能であるものとする。   The output moving image storage means 8 is hardware such as a memory and a hard disk, and can be randomly accessed for both time t and space (x, y).

以上のように、本発明の実施形態によるフレームレート変換装置100によれば、時間位置合わせ手段5が、第1の処理または第2の処理にて、指定画素の画素時系列(G(t;x,y))t∈Uと周辺画素の画素時系列(G(t;ξ,η))t∈Sとを比較し、類似度を最大化する時間ずれ量δtを求め、これを時間移動量Δtとして出力するようにした。また、内挿手段6が、第1の処理にて、指定画素の画素時系列(G(t;x,y))t∈Uを時間方向に内挿補間することにより連続関数g(t;x,y)を生成し、同様に、周辺画素の画素時系列(G(t;ξ,η))t∈Sを時間方向に内挿補間することにより連続関数g(t;ξ,η)を生成し、指定画素の連続関数g(t;x,y)と、周辺画素の連続関数g(t;ξ,η)を時間方向に時間移動量Δtずらした連続関数g(t+Δt;ξ,η)とを、単純平均等により合成し、内挿値F(t;x,y)を求めるようにした。また、内挿手段6が、第2の処理にて、指定画素の画素時系列(G(t;x,y))t∈Uと観測モデルDの値との間の誤差、及び、時間移動量Δtずらした周辺画素の画素時系列(G(t+Δt;ξ,η))t∈Sと観測モデルDの値との間の誤差に基づいて評価値J[Φ]を求め、評価値J[Φ]が最小となる仮のΦを算出し、内挿値F(t;x,y)を求めるようにした。 As described above, according to the frame rate conversion apparatus 100 according to the embodiment of the present invention, the time alignment unit 5 performs the pixel time series (G (t; x, y)) tεU and the pixel time series of surrounding pixels (G (t; ξ, η)) tεS are compared to obtain a time shift amount δt that maximizes the similarity, and this is moved over time. It was made to output as quantity (DELTA) t. Further, in the first process, the interpolating means 6 interpolates the pixel time series (G (t; x, y)) tεU of the designated pixel in the time direction so that the continuous function g (t; x, y) and similarly, a continuous function g (t; ξ, η) is obtained by interpolating the pixel time series (G (t; ξ, η)) t∈S in the time direction of the surrounding pixels. , And a continuous function g (t + Δt; ξ,) in which the continuous function g (t; x, y) of the designated pixel and the continuous function g (t; ξ, η) of the surrounding pixels are shifted in the time direction by the time movement amount Δt. η) is synthesized by a simple average or the like to obtain an interpolated value F (t; x, y). In addition, the interpolation means 6 performs an error and time shift between the pixel time series (G (t; x, y)) tεU of the designated pixel and the value of the observation model D in the second process. Pixel time series of neighboring pixels shifted by the amount Δt (G (t + Δt; ξ, η)) An evaluation value J [Φ] is obtained based on an error between t∈S and the value of the observation model D, and the evaluation value J [ The provisional Φ that minimizes Φ] is calculated, and the interpolated value F (t; x, y) is obtained.

これにより、複数の画素位置について時間的な相関をとることで、指定画素の画素時系列(G(t;x,y))t∈Uに最も類似する周辺画素の画素時系列(G(t;ξ,η))t∈Sにおける時間移動量Δtを求め、指定画素の画素時系列(G(t;x,y))t∈Uと時間移動量Δtずらした周辺画素の画素時系列(G(t+Δt;ξ,η))t∈Sとを用いて、内挿値F(t;x,y)を生成するようにしたから、動きぶれが少なく、時間的に滑らかに変化する動画像を得ることができる。したがって、時間方向の高画質な動画像を得ることが可能なフレームレート変換を実現することができる。 Accordingly, by taking a temporal correlation with respect to a plurality of pixel positions, the pixel time series (G (t; x, y)) of the designated pixel is the pixel time series (G (t ; Ξ, η)) A time shift Δt at tεS is obtained, and a pixel time series of the designated pixel (G (t; x, y)) A pixel time series of peripheral pixels shifted by tεU from the time shift Δt ( Since G (t + Δt; ξ, η)) t∈S is used to generate the interpolated value F (t; x, y), a moving image with little motion blur and smoothly changing in time Can be obtained. Accordingly, it is possible to realize frame rate conversion capable of obtaining a high-quality moving image in the time direction.

また、本発明の実施形態によるフレームレート変換装置100によれば、時間位置合わせ手段5が、フレーム間で局所テクスチャのマッチング(ブロックマッチング等)を行う代わりに、画素位置間で局所時系列のマッチングを行うことにより、動画像の時空間相関を利用した位置合わせを行うようにした。このため、2次元の探索を行うブロックマッチングとは異なり、1次元の探索を行えばよいから、処理が簡素化され、演算コストも小さくなる。また、フレーム内においてブロック分割を行うことなく、画素位置単位で処理を行うから、ブロックノイズが生じない。また、画素間の時間相関演算は、レジストレーションを行う複数枚超解像手法の時間軸と空間軸を入れ替えたものとみなすことができる。すなわち、2次元の空間について高画質を実現する従来の複数枚超解像度手法に対し、このフレームレート変換装置100では、1次元の時間方向について高画質を実現することができる。したがって、フレームレートを変換する際の画像劣化(主にぼけ)が生じにくく、高画質のフレームレート変換を実現することができる。   Further, according to the frame rate conversion apparatus 100 according to the embodiment of the present invention, the time alignment unit 5 performs local time series matching between pixel positions instead of performing local texture matching (block matching or the like) between frames. By performing the above, the registration using the spatio-temporal correlation of moving images was performed. For this reason, unlike the block matching that performs a two-dimensional search, a one-dimensional search may be performed, which simplifies the processing and reduces the calculation cost. In addition, block noise is not generated because processing is performed in units of pixel positions without performing block division within a frame. In addition, the time correlation calculation between pixels can be regarded as the time axis and the space axis of the multiple-resolution super-resolution technique for performing registration are interchanged. That is, the frame rate conversion apparatus 100 can realize high image quality in the one-dimensional time direction as compared with the conventional multiple-resolution super-resolution technique that realizes high image quality in a two-dimensional space. Therefore, image degradation (mainly blur) when converting the frame rate hardly occurs, and high-quality frame rate conversion can be realized.

本発明の実施形態によるフレームレート変換装置100は、フレームレートの互いに異なるテレビジョン方式間の映像変換、及びテレシネ変換等に用いることができる。また、任意の時間標本点を設定することができるから、映像内容に応じた動的なフレームレート制御に用いることも可能である。   The frame rate conversion apparatus 100 according to the embodiment of the present invention can be used for video conversion between television systems having different frame rates, telecine conversion, and the like. Moreover, since an arbitrary time sample point can be set, it can also be used for dynamic frame rate control according to the video content.

尚、本発明の実施形態によるフレームレート変換装置100のハードウェア構成としては、通常のコンピュータを使用することができる。フレームレート変換装置100は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。フレームレート変換装置100に備えた入力動画像記憶手段1、計数手段2、画素時系列読出手段3、周辺画素時系列読出手段4、時間位置合わせ手段5、内挿手段6、画素時系列書込手段7及び出力動画像記憶手段8の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。   As a hardware configuration of the frame rate conversion apparatus 100 according to the embodiment of the present invention, a normal computer can be used. The frame rate conversion apparatus 100 is configured by a computer including a volatile storage medium such as a CPU and a RAM, a non-volatile storage medium such as a ROM, an interface, and the like. Input video storage means 1, counting means 2, pixel time series reading means 3, peripheral pixel time series reading means 4, time alignment means 5, interpolation means 6, pixel time series writing provided in the frame rate conversion apparatus 100 Each function of the means 7 and the output moving image storage means 8 is realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

1 入力動画像記憶手段
2 計数手段
3 画素時系列読出手段
4 周辺画素時系列読出手段
5 時間位置合わせ手段
6 内挿手段
7 画素時系列書込手段
8 出力動画像記憶手段
10 時空間ボリューム
11,15,23,24 フレーム
12,12−1,12−2,12−3,13,13−1,13−2,13−3,14,14−1,14−2,14−3 物体
16,20 テクスチャ
21,21−1,21−2 指定画素位置
22,22−1,22−2 周辺画素位置
23,24 フレーム
25 周辺画素の画素時系列波形
26 指定画素の画素時系列波形
27 時間位置合わせ後の画素時系列波形
100 フレームレート変換装置
DESCRIPTION OF SYMBOLS 1 Input moving image memory | storage means 2 Counting means 3 Pixel time series reading means 4 Peripheral pixel time series reading means 5 Time alignment means 6 Interpolation means 7 Pixel time series writing means 8 Output moving image storage means 10 Space-time volume 11, 15, 23, 24 Frame 12, 12-1, 12-2, 12-3, 13, 13-1, 13-2, 13-3, 14, 14-1, 14-2, 14-3 Object 16, 20 Texture 21, 21-1, 21-2 Designated pixel position 22, 22-1, 22-2 Peripheral pixel position 23, 24 Frame 25 Pixel time-series waveform of peripheral pixel 26 Pixel time-series waveform of designated pixel 27 Time alignment Later pixel time-series waveform 100 Frame rate conversion device

Claims (6)

動画像のフレームレートを変換するフレームレート変換装置において、
複数時点のフレームにより構成される動画像が格納された動画像記憶手段と、
前記動画像記憶手段に格納された動画像における所定の時間範囲に含まれるフレームから、予め指定された画素位置の画素値を、指定画素時系列データとして読み出す画素時系列読出手段と、
前記動画像記憶手段に格納された動画像における所定の時間範囲に含まれるフレームから、前記指定された画素位置を基準にした所定範囲内の周辺位置に存在する画素値を、周辺画素時系列データとして読み出す周辺画素時系列読出手段と、
前記画素時系列読出手段により読み出された指定画素時系列データと、前記周辺画素時系列読出手段により読み出された周辺画素時系列データとが最も類似する時間位置を求め、前記時間位置を時間移動量として出力する時間位置合わせ手段と、
前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を、前記時間位置合わせ手段により出力された時間移動量だけ移動させ、前記移動させた後の時系列データ及び前記移動させていない時系列データに基づいて、所望時間における画素値を内挿値として求める内挿手段と、
を備えることを特徴とするフレームレート変換装置。
In a frame rate conversion device for converting the frame rate of a moving image,
Moving image storage means storing moving images composed of frames at a plurality of time points;
Pixel time-series reading means for reading out the pixel value at a pixel position designated in advance as designated pixel time-series data from a frame included in a predetermined time range in the moving image stored in the moving image storage means;
Pixel values present at peripheral positions within a predetermined range with reference to the specified pixel position from a frame included in a predetermined time range in the moving image stored in the moving image storage means Peripheral pixel time-series readout means for reading out as
A time position where the specified pixel time-series data read by the pixel time-series reading means and the peripheral pixel time-series data read by the peripheral pixel time-series reading means are most similar is obtained, and the time position is determined as a time. A time alignment means for outputting as a movement amount;
Either the designated pixel time-series data read by the pixel time-series reading means or the peripheral pixel time-series data read by the peripheral pixel time-series reading means is output by the time alignment means. Interpolating means for obtaining a pixel value at a desired time as an interpolated value based on the time-series data after the movement and the time-series data that has not been moved.
A frame rate conversion apparatus comprising:
請求項1に記載のフレームレート変換装置において、
前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データを時間方向に内挿補間し、時間方向に連続した画素値を有する指定画素の連続関数を生成し、前記周辺画素時系列読出手段により読み出された周辺画素時系列データを時間方向に内挿補間し、時間方向に連続した画素値を有する周辺画素の連続関数を生成し、前記指定画素の連続関数または前記周辺画素の連続関数のうちのいずれか一方を時間方向にずらしたときに、前記指定画素の連続関数及び前記周辺画素の連続関数が最も類似する時間ずれ量を求め、前記時間ずれ量を時間移動量として出力することを特徴とするフレームレート変換装置。
The frame rate conversion apparatus according to claim 1,
The time alignment means interpolates the specified pixel time-series data read by the pixel time-series reading means in the time direction, and generates a continuous function of the specified pixels having pixel values continuous in the time direction; The peripheral pixel time-series data read by the peripheral pixel time-series reading means is interpolated in the time direction to generate a continuous function of peripheral pixels having pixel values continuous in the time direction, and the continuous function of the designated pixel Alternatively, when any one of the continuous functions of the peripheral pixels is shifted in the time direction, a time shift amount in which the continuous function of the designated pixel and the continuous function of the peripheral pixels are most similar is obtained, and the time shift amount is calculated. A frame rate conversion device characterized in that the frame rate conversion device outputs the amount of time movement.
請求項1に記載のフレームレート変換装置において、
前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を時間方向に内挿補間し、時間方向に連続した画素値を有する連続関数を生成し、前記生成された連続関数、または前記連続関数が生成されていない時系列データのうちのいずれか一方を時間方向にずらしたときに、前記連続関数及び前記時系列データが最も類似する時間ずれ量を求め、前記時間ずれ量を時間移動量として出力することを特徴とするフレームレート変換装置。
The frame rate conversion apparatus according to claim 1,
The time alignment means sets one of the designated pixel time-series data read by the pixel time-series reading means and the peripheral pixel time-series data read by the peripheral pixel time-series reading means as time. Interpolating in the direction, generating a continuous function having continuous pixel values in the time direction, and generating either the generated continuous function or time series data in which the continuous function is not generated in the time direction A frame rate conversion device characterized in that when the shift is performed, a time shift amount that most closely resembles the continuous function and the time-series data is obtained, and the time shift amount is output as a time shift amount.
請求項1に記載のフレームレート変換装置において、
前記時間位置合わせ手段が、前記画素時系列読出手段により読み出された指定画素時系列データ、または前記周辺画素時系列読出手段により読み出された周辺画素時系列データのうちのいずれか一方を、前記フレームの時間間隔の自然数倍毎にずらしたときに、前記指定画素時系列データと前記周辺画素時系列データとの間の、前記フレームの時間間隔の自然数倍毎の離散的な誤差を示す評価値が最小となる時間を求め、前記時間を含む所定時間範囲において、時間的に連続した値を有する所定の複数の連続関数と、前記離散的な評価値と間の誤差をそれぞれ求め、前記誤差が最小となる連続関数を特定し、前記特定した連続関数の極値を求め、前記極値の時間を時間移動量として出力することを特徴とするフレームレート変換装置。
The frame rate conversion apparatus according to claim 1,
The time alignment means, either the designated pixel time series data read by the pixel time series reading means or the peripheral pixel time series data read by the peripheral pixel time series reading means, When the natural time multiple of the time interval of the frame is shifted, a discrete error between the specified pixel time-series data and the peripheral pixel time-series data for each natural number of the time interval of the frame. Obtaining a time at which the evaluation value shown is minimum, and obtaining an error between a plurality of predetermined continuous functions having a temporally continuous value and the discrete evaluation value in a predetermined time range including the time, A frame rate conversion apparatus characterized by identifying a continuous function that minimizes the error, obtaining an extreme value of the identified continuous function, and outputting the time of the extreme value as a time movement amount.
請求項4に記載のフレームレート変換装置において、
前記時間位置合わせ手段が、パラボラフィッティングまたは最小自乗フィッティングにより、前記誤差が最小となる連続関数を特定することを特徴とするフレームレート変換装置。
In the frame rate conversion device according to claim 4,
The frame rate conversion apparatus characterized in that the time alignment means specifies a continuous function that minimizes the error by parabolic fitting or least square fitting.
コンピュータを、請求項1から5までのいずれか一項に記載のフレームレート変換装置として機能させるためのフレームレート変換プログラム。   A frame rate conversion program for causing a computer to function as the frame rate conversion device according to any one of claims 1 to 5.
JP2010246459A 2010-11-02 2010-11-02 Frame rate conversion apparatus and program Active JP5511628B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010246459A JP5511628B2 (en) 2010-11-02 2010-11-02 Frame rate conversion apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010246459A JP5511628B2 (en) 2010-11-02 2010-11-02 Frame rate conversion apparatus and program

Publications (2)

Publication Number Publication Date
JP2012100099A true JP2012100099A (en) 2012-05-24
JP5511628B2 JP5511628B2 (en) 2014-06-04

Family

ID=46391521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010246459A Active JP5511628B2 (en) 2010-11-02 2010-11-02 Frame rate conversion apparatus and program

Country Status (1)

Country Link
JP (1) JP5511628B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100189A (en) * 2010-11-05 2012-05-24 Univ Of Tokyo Generation method and apparatus for high time resolution video image
KR101473428B1 (en) 2012-07-03 2015-01-16 삼성테크윈 주식회사 Image matching method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104656A (en) * 2002-09-12 2004-04-02 Toshiba Corp Motion vector detection method, frame interpolation image creation method, and image display system
JP2006020108A (en) * 2004-07-02 2006-01-19 Sony Corp Image processing apparatus and method, recording medium and program
JP2010087611A (en) * 2008-09-29 2010-04-15 Sony Corp Image processor, image processing method, program for executing method, and computer readable recording medium having program recorded thereon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104656A (en) * 2002-09-12 2004-04-02 Toshiba Corp Motion vector detection method, frame interpolation image creation method, and image display system
JP2006020108A (en) * 2004-07-02 2006-01-19 Sony Corp Image processing apparatus and method, recording medium and program
JP2010087611A (en) * 2008-09-29 2010-04-15 Sony Corp Image processor, image processing method, program for executing method, and computer readable recording medium having program recorded thereon

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100189A (en) * 2010-11-05 2012-05-24 Univ Of Tokyo Generation method and apparatus for high time resolution video image
KR101473428B1 (en) 2012-07-03 2015-01-16 삼성테크윈 주식회사 Image matching method

Also Published As

Publication number Publication date
JP5511628B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
US11595653B2 (en) Processing of motion information in multidimensional signals through motion zones and auxiliary information through auxiliary zones
JP4968259B2 (en) Image high resolution device, image high resolution method and program
US8958484B2 (en) Enhanced image and video super-resolution processing
US8098962B2 (en) Signal processing method, apparatus, and program
JP2004266381A (en) Image processor, image processing method, learning device and method, recording medium, and program
US9020273B2 (en) Image processing method, image processor, integrated circuit, and program
JP2000244851A (en) Picture processor and method and computer readable storage medium
KR20100118978A (en) Sparse geometry for super resolution video processing
EP2126627B1 (en) Method of improving the video images from a video camera
US20120287339A1 (en) Image Processing Method and System with Repetitive Pattern Detection
CN116745813A (en) Self-supervision type depth estimation framework for indoor environment
JP5511628B2 (en) Frame rate conversion apparatus and program
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
Gour et al. Hardware accelerator for real-time image resizing
KR20210128203A (en) System and method for providing volumetric 3D video
JP5410232B2 (en) Image restoration device, program thereof, and multidimensional image restoration device
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP6059899B2 (en) Frame interpolation apparatus and program
US8805101B2 (en) Converting the frame rate of video streams
JP2009118456A (en) Image interpolation apparatus and method
JP6854629B2 (en) Image processing device, image processing method
JP2008193462A (en) Frame interpolation apparatus and frame interpolation method
JP5762006B2 (en) Image processing apparatus and image processing method
JP5309097B2 (en) Motion estimation apparatus and program
JP2010219715A (en) Image processor, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140325

R150 Certificate of patent or registration of utility model

Ref document number: 5511628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250