JP2009200985A - Video processing apparatus - Google Patents

Video processing apparatus Download PDF

Info

Publication number
JP2009200985A
JP2009200985A JP2008042329A JP2008042329A JP2009200985A JP 2009200985 A JP2009200985 A JP 2009200985A JP 2008042329 A JP2008042329 A JP 2008042329A JP 2008042329 A JP2008042329 A JP 2008042329A JP 2009200985 A JP2009200985 A JP 2009200985A
Authority
JP
Japan
Prior art keywords
frame
interpolation
information
image
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2008042329A
Other languages
Japanese (ja)
Inventor
Keisuke Inada
圭介 稲田
Daisuke Yoshida
大輔 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008042329A priority Critical patent/JP2009200985A/en
Publication of JP2009200985A publication Critical patent/JP2009200985A/en
Ceased legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein, in the prior arts, since an interpolation frame is generated on the basis of a motion vector generated on the basis of recorded video information, it is difficult to accurately reproduce panning information, tilting information and zooming information in recording, and since acceleration information can not be estimated from the recorded video information, when the interpolation frame is generated using a motion compensation vector, deviation from actual operation may occur. <P>SOLUTION: In a photographing unit, a video signal is encoded, camera information is recorded together with the encoded video information, and the recorded video signal and camera information are input to a reproduction unit. In the reproduction unit, the recorded video information is decoded, and while using camera information such as, e.g., zooming information, panning information, acceleration information or tilting information, N pieces of interpolation frames are generated and output between image frames of the decoded video signal, thereby achieving frame interpolation meeting a status in recording. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、映像処理装置に関する。例えば、ビデオカメラで映像を撮影し、モニタで再生する映像撮影及び再生装置において、映像撮影時に、カメラ情報、例えばズーム情報またはパン情報または加速度情報または傾き情報を記録し、再生時にカメラ情報を利用して、記録された映像の画像フレーム間に、補間フレームを生成、挿入することで、記録したフレームレート以上のレートで再生することを可能とするシステム、方法及び機器に関する。
The present invention relates to a video processing apparatus. For example, in a video shooting and playback device that captures video with a video camera and plays back on a monitor, camera information such as zoom information, pan information, acceleration information, or tilt information is recorded during video shooting, and camera information is used during playback In addition, the present invention relates to a system, method, and apparatus that can reproduce at a rate higher than the recorded frame rate by generating and inserting an interpolation frame between image frames of the recorded video.

本技術分野の背景技術として、例えば、特開2005-6275号公報(特許文献1)がある。該公報には、課題として「補間フレーム作成の精度をさらに向上させる成装置と方法および補間フレーム作成プログラムを提供し、装置への実装に適した方法およびプログラムを提供する。さらに本技術を実装した補間フレーム作成装置を提供する。」と記載され、解決手段として「補間フレーム作成装置201は、動き補償符号化された符号化画像信号210を復号化して得られた画像フレームを補間するための補間フレームを作成する装置であって、動きベクトル導出部203と、補間フレーム作成部204とを備えている。動きベクトル導出部203は、符号化画像信号210を構成する符号化ブロックの動き補償ベクトルを取得する。補間フレーム作成部204は、画像フレームを構成する画像ブロックの動きベクトルに基づいて、補間フレームを作成する手段であって、画像ブロックの動きベクトルとして、符号化ブロックの動き補償ベクトルを用いる。」と記載されている(要約参照)。   As background art of this technical field, for example, there is JP-A-2005-6275 (Patent Document 1). In this publication, as a subject, “a device and method for further improving the accuracy of interpolation frame creation and an interpolation frame creation program are provided, and a method and program suitable for implementation in the device are provided. An interpolation frame generation device is provided. ”As an solving means,“ interpolation frame generation device 201 is an interpolation for interpolating an image frame obtained by decoding encoded image signal 210 subjected to motion compensation encoding. An apparatus for creating a frame, which includes a motion vector deriving unit 203 and an interpolation frame creating unit 204. The motion vector deriving unit 203 obtains a motion compensation vector of a coding block constituting the coded image signal 210. Based on the motion vectors of the image blocks that make up the image frame, the interpolation frame creation unit 204 And means for creating between frames as the motion vector of the image block, using the motion compensation vectors of coded blocks. "Is described as (see Abstract).

また、本技術分野の他の背景技術として、例えば、特開平5-14776号公報(特許文献2)がある。該公報には、目的として「カメラ撮影の記録が行われた後、そのカメラ映像と共に、カメラ操作情報を利用すること。」と記載され、構成として「テレビカメラ1で撮影した際のパン角度,チルト角度,ズーム量,フォーカス量,カメラ位置の情報をカメラ情報検出器2で検出し、ディジタル符号器3で符号化した後、カメラ1からの映像信号の垂直ブランキングに重畳し、VTR5によってテープに記録する。」と記載されている(要約参照)。   Another background art of this technical field is, for example, Japanese Patent Application Laid-Open No. 5-14776 (Patent Document 2). In this publication, the purpose is to “use camera operation information together with the camera video after the camera shooting is recorded”, and the configuration is “pan angle when shooting with the TV camera 1, Information on the tilt angle, zoom amount, focus amount, and camera position is detected by the camera information detector 2, encoded by the digital encoder 3, superimposed on the vertical blanking of the video signal from the camera 1, and taped by the VTR 5. Is recorded ”(see summary).

また、本技術分野の他の背景技術として、例えば、特開2006−262135号公報(特許文献3)がある。該公報には、課題として「動画撮影時に取得される装置に作用する加速度を利用した動画の記録再生を可能とする。」と記載され、解決手段として「カメラ装置1は、動画撮影モードにおいて、複数のフレーム画像からなる動画を撮影する。動画撮影時には加速度検出部46により加速度を取得し、この取得された加速度に応じてフレーム画像を間引き/補間することで撮影された動画のフレーム数を調整し、このフレーム数が調整された動画をメモリカード32あるいは内蔵メモリ33に記録する。」と記載されている(要約参照)。   Moreover, as another background art of this technical field, there exists Unexamined-Japanese-Patent No. 2006-262135 (patent document 3), for example. In this publication, a problem is described as “capable of recording and reproducing a moving image using acceleration acting on a device acquired at the time of moving image shooting.” As a solving means, “the camera device 1 is in a moving image shooting mode. Shoots a moving image composed of a plurality of frame images, and acquires the acceleration by the acceleration detection unit 46 when shooting the moving image, and adjusts the number of frames of the moving image by thinning out / interpolating the frame image according to the acquired acceleration. Then, the moving image with the adjusted number of frames is recorded in the memory card 32 or the built-in memory 33 ”(see summary).

また、本技術分野の他の背景技術として、例えば、特開平10−233996号公報(特許文献4)がある。該公報には、課題として「間欠的に記録された映像信号を再生する際に、画像の平行移動を検出したときに違和感の少ない画像を再生する映像信号再生装置および映像信号再生方法を提供する。」と記載され、解決手段として「入力信号処理部2には、監視ビデオ、テレビジョン電話等からの間欠画像の映像信号が入力される。システムコントロール部8は、付加情報処理部4又は動きベクトル検出部5からの情報に基づき間欠画像が平行移動したことを検出する。システムコントロール部8は、平行移動をしたことを検出すると、付加情報処理部4で検出した間欠画像の間欠間隔から内挿する補間フレームの挿入枚数等を決定して、内挿処理部6の制御を行う。内挿処理部6は、間欠画像から補間フレームを生成し、この補間フレームをこの間欠画像に合成する。」と記載されている(要約参照)。

特開2005-6275公報(第1頁、図1) 特開平5-14776公報(第1頁、図2) 特開2006−262135号公報(段落52〜82) 特開平10−233996号公報(段落13〜21、図14、16)
Another background art of this technical field is, for example, Japanese Patent Laid-Open No. 10-233996 (Patent Document 4). The gazette provides a video signal playback apparatus and video signal playback method for playing back an image with less sense of incongruity when detecting parallel movement of an image when playing an intermittently recorded video signal. As a solving means, the video signal of the intermittent image from the monitoring video, the video phone, etc. is input to the input signal processing unit 2. The system control unit 8 is connected to the additional information processing unit 4 or the motion. The system control unit 8 detects that the intermittent image has been translated based on the information from the vector detection unit 5. When the system control unit 8 detects that the parallel image has been translated, the system control unit 8 detects whether the intermittent image is detected from the intermittent interval of the intermittent image detected by the additional information processing unit 4. The number of interpolation frames to be inserted is determined to control the interpolation processing unit 6. The interpolation processing unit 6 generates an interpolation frame from the intermittent image, and performs this interpolation frame processing. It is described to synthesize the intermittent image. "(See Abstract).

Japanese Patent Laying-Open No. 2005-6275 (first page, FIG. 1) JP-A-5-14776 (first page, FIG. 2) JP 2006-262135 A (paragraphs 52 to 82) Japanese Patent Laid-Open No. 10-233996 (paragraphs 13 to 21, FIGS. 14 and 16)

上記特許文献1に記載の技術では、記録映像情報を元に生成した動きベクトルを元に、補間フレームを生成するため、記録時のパン情報、傾き情報、ズーム情報を正確に再現することは難しい。また、加速度情報に関しては記録映像情報からは推測することができない。従って、上記動き補償ベクトルを用いて補間フレームを生成した場合、実際の動作とのずれが発生する。   With the technique described in Patent Document 1, since an interpolation frame is generated based on a motion vector generated based on recorded video information, it is difficult to accurately reproduce pan information, tilt information, and zoom information at the time of recording. . Further, the acceleration information cannot be estimated from the recorded video information. Therefore, when an interpolation frame is generated using the motion compensation vector, a deviation from the actual operation occurs.

また、特許文献2に記載の技術では、テレビカメラ1で撮影した際のパン角度,チルト角度,ズーム量,フォーカス量,カメラ位置の情報を記録するが、これを補間フレームの生成に用いる記載はない。   Further, in the technique described in Patent Document 2, information on pan angle, tilt angle, zoom amount, focus amount, and camera position at the time of shooting with the television camera 1 is recorded. Absent.

また、特許文献3に記載の技術では、動画撮影時には加速度検出部46により加速度を取得し、この取得された加速度に応じてフレーム画像を間引き/補間することで撮影された動画のフレーム数を調整するが、補間フレームを生成する際に、枚数以外の点で、当該加速度を用いるものではない。   In the technique described in Patent Document 3, the acceleration is detected by the acceleration detection unit 46 at the time of moving image shooting, and the number of frames of the captured moving image is adjusted by thinning out / interpolating the frame image according to the acquired acceleration. However, when the interpolation frame is generated, the acceleration is not used at points other than the number of frames.

また、特許文献4に記載の技術では、映像信号や音声信号の他に付加情報が記録され、付加情報にはカメラワーク情報(パンニング、ズームアップ等)が含まれる(段落0018参照)。そして、画像が平行移動を検出した場合は、現フレーム(または前フレーム)を補間フレームの位置まで平行移動し、そこに静止画像を合成する等して、補間フレームを生成する(図14,16、段落52,58参照)。しかし、当該技術は、画像の平行移動のみを対象とし、静止画像部分以外は、現フレーム(または前フレーム)を補間フレームの位置まで平行移動するだけであり、より複雑な動きがある場合に対応できない。   In the technique described in Patent Document 4, additional information is recorded in addition to the video signal and the audio signal, and the additional information includes camera work information (panning, zoom-up, etc.) (see paragraph 0018). When the image detects parallel movement, the current frame (or the previous frame) is translated to the position of the interpolation frame, and a still image is synthesized there to generate an interpolation frame (FIGS. 14 and 16). , Paragraphs 52 and 58). However, this technology only deals with the translation of the image, and only the current frame (or the previous frame) is translated to the position of the interpolation frame except for the still image part. Can not.

そこで、本発明のある一面は、上記の課題を改善し、高画質な映像処理装置を提供することを目的としている。   In view of the above, an object of one aspect of the present invention is to improve the above-described problem and provide a video processing apparatus with high image quality.

上記目的を達成するため、本発明のある一面は、特許請求の範囲に記載の構成を採用する。一例として、映像信号に含まれる連続する2枚の画像フレームについて、カメラ情報を用いて、該2枚の画像フレームの間の時間的位置に対応するように補正し、補正された補正フレームについて、動き補償を用いて、該2枚の画像フレームの間に補間する補間フレームを生成するようにする。例えば、撮影部において、映像信号を符号化し、符号化された映像情報と共にカメラ情報を記録し、記録された映像信号とカメラ情報を再生部の入力とし、再生部において、記録された映像情報を復号化し、復号化された映像信号の画像フレーム間に、カメラ情報、例えばズーム情報またはパン情報または加速度情報または傾き情報を用いてN枚の補間フレームを生成して出力することで、記録時の状態に合わせたフレーム補間を実現する。   In order to achieve the above object, one aspect of the present invention employs the configurations described in the claims. As an example, for two consecutive image frames included in the video signal, the camera information is used to correct the image to correspond to the temporal position between the two image frames. Motion compensation is used to generate an interpolation frame that interpolates between the two image frames. For example, in the photographing unit, the video signal is encoded, the camera information is recorded together with the encoded video information, the recorded video signal and the camera information are input to the reproducing unit, and the recorded video information is recorded in the reproducing unit. By generating and outputting N interpolated frames using camera information, for example, zoom information or pan information or acceleration information or tilt information, between the image frames of the decoded video signal, it is possible to record at the time of recording. Realize frame interpolation according to the state.

本発明のある一面によれば、高画質な映像処理装置が提供できる。例えば、記録時の状態に合わせたフレーム補間を実現するシステム、方法及び機器の提供が可能である。   According to one aspect of the present invention, a high-quality video processing apparatus can be provided. For example, it is possible to provide a system, a method, and a device that realize frame interpolation according to the recording state.

上記以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

以下、本発明の実施の形態を、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施例を具体化するシステムの一例である。   FIG. 1 is an example of a system that embodies this embodiment.

本実施の形態は、撮影部1において、映像信号を符号化し、符号化された映像情報と共にカメラ情報を記録し、記録された映像信号とカメラ情報を再生部2の入力とし、再生部2において、記録された映像情報を復号化し、復号化された映像信号の画像フレーム間に、カメラ情報、例えばズーム情報またはパン情報または加速度情報または傾き情報を用いてN枚の補間フレームを生成して出力することで、記録時の状態に合わせたフレーム補間を実現するシステムに関するものである。   In the present embodiment, the photographing unit 1 encodes a video signal, records camera information together with the encoded video information, inputs the recorded video signal and camera information to the playback unit 2, and the playback unit 2 Decode the recorded video information, and generate and output N interpolation frames between the image frames of the decoded video signal using camera information, for example, zoom information or pan information, acceleration information or tilt information Thus, the present invention relates to a system that realizes frame interpolation in accordance with the recording state.

図2は、図1における再生部2の詳細な一例である。再生部2は、撮影部1で符号化された映像信号を復号化することを特徴とする復号化部と、復号化された映像信号と撮影部1から取得したカメラ情報を元に、復号化された映像信号の画像フレームAと画像フレームBの間に1枚または複数枚の補間フレームCを生成し、前記画像フレームAと画像フレームBの間に、前記補間フレームCを挿入して出力するフレーム補間部とで構成される。   FIG. 2 is a detailed example of the reproducing unit 2 in FIG. The reproduction unit 2 decodes the video signal encoded by the imaging unit 1 based on the decoded video signal and the camera information acquired from the imaging unit 1. One or a plurality of interpolation frames C are generated between the image frame A and the image frame B of the received video signal, and the interpolation frame C is inserted and output between the image frame A and the image frame B. It consists of a frame interpolation unit.

図3は、図2におけるフレーム補間部4の詳細な一例である。フレーム補間部4は、画像フレームAと画像フレームBの間に、時間的に等間隔な位置にN枚の補間フレームを生成することを特徴とし、画像フレームAとカメラ情報を元に、N枚の補間フレームA[n](n=0,1,…,N-1)を生成する補間フレーム生成部Aと、画像フレームBとカメラ情報を元に、N枚の補間フレームB[n](n=0,1,…,N-1)を生成する補間フレーム生成部Bと、補間フレームA[n]と補間フレームB[n]を元に、N枚の補間フレームC[n](n=0,1,…,N-1)を生成する補間フレーム生成部Cとで構成される。   FIG. 3 is a detailed example of the frame interpolation unit 4 in FIG. The frame interpolation unit 4 generates N interpolation frames at positions that are equally spaced in time between the image frame A and the image frame B, and N frames based on the image frame A and camera information. Interpolation frame A [n] (n = 0, 1,..., N−1), and N interpolation frames B [n] (n) based on the image frame B and camera information. n = 0, 1,..., N−1), and N interpolation frames C [n] (n based on the interpolation frame A [n] and the interpolation frame B [n]. = 0, 1,..., N−1), and an interpolation frame generation unit C.

図4は、図3における補間フレーム生成部C7の詳細な一例である。補間フレーム生成部C7は、補間フレームA[n]及び補間フレームB[n]を構成する画像ブロックの動き補償ベクトルを生成する動き検出部と、動き補償ベクトルを用いて、補間フレームA[n]と補間フレームB[n]の間に、時間的に等間隔な位置にN枚の補間フレームC[n]を生成するフレーム補間コア部とで構成される。   FIG. 4 is a detailed example of the interpolation frame generation unit C7 in FIG. The interpolation frame generation unit C7 uses the motion compensation vector and a motion detection unit that generates a motion compensation vector of the image blocks constituting the interpolation frame A [n] and the interpolation frame B [n], and uses the motion compensation vector. And an interpolation frame B [n], and a frame interpolation core unit that generates N interpolation frames C [n] at equally spaced positions in time.

図5は、画像フレーム間に1枚の補間フレームを生成した場合の一例を示した図である。画像フレームAと画像フレームBの時刻的間隔T0に対して、時刻的に中央位置、すなわち画像フレームAと画像フレームBから共にT0/2の位置に補間フレームを生成している。   FIG. 5 is a diagram illustrating an example when one interpolation frame is generated between image frames. With respect to the time interval T0 between the image frame A and the image frame B, an interpolation frame is generated at a temporally central position, that is, at a position T0 / 2 from both the image frame A and the image frame B.

図6は、画像フレーム間にN枚の補間フレームを生成した場合の一例を示した図である。画像フレームAと画像フレームBの時刻的間隔T0に対して、N枚の補間フレームを時刻的に等間隔で配置、すなわち画像フレームAと補間フレーム、補間フレーム間、及び補間フレームと画像フレームBの間隔をそれぞれT0/(N+1)としている。   FIG. 6 is a diagram illustrating an example in which N interpolation frames are generated between image frames. N interpolation frames are arranged at equal intervals with respect to the time interval T0 between the image frame A and the image frame B, that is, between the image frame A and the interpolation frame, between the interpolation frames, and between the interpolation frame and the image frame B. The intervals are T0 / (N + 1), respectively.

図7は、画像フレーム間にN枚の補間フレームを生成した場合の別の一例を示した図である。期間210、期間211、期間212にはカメラ情報を元に分類された期間である。例えば連続した画像フレームに相関性が高い順に、期間212、期間211、期間210とする。この例では相関性に応じて、画像フレーム間に挿入する補間フレーム数を変更している。期間212は画像フレーム間の相関性が高いと判断して、3枚の補間フレームを挿入している。同様に期間211では、1枚の補間フレームを挿入している。期間210では、画像フレーム間の相関性が低いと判断し、フレーム補間を行なっていない。   FIG. 7 is a diagram showing another example when N interpolation frames are generated between image frames. Period 210, period 211, and period 212 are periods classified based on camera information. For example, the period 212, the period 211, and the period 210 are set in descending order of correlation between consecutive image frames. In this example, the number of interpolation frames to be inserted between image frames is changed according to the correlation. In the period 212, it is determined that the correlation between the image frames is high, and three interpolation frames are inserted. Similarly, in the period 211, one interpolation frame is inserted. In the period 210, it is determined that the correlation between the image frames is low, and no frame interpolation is performed.

相関性は撮影部1から取得するカメラ情報や、動き補償ベクトル情報を元に決定する。例えば、パン情報、ズーム情報、傾き情報が共に所定の閾値以内に収まっている場合には、画像フレーム間の相関性は高いと判断する。また、画像フレーム内の各画像ブロックに対する動き補償ベクトルの乱れ度合いで相関性を判断することにより、撮影時、カメラ自体は静止しているが、撮影しているオブジェクトが激しく動作している場合の画像フレーム間の相関性も判断しても良い。   The correlation is determined based on camera information acquired from the imaging unit 1 and motion compensation vector information. For example, if pan information, zoom information, and tilt information are all within a predetermined threshold, it is determined that the correlation between image frames is high. Also, by determining the correlation based on the degree of disturbance of the motion compensation vector for each image block in the image frame, the camera itself is stationary at the time of shooting, but the object being shot is moving violently. Correlation between image frames may also be determined.

動き補償ベクトルの乱れ度合いは、周辺の画像ブロックに対する動き補償ベクトルの相関性で判断しても良いし、画面全体の平均と各画像ブロックに対する動き補償ベクトルの相関性で判断しても良い。   The degree of disturbance of the motion compensation vector may be determined based on the correlation of the motion compensation vector with respect to surrounding image blocks, or may be determined based on the correlation between the average of the entire screen and the motion compensation vector with respect to each image block.

図8は、本実施例を具体化するフレーム補間手順の一例である。
本実施の形態は、時刻的にT0離れている2枚の画像フレーム、すなわち画像フレーム30と画像フレーム31の時刻的中間位置に、補間フレーム33を生成する手順に関するものである。画像フレーム30の時刻を(T)、画像フレーム31の時刻を(T+T0)とする。この場合、補間フレーム挿入位置は(T+T0/2)となる。画像フレーム30は、背景画300と移動するオブジェクト310とで構成される。画像フレーム31はパン情報40が示す分、画像フレーム30からパンした状態であり、更に移動するオブジェクト310が左上に向かって移動した構成となっている。
FIG. 8 is an example of a frame interpolation procedure that embodies this embodiment.
The present embodiment relates to a procedure for generating the interpolation frame 33 at the time intermediate position between two image frames that are separated by T0 in time, that is, the image frame 30 and the image frame 31. The time of the image frame 30 is (T) and the time of the image frame 31 is (T + T0). In this case, the interpolation frame insertion position is (T + T0 / 2). The image frame 30 includes a background image 300 and a moving object 310. The image frame 31 is panned from the image frame 30 by the amount indicated by the pan information 40, and the moving object 310 is further moved toward the upper left.

中間画像フレーム32は、画像フレーム30と画像フレーム31に対して、画像フレームを構成する画像ブロックの動き補償ベクトルの一例を示した図である。移動するオブジェクトを構成する画像ブロック50及び51から移動するオブジェクトに対する動き補償ベクトル44を生成する。また、背景画を構成する画像ブロック52及び53から、背景画に対する動き補償ベクトル42を生成する。同様に背景画を構成する画像ブロック54及び55から、背景画に対する動き補償ベクトル43を生成する。   The intermediate image frame 32 is a diagram illustrating an example of a motion compensation vector of an image block that forms an image frame with respect to the image frame 30 and the image frame 31. A motion compensation vector 44 for the moving object is generated from the image blocks 50 and 51 constituting the moving object. Also, a motion compensation vector 42 for the background image is generated from the image blocks 52 and 53 constituting the background image. Similarly, a motion compensation vector 43 for the background image is generated from the image blocks 54 and 55 constituting the background image.

動き補償ベクトルの中間位置に、画像フレーム30と画像フレーム31を元に補間フレーム33を生成する。   An interpolation frame 33 is generated based on the image frame 30 and the image frame 31 at an intermediate position of the motion compensation vector.

中間画像フレーム32の例で示すように、画像ブロック毎に動き補償ベクトルが発生する。動き補償ベクトル生成の一例として、画像フレーム内の所定範囲で画像ブロックのマッチング探索により、類似性の高い画像ブロックを検出し、動き補償ベクトルとする方式がある。本例では、パン情報40と等価なパラメータとして、動き補償ベクトル42及び43が生成されるが、再生された画像フレームより生成するため、実際のパンの動きと完全に一致はしない。また、動き補償ベクトルの誤検出発生確率も高くなる。誤った動き補償ベクトルを元に補間フレームを生成した場合、誤った位置に画像ブロックを補間してしまい、補間フレーム品質の低下を招く。   As shown in the example of the intermediate image frame 32, a motion compensation vector is generated for each image block. As an example of motion compensation vector generation, there is a method of detecting a highly similar image block by a matching search of an image block within a predetermined range in an image frame and using it as a motion compensation vector. In this example, the motion compensation vectors 42 and 43 are generated as parameters equivalent to the pan information 40. However, since the motion compensation vectors 42 and 43 are generated from the reproduced image frame, they do not completely match the actual pan motion. In addition, the probability of erroneous detection of motion compensation vectors is increased. When an interpolation frame is generated based on an incorrect motion compensation vector, an image block is interpolated at an incorrect position, resulting in a decrease in interpolation frame quality.

パン情報40から、時刻画像フレーム30と補間フレーム33のパン情報41aと、時刻画像フレーム31と補間フレーム33のパン情報41bを生成する。パン情報40を(+X,+Y)とすると、パン情報41aは(-X/2,-Y/2)、パン情報41bは(+X/2,+Y/2)となる。   From the pan information 40, pan information 41a of the time image frame 30 and the interpolation frame 33 and pan information 41b of the time image frame 31 and the interpolation frame 33 are generated. When the pan information 40 is (+ X, + Y), the pan information 41a is (-X / 2, -Y / 2) and the pan information 41b is (+ X / 2, + Y / 2).

補正画像フレーム30aは、パン情報40aを用いて、画像フレーム30を補正した図である。
補正画像フレーム31aは、パン情報40bを用いて、画像フレーム31を補正した図である。
補正画像フレーム30aと31aはパン情報を元に、それぞれ画像フレーム30と31から生成した補間フレームである。
The corrected image frame 30a is a diagram obtained by correcting the image frame 30 using the pan information 40a.
The corrected image frame 31a is a diagram obtained by correcting the image frame 31 using the pan information 40b.
The corrected image frames 30a and 31a are interpolation frames generated from the image frames 30 and 31, respectively, based on the pan information.

補正画像フレーム30aと31aから生成される中間画像フレーム32aは、補正画像フレーム30aと補正画像フレーム31aに対して、補正画像フレームを構成する画像ブロックの動き補償ベクトルの一例を示した図である。移動するオブジェクトを構成する画像ブロック56及び57から移動するオブジェクトに対する動き補償ベクトル42aを生成する。動き補償ベクトル42aは、動き補償ベクトル44からパン情報40を取り除いた動き補償ベクトルとなっている。また、背景画を構成する画像ブロックに対しては、パン情報40を取り除いたことにより、動き補償ベクトルはほぼ0値になっている。   The intermediate image frame 32a generated from the corrected image frames 30a and 31a is a diagram illustrating an example of a motion compensation vector of an image block constituting the corrected image frame with respect to the corrected image frame 30a and the corrected image frame 31a. A motion compensation vector 42a for the moving object is generated from the image blocks 56 and 57 constituting the moving object. The motion compensation vector 42a is a motion compensation vector obtained by removing the pan information 40 from the motion compensation vector 44. In addition, for the image blocks constituting the background image, the panning information 40 is removed, so that the motion compensation vector is almost zero.

実際のパン情報40を用いて、一旦補正フレームに返還した後に、動き補償ベクトルを生成することで、動き補償ベクトルの誤検出発生確率を低く抑え、結果として正しい位置に画像ブロックを補間することを可能とし、補間フレーム品質の向上を図ることができる。
The actual pan information 40 is used to generate a motion compensation vector after returning it to a correction frame, thereby reducing the probability of motion compensation vector false detection and interpolating the image block at the correct position as a result. It is possible to improve the interpolation frame quality.

図9は、2枚の画像フレーム400と401の間に1枚の補間フレームを生成する際に、線形補間を用いた場合の一例を示した図である。画像フレーム400及び401は、背景画101で構成されており、右下から左上に向かってパンしている。画像フレーム400と補間フレーム402、補間フレーム402と画像フレーム401のパン情報は共に等しいものとし、補間フレーム402を生成する。また、画像フレームの倍速のレートでカメラ情報を記録し、再生時に使用する場合、線形補間ではなく、直接、2枚の画像フレームの中間位置フレームに相当するパン情報を用いることで、更なる補間フレームの品質向上を図ることができる。
FIG. 9 is a diagram illustrating an example in which linear interpolation is used when generating one interpolation frame between two image frames 400 and 401. The image frames 400 and 401 are composed of the background image 101 and pan from the lower right to the upper left. The pan information of the image frame 400 and the interpolation frame 402, and the interpolation frame 402 and the image frame 401 are assumed to be equal, and the interpolation frame 402 is generated. In addition, when camera information is recorded at a rate twice the speed of an image frame and used during playback, further interpolation is performed by directly using pan information corresponding to an intermediate position frame between two image frames instead of linear interpolation. The quality of the frame can be improved.

図10、11、12は、カメラ情報としてパン情報、傾き情報、ズーム情報がそれぞれ付加された場合の補間フレーム生成の一例を示した図である。補間フレーム生成手順は、図8で示したとおりである。
10, 11, and 12 are diagrams illustrating an example of generating an interpolation frame when pan information, tilt information, and zoom information are added as camera information, respectively. The interpolation frame generation procedure is as shown in FIG.

図10は、2枚の画像フレーム400と401の間に1枚の補間フレームを生成する際に、非線形補間を用いた場合の一例を示した図である。画像フレーム400及び401は、背景画101で構成されており、右下から左上に向かってパンしている。加速度情報により、画像フレーム400と補間フレーム402の間隔Aと、補間フレーム402と画像フレーム401の間隔Bの比率が、1:3であるとすると、その比率に応じてパン情報も、1:3の比率となる。画像フレーム400と401のパン情報を(+X,+Y)とすると、画像フレーム400と補間フレーム402のパン情報は(+3X/4, +3X/4)、補間フレーム402と画像フレーム401のパン情報は(+X/4,+Y/4)となる。また、画像フレームの倍速のレートでカメラ情報を記録し、再生時に使用する場合、非線形補間ではなく、直接、2枚の画像フレームの所定位置フレームに相当するパン情報を用いることで、更なる補間フレームの品質向上を図ることができる。
FIG. 10 is a diagram illustrating an example in which nonlinear interpolation is used when one interpolation frame is generated between two image frames 400 and 401. The image frames 400 and 401 are composed of the background image 101 and pan from the lower right to the upper left. If the ratio of the interval A between the image frame 400 and the interpolation frame 402 and the interval B between the interpolation frame 402 and the image frame 401 is 1: 3 according to the acceleration information, the pan information is also 1: 3 according to the ratio. It becomes the ratio of. If the pan information of the image frames 400 and 401 is (+ X, + Y), the pan information of the image frame 400 and the interpolation frame 402 is (+ 3X / 4, + 3X / 4). The pan information is (+ X / 4, + Y / 4). In addition, when camera information is recorded at a rate twice the speed of an image frame and used at the time of playback, further interpolation is performed by directly using pan information corresponding to a predetermined position frame of two image frames instead of nonlinear interpolation. The quality of the frame can be improved.

図11は、カメラ情報として傾き情報が付加されている場合、2枚の画像フレーム406と407の間に1枚の補間フレーム408を生成する一例を示した図である。画像フレーム400及び401は、背景画101で構成されており、時計回りに角度θ分傾いている。画像フレーム406を時計回りに角度θ/2分回転して生成した補正画像フレームと、画像フレーム407を時計回りに角度-θ/2分回転して生成した補正画像フレームとを用いて、補間フレーム408を生成する。
FIG. 11 is a diagram illustrating an example in which one interpolation frame 408 is generated between two image frames 406 and 407 when tilt information is added as camera information. The image frames 400 and 401 are composed of the background image 101 and are inclined clockwise by an angle θ. An interpolation frame using a corrected image frame generated by rotating the image frame 406 clockwise by an angle θ / 2 and a corrected image frame generated by rotating the image frame 407 clockwise by an angle −θ / 2. 408 is generated.

図12は、カメラ情報としてズーム情報、すなわちズーム中心座標(Xz,Yz)とズーム倍率Zが付加されている場合、2枚の画像フレーム409と410の間に1枚の補間フレーム411を生成する一例を示した図である。画像フレーム409及び410は、背景画412で構成されており、座標(Xz,Yz)を中心に、Z倍されている。画像フレーム409を座標(Xz,Yz)を中心に√Z倍することで生成した補正画像フレームと、画像フレーム410を座標(Xz,Yz)を中心に1/√Z倍することで生成した補正画像フレームとを用いて、補間フレーム411を生成する。


図13は、カメラ情報としてパン情報が付加されている場合、2枚の画像フレーム409と410から動き補償ベクトル生成時の探索範囲補正を行う一例である。通常定められた探索範囲領域から、パン情報分ずらした位置を探索範囲とすることで、より効果的な探索を行なうことができ、類似性からのみ決定される誤った動き補償ベクトル生成を改善することができる。これにより、補間フレームの品質向上を図ることができる。
FIG. 12 shows that when zoom information, that is, zoom center coordinates (Xz, Yz) and zoom magnification Z are added as camera information, one interpolation frame 411 is generated between two image frames 409 and 410. It is the figure which showed an example. The image frames 409 and 410 are composed of a background image 412 and are multiplied by Z around the coordinates (Xz, Yz). A corrected image frame generated by multiplying the image frame 409 around the coordinates (Xz, Yz) by √Z, and a correction generated by multiplying the image frame 410 by 1 / √Z around the coordinates (Xz, Yz) An interpolation frame 411 is generated using the image frame.


FIG. 13 is an example of performing search range correction when generating motion compensation vectors from two image frames 409 and 410 when pan information is added as camera information. By making the position shifted by the pan information from the normally determined search range area as the search range, more effective search can be performed, and erroneous motion compensation vector generation determined only from similarity is improved. be able to. Thereby, the quality of the interpolation frame can be improved.

図14は、本実施例を具体化するシステムの別の一例である。撮影部1が、接続された再生部2のフレーム補間機能の有無を確認する手段を有し、フレーム補間機能がある場合には符号化された映像信号と共に、カメラ情報を供給し、フレーム補間機能がない場合には符号化された映像信号を供給し、カメラ情報を供給しない切替手段を有する。
FIG. 14 is another example of a system that embodies this embodiment. The photographing unit 1 has means for confirming the presence or absence of the frame interpolation function of the connected playback unit 2, and when there is a frame interpolation function, supplies camera information together with the encoded video signal, and the frame interpolation function In the case where there is no image data, a switching means for supplying an encoded video signal and not supplying camera information is provided.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.

また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
In addition, each of the above-described configurations may be configured such that some or all of them are configured by hardware, or are implemented by executing a program by a processor. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

本実施例を具体化するシステムの一例であるIt is an example of the system which actualizes this example 図1に示すフレーム補間システムにおける再生部2の一例であるIt is an example of the reproduction | regeneration part 2 in the frame interpolation system shown in FIG. 図2に示す再生部におけるフレーム補間部4の一例であるIt is an example of the frame interpolation part 4 in the reproduction | regeneration part shown in FIG. 図3に示すにおけるフレーム補間部4における補間フレーム生成部C7の一例であるIt is an example of the interpolation frame production | generation part C7 in the frame interpolation part 4 in FIG. 画像フレーム間に1枚の補間フレームを挿入した場合の一例であるIt is an example when one interpolation frame is inserted between image frames 画像フレーム間にN枚の補間フレームを挿入した場合の一例であるIt is an example when N interpolation frames are inserted between image frames. カメラ情報により、画像フレーム間に生成する補間フレーム数を変更した場合の一例であるIt is an example when the number of interpolation frames generated between image frames is changed by camera information 本実施例を具体化する補間フレーム生成手順の一例であるIt is an example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化する補間フレーム生成手順の別の一例であるIt is another example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化する補間フレーム生成手順の別の一例であるIt is another example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化する補間フレーム生成手順の別の一例であるIt is another example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化する補間フレーム生成手順の別の一例であるIt is another example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化する補間フレーム生成手順の別の一例であるIt is another example of the interpolation frame production | generation procedure which actualizes a present Example 本実施例を具体化するシステムの別の一例であるIt is another example of the system which actualizes this example

符号の説明Explanation of symbols

1 撮影部
2 再生部
100 入力映像
101 映像情報及びカメラ情報
102 補間フレームを含む画像フレーム
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Playback part 100 Input image | video 101 Image | video information and camera information 102 Image frame containing an interpolation frame

Claims (14)

撮像して映像信号を得、該映像信号を符号化し、符号化された映像信号を記録するとともに、該撮像に関するカメラ情報を記録する撮像部と、
前記符号化された映像信号を復号化し、復号化された映像信号の画像フレーム間に、補間フレームを生成して補間して出力する再生部と、
を備え、
前記再生部は、前記カメラ情報を用いて、補間フレームが補間される前後の画像フレームを、補間フレームの時間的位置に対応するように補正し、該補正された画像フレームを用いて前記補間フレームを生成すること、
を特徴とする映像処理装置。
An imaging unit that captures an image to obtain a video signal, encodes the video signal, records the encoded video signal, and records camera information related to the imaging;
A reproduction unit that decodes the encoded video signal, generates an interpolated frame between image frames of the decoded video signal, and outputs the interpolated frame;
With
The reproducing unit corrects the image frames before and after the interpolation frame is interpolated using the camera information so as to correspond to the temporal position of the interpolation frame, and uses the corrected image frame to perform the interpolation frame. Generating,
A video processing apparatus characterized by the above.
請求項1において、
前記再生部が、前記符号化された映像信号を復号化することを特徴とする復号化部と、前記復号化された映像信号と前記カメラ情報を元に、前記復号化された映像信号の連続する画像フレームAと画像フレームBの間に1枚または複数枚の補間フレームCを生成し、前記画像フレームAと画像フレームBの間に、前記補間フレームCを挿入して出力するフレーム補間部と、で構成されること
を特徴とする映像処理装置。
In claim 1,
The playback unit decodes the encoded video signal, and a sequence of the decoded video signal based on the decoded video signal and the camera information. A frame interpolation unit that generates one or a plurality of interpolation frames C between the image frame A and the image frame B, inserts the interpolation frame C between the image frame A and the image frame B, and outputs the interpolated frame C. A video processing apparatus comprising:
請求項2において、
前記フレーム補間部が、
連続する画像フレームAと画像フレームBの間に、時間的に等間隔な位置にN枚の補間フレームを生成し、
画像フレームAとカメラ情報を用いて、N枚の補正フレームA[n](n=0,1,…,N-1)を生成する補間フレーム生成部Aと、画像フレームBとカメラ情報を用いて、N枚の補正フレームB[n](n=0,1,…,N-1)を生成する補間フレーム生成部Bと、
補正フレームA[n]と補正フレームB[n]を用いて、N枚の補間フレームC[n](n=0,1,…,N-1)を生成する補間フレーム生成部Cと、を有すること
を特徴とする映像処理装置。
In claim 2,
The frame interpolation unit
Generate N interpolated frames at regular intervals in time between consecutive image frames A and B,
Using the image frame A and camera information, an interpolation frame generation unit A that generates N correction frames A [n] (n = 0, 1,..., N−1), and an image frame B and camera information are used. An interpolation frame generation unit B that generates N correction frames B [n] (n = 0, 1,..., N−1),
An interpolation frame generation unit C that generates N interpolation frames C [n] (n = 0, 1,..., N−1) using the correction frame A [n] and the correction frame B [n]. A video processing apparatus characterized by comprising:
請求項1ないし4のいずれかにおいて、
前記カメラ情報に応じて、補間フレームの枚数を変えること、
を特徴とする映像処理装置。
In any of claims 1 to 4,
Changing the number of interpolated frames according to the camera information;
A video processing apparatus characterized by the above.
請求項3において、
前記カメラ情報は、パン情報または傾き情報またはズーム情報を含み、
前記補間フレーム生成部Aが、前記カメラ情報に含まれるパン情報または傾き情報またはズーム情報を用いて、線形補間を用いて、画像フレームAを補正すること、
を特徴とする映像処理装置。
In claim 3,
The camera information includes pan information, tilt information, or zoom information,
The interpolation frame generation unit A corrects the image frame A using linear interpolation using pan information or tilt information or zoom information included in the camera information,
A video processing apparatus characterized by the above.
請求項3において、
前記カメラ情報は、加速度情報を含み、
前記補間フレーム生成部Aが、前記カメラ情報に含まれる加速度情報を用いた非線形補間を用いて、画像フレームAを補正すること、
を特徴とする映像処理装置。
In claim 3,
The camera information includes acceleration information,
The interpolation frame generation unit A corrects the image frame A using nonlinear interpolation using acceleration information included in the camera information;
A video processing apparatus characterized by the above.
請求項1ないし6のいずれかにおいて、
前記カメラ情報が、フレームレートより高いレートで記録されること
を特徴とする映像処理装置。
In any one of Claims 1 thru | or 6.
The video processing apparatus, wherein the camera information is recorded at a rate higher than a frame rate.
請求項3において、
前記補間フレーム生成部Cが、
補正フレームA[n]と補正フレームB[n]の間で動いている領域を検出し、動き補償ベクトルを生成する動き検出部と、
該動き補償ベクトルを用いて、補正フレームA[n]と補正フレームB[n]の間に、時間的に等間隔な位置にN枚の補間フレームC[n]を生成するフレーム補間コア部とを有すること
を特徴とする映像処理装置。
In claim 3,
The interpolation frame generator C
A motion detector that detects a region moving between the correction frame A [n] and the correction frame B [n] and generates a motion compensation vector;
A frame interpolation core unit that generates N interpolation frames C [n] at equal time intervals between the correction frame A [n] and the correction frame B [n] using the motion compensation vector; A video processing apparatus comprising:
請求項8において、
前記フレーム補間コア部が、線形補間を用いて補間フレームC[n]を生成すること、
を特徴とする映像処理装置。
In claim 8,
The frame interpolation core unit generates an interpolation frame C [n] using linear interpolation;
A video processing apparatus characterized by the above.
請求項8において、
前記フレーム補間コア部が、加速度情報を用いた非線形補間を用いて補間フレームC[n]を生成すること
を特徴とする映像処理装置。
In claim 8,
The video processing apparatus, wherein the frame interpolation core unit generates an interpolation frame C [n] using nonlinear interpolation using acceleration information.
請求項8ないし10のいずれかにおいて、
前記動き検出部が、補正フレームA[n]及び補正フレームB[n]を構成する画像ブロックの動き補償ベクトルを生成すること、
を特徴とする映像処理装置。
In any of claims 8 to 10,
The motion detector generates a motion compensation vector of image blocks constituting the correction frame A [n] and the correction frame B [n];
A video processing apparatus characterized by the above.
請求項8ないし11のいずれかにおいて、
前記動き検出部が、パン情報及び傾き情報を用いて、動き補償ベクトル検出を行なう探索範囲の補正を行うこと
を特徴とする映像処理装置。
In any of claims 8 to 11,
The video processing apparatus, wherein the motion detection unit corrects a search range in which motion compensation vector detection is performed using pan information and tilt information.
請求項1ないし12のいずれかにおいて、
前記撮像部が、接続された前記再生部のフレーム補間機能の有無を確認する手段を有し、
フレーム補間機能がある場合には符号化された映像信号と共に、カメラ情報を供給し、フレーム補間機能がない場合には符号化された映像信号を供給し、カメラ情報を供給しない切替手段を有すること、
を特徴とする映像処理装置。
In any of claims 1 to 12,
The imaging unit has means for confirming the presence or absence of a frame interpolation function of the connected playback unit;
When there is a frame interpolation function, camera information is supplied together with an encoded video signal, and when there is no frame interpolation function, an encoded video signal is supplied, and switching means that does not supply camera information is provided. ,
A video processing apparatus characterized by the above.
映像信号とカメラ情報とが記録された記録媒体から映像信号とカメラ情報とを読み出す読み出し手段と、
該読み出した映像信号に含まれる連続する2枚の画像フレームについて、該読み出したカメラ情報を用いて、該連続する2枚の画像フレームの間の時間的位置に対応するように補正するフレーム補正手段と、
該補正された補正フレームについて、動き補償を用いて、該連続する2枚の画像フレームの間に補間する補間フレームを生成するフレーム補間手段と、
該読み出した映像信号と該生成された補間フレームとを合成して出力する出力手段と、
を備えることを特徴とする映像処理装置。
A reading means for reading the video signal and camera information from a recording medium on which the video signal and camera information are recorded;
Frame correction means for correcting two consecutive image frames included in the read video signal so as to correspond to a temporal position between the two consecutive image frames using the read camera information. When,
Frame interpolation means for generating an interpolated frame for interpolating between the two consecutive image frames using motion compensation for the corrected correction frame;
Output means for combining and outputting the read video signal and the generated interpolation frame;
A video processing apparatus comprising:
JP2008042329A 2008-02-25 2008-02-25 Video processing apparatus Ceased JP2009200985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008042329A JP2009200985A (en) 2008-02-25 2008-02-25 Video processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008042329A JP2009200985A (en) 2008-02-25 2008-02-25 Video processing apparatus

Publications (1)

Publication Number Publication Date
JP2009200985A true JP2009200985A (en) 2009-09-03

Family

ID=41143975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008042329A Ceased JP2009200985A (en) 2008-02-25 2008-02-25 Video processing apparatus

Country Status (1)

Country Link
JP (1) JP2009200985A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102811331A (en) * 2011-06-01 2012-12-05 索尼公司 Image processing apparatus, image processing method, and program
EP2577959A1 (en) * 2010-05-26 2013-04-10 Qualcomm Incorporated Camera parameter- assisted video frame rate up conversion
KR101589725B1 (en) * 2014-07-30 2016-01-28 엘아이지넥스원 주식회사 Method for inter-frame image interpolation in video recorded on moving object
KR101589727B1 (en) * 2014-07-30 2016-01-28 엘아이지넥스원 주식회사 Apparatus for frame rate up conversion in video recorded on moving object
CN106464804A (en) * 2014-05-15 2017-02-22 株式会社理光 Imaging system, imaging apparatus, computer program, and system
US9754343B2 (en) 2013-07-15 2017-09-05 Samsung Electronics Co., Ltd. Image processing apparatus, image processing system, and image processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09252470A (en) * 1996-03-18 1997-09-22 Hitachi Ltd Method for encoding and decoding image
JPH10233996A (en) * 1997-02-20 1998-09-02 Sony Corp Video signal reproducing device and video signal reproducing method
JPH1141500A (en) * 1997-07-22 1999-02-12 Nippon Hoso Kyokai <Nhk> Device and method for detecting motion vector and storage medium
JP2003299101A (en) * 2002-04-03 2003-10-17 Nippon Telegr & Teleph Corp <Ntt> Moving picture encoding/decoding devices, moving picture encoding and decoding processes, moving picture encoding and decoding programs, recording media in which moving picture encoding and decoding programs are recorded
JP2004173130A (en) * 2002-11-22 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding image, method, device and program for decoding image, and recording medium with the programs recorded thereon
JP2006215657A (en) * 2005-02-01 2006-08-17 Sharp Corp Method, apparatus, program and program storage medium for detecting motion vector
JP2006262135A (en) * 2005-03-17 2006-09-28 Casio Comput Co Ltd Photographing device, moving picture reproducing device, and moving picture recording/reproduction program
JP2006279917A (en) * 2005-03-04 2006-10-12 Mitsubishi Electric Corp Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09252470A (en) * 1996-03-18 1997-09-22 Hitachi Ltd Method for encoding and decoding image
JPH10233996A (en) * 1997-02-20 1998-09-02 Sony Corp Video signal reproducing device and video signal reproducing method
JPH1141500A (en) * 1997-07-22 1999-02-12 Nippon Hoso Kyokai <Nhk> Device and method for detecting motion vector and storage medium
JP2003299101A (en) * 2002-04-03 2003-10-17 Nippon Telegr & Teleph Corp <Ntt> Moving picture encoding/decoding devices, moving picture encoding and decoding processes, moving picture encoding and decoding programs, recording media in which moving picture encoding and decoding programs are recorded
JP2004173130A (en) * 2002-11-22 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for encoding image, method, device and program for decoding image, and recording medium with the programs recorded thereon
JP2006215657A (en) * 2005-02-01 2006-08-17 Sharp Corp Method, apparatus, program and program storage medium for detecting motion vector
JP2006279917A (en) * 2005-03-04 2006-10-12 Mitsubishi Electric Corp Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
JP2006262135A (en) * 2005-03-17 2006-09-28 Casio Comput Co Ltd Photographing device, moving picture reproducing device, and moving picture recording/reproduction program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2577959A1 (en) * 2010-05-26 2013-04-10 Qualcomm Incorporated Camera parameter- assisted video frame rate up conversion
JP2013532418A (en) * 2010-05-26 2013-08-15 クゥアルコム・インコーポレイテッド Camera parameter assisted video frame rate up-conversion
US9137569B2 (en) 2010-05-26 2015-09-15 Qualcomm Incorporated Camera parameter-assisted video frame rate up conversion
US9609331B2 (en) 2010-05-26 2017-03-28 Qualcomm Incorporated Camera parameter-assisted video frame rate up conversion
CN102811331A (en) * 2011-06-01 2012-12-05 索尼公司 Image processing apparatus, image processing method, and program
US9754343B2 (en) 2013-07-15 2017-09-05 Samsung Electronics Co., Ltd. Image processing apparatus, image processing system, and image processing method
CN106464804A (en) * 2014-05-15 2017-02-22 株式会社理光 Imaging system, imaging apparatus, computer program, and system
US10681268B2 (en) 2014-05-15 2020-06-09 Ricoh Company, Ltd. Imaging system, imaging apparatus, and system
KR101589725B1 (en) * 2014-07-30 2016-01-28 엘아이지넥스원 주식회사 Method for inter-frame image interpolation in video recorded on moving object
KR101589727B1 (en) * 2014-07-30 2016-01-28 엘아이지넥스원 주식회사 Apparatus for frame rate up conversion in video recorded on moving object

Similar Documents

Publication Publication Date Title
US7098959B2 (en) Frame interpolation and apparatus using frame interpolation
JP5347890B2 (en) Image processing apparatus and method, and program
US7710498B2 (en) Image processing apparatus, image processing method and program
JP5418127B2 (en) Image processing apparatus and method, and program
JP4887750B2 (en) Image processing apparatus, control method, and program
US20120169840A1 (en) Image Processing Device and Method, and Program
JPH04280586A (en) Film-video signal conversion device
US20140056354A1 (en) Video processing apparatus and method
JP2009200985A (en) Video processing apparatus
JP2011082918A (en) Image processing device and method, and program
JP2012044418A (en) Picture reproducing device and control method therefor
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP2007122232A (en) Image processor and program
JP2009004885A (en) Image processing apparatus, image processing method, and program
JP4861636B2 (en) Image processing apparatus and image processing program
JP2013165488A (en) Image processing apparatus, image capturing apparatus, and program
US10783670B2 (en) Method for compression of 360 degree content and electronic device thereof
JP4235209B2 (en) Motion vector detection apparatus and motion vector detection method
JP2007259197A (en) Moving picture decoding and reproducing device with camera shake compensation function, and method
KR100787660B1 (en) Image signal processing apparatus
JP6995490B2 (en) Video playback device and its control method and program
JP2007288483A (en) Image converting apparatus
JPH10233996A (en) Video signal reproducing device and video signal reproducing method
JP2006270160A (en) Image data processing apparatus
JPWO2008129648A1 (en) Frame rate conversion apparatus, frame rate conversion method, and moving picture encoding apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130423