JP2013239791A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2013239791A
JP2013239791A JP2012109982A JP2012109982A JP2013239791A JP 2013239791 A JP2013239791 A JP 2013239791A JP 2012109982 A JP2012109982 A JP 2012109982A JP 2012109982 A JP2012109982 A JP 2012109982A JP 2013239791 A JP2013239791 A JP 2013239791A
Authority
JP
Japan
Prior art keywords
image signal
distortion
input image
image
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012109982A
Other languages
Japanese (ja)
Other versions
JP6091082B2 (en
JP2013239791A5 (en
Inventor
Kosei Sugimoto
光勢 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012109982A priority Critical patent/JP6091082B2/en
Publication of JP2013239791A publication Critical patent/JP2013239791A/en
Publication of JP2013239791A5 publication Critical patent/JP2013239791A5/ja
Application granted granted Critical
Publication of JP6091082B2 publication Critical patent/JP6091082B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide technology which can raise the frame rate of a moving image containing image distortion without collapsing the moving image.SOLUTION: An image processing device of the present invention is designed to interpolate between frames of an input image signal to raise the frame rate of the input image signal. The image processing device includes: distortion correction means which, when the input image signal is a distorted image signal, applies distortion correction processing to the input image signal to correct image distortion in it; detection means for detecting a motion vector from the distortion corrected image signal; distortion processing means for distorting the motion vector detected by the detection means according to the extent of image distortion in the input image signal; and generation means for generating from the input image signal and the motion vector distorted by the distortion processing means an interpolation frame for interpolating between the frames of the input image signal.

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

デジタルカメラで撮影する場合に、魚眼レンズなどを用いて、意図的な歪みを持つ画像を撮影することがある。このような意図的な歪みを持つ画像に対する画像処理に関する技術は、例えば、特許文献1〜3に開示されている。具体的には、特許文献1には、画像の歪みを補正した後に画像の特徴量を抽出する技術が開示されている。特許文献2には、魚眼像の手ぶれを補正する技術が開示されている。特許文献3には、画像の歪みによる影響を排除した動きベクトルを求める技術が開示されている。   When shooting with a digital camera, an image with intentional distortion may be shot using a fisheye lens or the like. Techniques relating to image processing for images having such intentional distortion are disclosed in Patent Documents 1 to 3, for example. Specifically, Patent Document 1 discloses a technique for extracting image feature amounts after correcting image distortion. Patent Document 2 discloses a technique for correcting camera shake of a fisheye image. Patent Document 3 discloses a technique for obtaining a motion vector that eliminates the influence of image distortion.

また近年、デジタル一眼レフカメラを用いた動画の撮影が行われており、魚眼レンズを使用した動画の撮影も行われている。動画を高画質化するための技術には、動画のフレーム数を増加させるフレームレート変換(以下FRC)がある。FRCは、動画のなめらかさの向上やフリッカの抑制に有効である。従って、魚眼レンズを使用して撮影した動画に対してもFRCを行うことが望ましい。FRCでは、フレームの間に補間フレームを生成することでフレーム数が増加される。補間フレームの生成方法としては、ベクトル補間がよく用いられる。ベクトル補間では、補間フレームの生成位置(時間位置)の前後のフレームから動きベクトルが求められる。そして、動きベクトルの始点と終点の中点に、上記前後のフレームのいずれか一方の画像が補間フレームの画像として生成される。   In recent years, moving images have been shot using a digital single-lens reflex camera, and moving images using a fisheye lens have also been taken. A technique for improving the quality of moving images includes frame rate conversion (hereinafter referred to as FRC) that increases the number of frames of moving images. FRC is effective in improving the smoothness of moving images and suppressing flicker. Therefore, it is desirable to perform FRC on a moving image shot using a fisheye lens. In FRC, the number of frames is increased by generating interpolation frames between frames. Vector interpolation is often used as a method for generating an interpolation frame. In vector interpolation, a motion vector is obtained from frames before and after an interpolation frame generation position (time position). Then, one of the previous and subsequent frames is generated as an interpolated frame image at the midpoint of the start and end points of the motion vector.

しかしながら、意図的な歪みを持つ動画像においては、物体は、動きベクトルに沿って直進せず、歪んだ軌道で移動する。そのため、従来のベクトル補間を用いると、誤った補間フレームが生成され(誤った位置に、上記前後のフレームのいずれか一方の画像が補間フレームの画像として生成され)、動画像が破綻してしまう。なお、特許文献3に開示の技術で得られる動きベクトルは、画像の歪みによる影響を排除した動きベクトル、即ち、歪みの無い動画像から得られる動きベクトルであり、そのような動きベクトルを用いても正しい補間フレームを生成することはできない。   However, in a moving image having intentional distortion, the object does not travel straight along the motion vector, but moves in a distorted trajectory. For this reason, when conventional vector interpolation is used, an erroneous interpolation frame is generated (one of the previous and subsequent frames is generated as an interpolation frame image at an incorrect position), and the moving image is corrupted. . Note that the motion vector obtained by the technique disclosed in Patent Document 3 is a motion vector that eliminates the influence of image distortion, that is, a motion vector obtained from a moving image without distortion, and using such a motion vector, Even correct interpolation frames cannot be generated.

特開2007−306199号公報JP 2007-306199 A 特開2006−295626号公報JP 2006-295626 A 特開2010−041419号公報JP 2010-041419 A

本発明は、画像の歪みのある動画像のフレームレートを、動画像を破綻させることなく高めることのできる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of increasing the frame rate of a moving image with image distortion without breaking the moving image.

本発明の第1の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正手段と、
前記歪み補正処理後の画像信号から動きベクトルを検出する検出手段と、
前記入力画像信号の画像の歪み方に従って、前記検出手段で検出された動きベクトルを歪ませる歪み処理手段と、
前記入力画像信号と、前記歪み処理手段で歪ませられた動きベクトルとから、前記入力画像信号のフレーム間を補間する補間フレームを生成する生成手段と、
を有することを特徴とする画像処理装置である。
The first aspect of the present invention is:
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
When the input image signal is a distorted image signal, distortion correction means for performing a distortion correction process for correcting image distortion on the input image signal;
Detecting means for detecting a motion vector from the image signal after the distortion correction processing;
Distortion processing means for distorting the motion vector detected by the detection means according to how the input image signal is distorted;
Generating means for generating an interpolated frame for interpolating between frames of the input image signal from the input image signal and the motion vector distorted by the distortion processing means;
An image processing apparatus comprising:

本発明の第2の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正手段と、
前記歪み補正処理後の画像信号から動きベクトルを検出する検出手段と、
前記歪み補正処理後の画像信号と、前記検出手段で検出された動きベクトルとから、前記歪み補正処理後の画像信号のフレーム間を補間する補間フレームを生成する生成手段と、
前記入力画像信号の画像の歪み方に従って、前記生成手段で生成された補間フレームを歪ませることにより、前記入力画像信号のフレーム間を補間する補間フレームを生成する歪み処理手段と、
を有することを特徴とする画像処理装置である。
The second aspect of the present invention is:
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
When the input image signal is a distorted image signal, distortion correction means for performing a distortion correction process for correcting image distortion on the input image signal;
Detecting means for detecting a motion vector from the image signal after the distortion correction processing;
Generating means for generating an interpolated frame for interpolating between frames of the image signal after the distortion correction processing, from the image signal after the distortion correction processing and the motion vector detected by the detection means;
Distortion processing means for generating an interpolation frame for interpolating between the frames of the input image signal by distorting the interpolation frame generated by the generation means according to a method of distortion of the image of the input image signal;
An image processing apparatus comprising:

本発明の第3の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号から動きベクトルを検出し、検出した動きベクトルを用いて、前記入力画像信号のフレーム間を補間する補間フレームを生成する第1生成手段と、
前記入力画像信号のフレームを、前記入力画像信号のフレーム間を補間する補間フレームとする第2生成手段と、
前記入力画像信号が歪んだ画像の信号でない場合に前記第1生成手段で補間フレームが生成され、前記入力画像信号が歪んだ画像の信号である場合に前記第2生成手段で補間フレームが生成されるように、前記第1生成手段の処理と前記第2生成手段の処理を制御する制御手段と、
を有することを特徴とする画像処理装置である。
The third aspect of the present invention is:
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
First generating means for detecting a motion vector from the input image signal and generating an interpolation frame for interpolating between frames of the input image signal using the detected motion vector;
A second generation means for setting the frame of the input image signal as an interpolation frame for interpolating between frames of the input image signal;
When the input image signal is not a distorted image signal, an interpolation frame is generated by the first generation means, and when the input image signal is a distorted image signal, an interpolation frame is generated by the second generation means. Control means for controlling the processing of the first generation means and the processing of the second generation means,
An image processing apparatus comprising:

本発明の第4の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正ステップと、
コンピュータが、前記歪み補正処理後の画像信号から動きベクトルを検出する検出ステップと、
コンピュータが、前記入力画像信号の画像の歪み方に従って、前記検出ステップで検出された動きベクトルを歪ませる歪み処理ステップと、
コンピュータが、前記入力画像信号と、前記歪み処理ステップで歪ませられた動きベクトルとから、前記入力画像信号のフレーム間を補間する補間フレームを生成する生成ステップと、
を有することを特徴とする画像処理方法である。
The fourth aspect of the present invention is:
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
When the computer is a signal of a distorted image, the distortion correction step of performing a distortion correction process to correct the distortion of the image to the input image signal;
A detection step in which a computer detects a motion vector from the image signal after the distortion correction processing;
A distortion processing step in which the computer distorts the motion vector detected in the detection step according to a method of distortion of the image of the input image signal;
A generation step of generating an interpolated frame for interpolating between frames of the input image signal from the input image signal and the motion vector distorted in the distortion processing step;
An image processing method characterized by comprising:

本発明の第5の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正ステップと、
コンピュータが、前記歪み補正処理後の画像信号から動きベクトルを検出する検出ステップと、
コンピュータが、前記歪み補正処理後の画像信号と、前記検出ステップで検出された動きベクトルとから、前記歪み補正処理後の画像信号のフレーム間を補間する補間フレームを生成する生成ステップと、
コンピュータが、前記入力画像信号の画像の歪み方に従って、前記生成ステップで生成された補間フレームを歪ませることにより、前記入力画像信号のフレーム間を補間する補間フレームを生成する歪み処理ステップと、
を有することを特徴とする画像処理方法である。
According to a fifth aspect of the present invention,
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
When the computer is a signal of a distorted image, the distortion correction step of performing a distortion correction process to correct the distortion of the image to the input image signal;
A detection step in which a computer detects a motion vector from the image signal after the distortion correction processing;
A computer that generates an interpolated frame for interpolating between frames of the image signal after the distortion correction processing, from the image signal after the distortion correction processing and the motion vector detected in the detection step;
A distortion processing step for generating an interpolation frame for interpolating between frames of the input image signal by distorting the interpolation frame generated in the generation step according to a method of distortion of the image of the input image signal;
An image processing method characterized by comprising:

本発明の第6の態様は、
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号から動きベクトルを検出し、検出した動きベクトルを用いて、前記入力画像信号のフレーム間を補間する補間フレームを生成する第1生成ステップと、
コンピュータが、前記入力画像信号のフレームを、前記入力画像信号のフレーム間を補間する補間フレームとする第2生成ステップと、
コンピュータが、前記入力画像信号が歪んだ画像の信号でない場合に前記第1生成ステップで補間フレームが生成され、前記入力画像信号が歪んだ画像の信号である場合に前記第2生成ステップで補間フレームが生成されるように、前記第1生成ステップの処理と前記第2生成ステップの処理を制御する制御ステップと、
を有することを特徴とする画像処理方法である。
The sixth aspect of the present invention is:
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
A first generation step in which a computer detects a motion vector from the input image signal and generates an interpolated frame for interpolating between frames of the input image signal using the detected motion vector;
A second generation step in which the computer sets the frame of the input image signal as an interpolation frame for interpolating between frames of the input image signal;
An interpolation frame is generated in the first generation step when the input image signal is not a distorted image signal, and an interpolation frame is generated in the second generation step when the input image signal is a distorted image signal. A control step for controlling the processing of the first generation step and the processing of the second generation step, so that
An image processing method characterized by comprising:

本発明の第7の態様は、
上記画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。
The seventh aspect of the present invention is
A program for causing a computer to execute each step of the image processing method.

本発明によれば、画像の歪みのある動画像のフレームレートを、動画像を破綻させることなく高めることができる。   According to the present invention, the frame rate of a moving image with image distortion can be increased without breaking the moving image.

実施例1に係る画像処理装置の機能構成の一例を示すブロック図1 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a first embodiment. 入力画像信号の一例を示す図Diagram showing an example of input image signal フレームレート変換後の画像信号の一例を示す図The figure which shows an example of the image signal after frame rate conversion フレームレート変換後の画像信号の一例を示す図The figure which shows an example of the image signal after frame rate conversion 入力画像信号の1フレームの画像の一例を示す図The figure which shows an example of the image of 1 frame of an input image signal 入力画像信号の1フレームの画像の一例を示す図The figure which shows an example of the image of 1 frame of an input image signal 縮小率算出部による縮小率の算出方法の一例を説明するための図The figure for demonstrating an example of the calculation method of the reduction rate by the reduction rate calculation part. 画像を分割して得られるブロックの一例を示す図The figure which shows an example of the block obtained by dividing | segmenting an image ブロックマッチングにおける探索領域の一例を示す図The figure which shows an example of the search field in block matching 補間ベクトルから歪曲補間ベクトルへの変換の一例を示す図The figure which shows an example of the conversion from an interpolation vector to a distortion interpolation vector 拡縮率算出処理の方法の一例を説明するための図The figure for demonstrating an example of the method of a scaling ratio calculation process 拡縮率算出処理の方法の一例を説明するための図The figure for demonstrating an example of the method of a scaling ratio calculation process 実施例2に係る画像処理装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a second embodiment. 実施例2の補間フレーム生成部の処理を説明するための図The figure for demonstrating the process of the interpolation frame production | generation part of Example 2. FIG. 実施例3に係る画像処理装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a third embodiment. 実施例4に係る画像処理装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image processing apparatus according to a fourth embodiment.

<実施例1>
本発明の実施例1に係る画像処理装置及び画像処理方法について図を参照して説明する。本実施例に係る画像処理装置は、入力画像信号のフレーム間を補間して、入力画像信号のフレームレートを高めるフレームレート変換(FRC)を行う。
図1は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、ケラレ検出部101、縮小率算出部102、補間方式決定部103、縮小&歪曲補正部104、フレームメモリ制御部105、動きベクトル検出部106、歪曲補間ベクトル&拡縮率算出部107、補間フレーム生成部108、などを有する。
図1の各機能部は、不図示のCPU(中央演算処理装置;コンピュータ)が、不図示のメモリ等の記録媒体に記憶されたプログラムを読み出して実行することにより実現される。
なお、本実施例では、入力画像信号のn番目のフレームをF(n)と表記する。F(n)とF(n+1)の間の補間フレームをAF(n)と表記する。また、歪みの無い画像に対応する歪みの無い空間内の座標を通常座標と呼び、魚眼レンズで撮影したような歪みのある画像に対応する歪みのある空間内の座標を歪曲座標と呼ぶ。
入力画像信号は、図2に示すように、フレーム単位で画像処理装置に入力される。具体的には、入力画像信号のフレームは、F(n)、F(n+1)、F(n+2)・・・のように、順番に入力される。
<Example 1>
An image processing apparatus and an image processing method according to Embodiment 1 of the present invention will be described with reference to the drawings. The image processing apparatus according to the present embodiment performs frame rate conversion (FRC) to increase the frame rate of the input image signal by interpolating between frames of the input image signal.
FIG. 1 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes an vignetting detection unit 101, a reduction rate calculation unit 102, an interpolation method determination unit 103, a reduction & distortion correction unit 104, a frame memory control unit 105, a motion vector detection unit 106, a distortion interpolation vector & An enlargement / reduction ratio calculation unit 107, an interpolation frame generation unit 108, and the like.
1 is realized by a CPU (Central Processing Unit; computer) (not shown) reading and executing a program stored in a recording medium such as a memory (not shown).
In this embodiment, the nth frame of the input image signal is denoted as F (n). An interpolated frame between F (n) and F (n + 1) is denoted as AF (n). Also, coordinates in a non-distorted space corresponding to an image without distortion are called normal coordinates, and coordinates in a distorted space corresponding to a distorted image photographed with a fisheye lens are called distorted coordinates.
As shown in FIG. 2, the input image signal is input to the image processing apparatus in units of frames. Specifically, the frames of the input image signal are sequentially input as F (n), F (n + 1), F (n + 2).

フレームメモリ制御部105について説明する。
フレームメモリ制御部105は、入力端子から入力された画像信号(入力画像信号)、具体的には入力端子から入力されたフレームFを記憶する。また、フレームメモリ制御部105は、補間フレーム生成部108で生成された補間フレームAFを記憶する。そして、補間方式決定部103で決定された補間方式m(FRCの補間方式)が“通常動きベクトル補間”又は“魚眼動きベクトル補間”の場合には、フレームメモリ制御部105は、図3のように、入力画像信号のフレーム間に補間フレームAFを挿入する。そして、フレームメモリ制御部105は、補間フレームAFが挿入された入力画像信号を、出力端子から、入力画像信号のフレームレートの2倍のフレームレートで出力する。具体的には、F(n)、AF(n)、F(n+1)、AF(n+1)、F(n+2)・・・の順にフレームと補間フレームが出力される。また、補間方式mが“2度出し補間”の場合は、フレームメモリ制御部105は、フレーム間に補間フレームを挿入せず、図4のように入力画像信号の各フレームを、入力画像信号のフレームレートの2倍のフレームレートで2回ずつ出力する。即ち、“2度出し補間”の場合は、入力画像信号のフレームが補間フレームとされる。このようにしてフレーム数が2倍に増やされ、フレームレートが2倍に高められる。
なお、フレームレート変換後のフレームレートは、入力画像信号のフレームレートの2倍のフレームレートに限らない。フレームレート変換により入力画像信号のフレームレートをN倍に高める場合には、入力画像信号のフレーム間にN−1個の補間フレームを挿入するか、入力画像信号の各フレームをN回ずつ出力すればよい。
The frame memory control unit 105 will be described.
The frame memory control unit 105 stores an image signal (input image signal) input from the input terminal, specifically, a frame F input from the input terminal. In addition, the frame memory control unit 105 stores the interpolation frame AF generated by the interpolation frame generation unit 108. When the interpolation method m (FRC interpolation method) determined by the interpolation method determination unit 103 is “normal motion vector interpolation” or “fisheye motion vector interpolation”, the frame memory control unit 105 As described above, the interpolation frame AF is inserted between the frames of the input image signal. Then, the frame memory control unit 105 outputs the input image signal in which the interpolation frame AF is inserted from the output terminal at a frame rate that is twice the frame rate of the input image signal. Specifically, frames and interpolation frames are output in the order of F (n), AF (n), F (n + 1), AF (n + 1), F (n + 2). When the interpolation method m is “double interpolation”, the frame memory control unit 105 does not insert an interpolated frame between the frames, and converts each frame of the input image signal into the input image signal as shown in FIG. Outputs twice at a frame rate twice the frame rate. In other words, in the case of “double interpolation”, the frame of the input image signal is an interpolation frame. In this way, the number of frames is doubled and the frame rate is doubled.
The frame rate after the frame rate conversion is not limited to a frame rate that is twice the frame rate of the input image signal. When the frame rate of the input image signal is increased N times by frame rate conversion, N-1 interpolation frames are inserted between the frames of the input image signal, or each frame of the input image signal is output N times. That's fine.

ケラレ検出部101について説明する。
図5は、入力画像信号の1フレームの画像の一例を示す図である。図5は、入力画像信号が歪んだ画像の信号である場合の例である。具体的には、図5は、魚眼レンズを用いて撮影した入力画像信号の例である。図5の中央にある円形の領域は、撮影された画像の領域(撮影領域)である。斜線の領域は撮影された画像の領域以外の領域(非撮影領域;典型的には黒色の領域)である。非撮影領域は、一般的に、ケラレと呼ばれる。ケラレ検出
部101は、撮影領域と非撮影領域の境界を検出する。撮影領域と非撮影領域の境界は、例えば、画像の上下左右の端から画素値が黒でなくなる位置を探すことで検出することができる。ケラレ検出部101は、撮影領域と非撮影領域の境界を表す情報kzを出力する。また、境界が検出された場合、ケラレ検出部101は、撮影領域を表す情報(撮影領域情報)として、各辺が撮影領域の接線である四角形の領域を表す情報を生成する。例えば、図5の例では、撮影領域情報として、上記四角形の領域の始点座標(xs,ys)と終点座標(xe,ye)が求められる。また、図6のように撮影領域が円形にならない場合もある。その場合にも同様に、各辺が撮影領域の接線である四角形の領域の始点座標(xs,ys)と終点座標(xe,ye)が求められる。
なお、撮影領域情報は、これらに限らない。例えば、撮影領域情報は、各辺が撮影領域の接線である四角形の領域の中心位置、水平方向サイズ、及び、垂直方向サイズであってもよい。
The vignetting detection unit 101 will be described.
FIG. 5 is a diagram illustrating an example of an image of one frame of the input image signal. FIG. 5 shows an example in which the input image signal is a distorted image signal. Specifically, FIG. 5 is an example of an input image signal captured using a fisheye lens. A circular area in the center of FIG. 5 is an area of the captured image (imaging area). The hatched area is an area other than the area of the captured image (non-imaging area; typically a black area). The non-photographing area is generally called vignetting. The vignetting detection unit 101 detects the boundary between the imaging region and the non-imaging region. The boundary between the imaging region and the non-imaging region can be detected, for example, by searching for a position where the pixel value is not black from the top, bottom, left, and right edges of the image. The vignetting detection unit 101 outputs information kz indicating the boundary between the imaging region and the non-imaging region. In addition, when a boundary is detected, the vignetting detection unit 101 generates information representing a quadrangular area in which each side is a tangent to the photographing area as information representing the photographing area (photographing area information). For example, in the example of FIG. 5, the start point coordinates (xs, ys) and the end point coordinates (xe, ye) of the rectangular area are obtained as the shooting area information. In addition, as shown in FIG. 6, the shooting area may not be circular. In this case as well, the start point coordinates (xs, ys) and end point coordinates (xe, ye) of a rectangular area in which each side is a tangent to the imaging area are obtained.
Note that the shooting area information is not limited to these. For example, the shooting area information may be the center position, the horizontal size, and the vertical size of a rectangular area in which each side is a tangent to the shooting area.

縮小率算出部102について説明する。
縮小率算出部102は、縮小&歪曲補正部104で使用する縮小率k(具体的には、縮小&歪曲補正部104で使用する縮小率kの候補値)を算出する。
縮小&歪曲補正部104は、入力画像信号が歪んだ画像の信号である場合に、入力画像信号に画像の歪みを補正する歪み補正処理を施す。それにより、動きベクトル検出部106で動きベクトル検出する際に使用する画像信号(動きベクトル検出用フレーム)が生成され、フレームメモリ制御部105に記憶される。
歪んでいる画像から歪みを除去すると画像サイズが大きくなる。しかし、フレームメモリ制御部105の記憶容量や転送速度、動きベクトル検出部106が動きベクトル検出処理を実行することのできる時間には制限がある。そこで、本実施例では、歪み補正処理後の画像信号に縮小処理を施す。それにより、動きベクトル検出用フレームのデータ量を低減することができ、且つ、動きベクトル検出処理の処理負荷を低減することができる。
The reduction rate calculation unit 102 will be described.
The reduction rate calculation unit 102 calculates a reduction rate k used by the reduction & distortion correction unit 104 (specifically, a candidate value for the reduction rate k used by the reduction & distortion correction unit 104).
When the input image signal is a distorted image signal, the reduction & distortion correction unit 104 performs distortion correction processing for correcting the image distortion on the input image signal. As a result, an image signal (motion vector detection frame) used when the motion vector detection unit 106 detects a motion vector is generated and stored in the frame memory control unit 105.
When the distortion is removed from the distorted image, the image size increases. However, the storage capacity and transfer speed of the frame memory control unit 105 and the time during which the motion vector detection unit 106 can execute the motion vector detection process are limited. Therefore, in this embodiment, a reduction process is performed on the image signal after the distortion correction process. Thereby, the data amount of the motion vector detection frame can be reduced, and the processing load of the motion vector detection process can be reduced.

また、ケラレ部分には画像の動きはないため、動きベクトル検出部106における動きベクトル検出処理では、ケラレ部分を除外することが好ましい。ケラレ部分を除外して動きベクトル検出処理を行うことにより、動きベクトルの誤検出を低減することができる。そこで、本実施例では、縮小&歪曲補正部104は、入力画像信号から、撮影領域情報で表される領域の画像信号を抽出する。そして、縮小&歪曲補正部104は、抽出した画像信号に対して歪み補正処理と縮小処理を施すことにより、動きベクトル検出用フレームを生成する。そして、縮小率算出部102は、動きベクトル検出用フレームの画像サイズがフレームメモリ制御部105に記憶可能なサイズとなるように、縮小率kを求める。即ち、ケラレ部分を除外した領域に歪み補正処理と縮小処理を施した後の画像サイズが、フレームメモリ制御部105に記憶可能なサイズとなるように、縮小率kが求められる。   In addition, since there is no image motion in the vignetting portion, it is preferable to exclude the vignetting portion in the motion vector detection processing in the motion vector detection unit 106. By performing the motion vector detection process excluding the vignetting portion, it is possible to reduce erroneous detection of motion vectors. Therefore, in this embodiment, the reduction & distortion correction unit 104 extracts the image signal of the area represented by the shooting area information from the input image signal. The reduction & distortion correction unit 104 generates a motion vector detection frame by performing distortion correction processing and reduction processing on the extracted image signal. Then, the reduction rate calculation unit 102 obtains the reduction rate k so that the image size of the motion vector detection frame is a size that can be stored in the frame memory control unit 105. That is, the reduction ratio k is determined so that the image size after the distortion correction process and the reduction process are performed on the area excluding the vignetting portion is a size that can be stored in the frame memory control unit 105.

具体的な縮小率kの求め方を、図7を用いて説明する。図7は、フレームF(補間フレームAF)の垂直方向サイズをv_len、水平方向サイズをh_lenとした場合の例である。図7には、フレームFと、ケラレ検出部101で求めた撮影領域情報で表される領域(始点座標(xs,ys)、終点座標(xe,ye)の領域)とを示している。ここで、始点座標(xs,ys)と終点座標(xe,ye)に対して歪み補正処理を施すと、始点座標(xs,ys)、終点座標(xe,ye)は、それぞれ座標(xs’,ys’)、座標(xe’,ye’)となる。座標の変換(歪曲座標から通常座標への変換)は、歪曲収差情報を用いて行われる。歪曲収差情報は、撮影に使用したレンズなどによって決まる情報であり、画像の歪み方(画像の歪みの度合い)を表す情報である。歪曲収差情報は、例えば、歪曲座標から通常座標への変換表と、通常座標から歪曲座標への変換表とを含む情報である。本実施例では、歪曲座標から通常座標への変換を(x’,y’)=g(x,y)、通常座標から歪曲座標への変換を(x,y)=f(x’,y’)と表記する。ここで、(x,y)は歪曲座標である。(x’,y’)は、歪曲座標(x,y)に対応する
通常座標、即ち歪曲座標(x,y)に歪み補正処理を施して得られる座標である。g、fは変換係数である。
1つの動きベクトル検出用フレームSFのデータ量を(v_len/2)×(h_len/2)にする場合には、縮小率kは以下の式1によって求められる。

縮小率k={(v_len/2)×(h_len/2)}
/{(xe’−xs’+1)×(ye’−ys’+1)} ・・・(式1)

縮小率kは、元の画像サイズに対する、縮小処理後の画像サイズの比であり、0より大きく1より小さい値である。
なお、歪曲収差情報は、外部から入力されてもよいし、画像処理装置内に予め記憶されていてもよい。例えば、歪曲収差情報は入力画像信号にメタデータとして付加されていてもよい。画像処理装置内に予め記憶された複数の歪曲収差情報の中から、ユーザ操作に応じて使用する歪曲収差情報が選択されてもよい。
なお、縮小率kは式1で求まる値に限らない。縮小率は予め定められた固定値であってもよい。
A specific method for obtaining the reduction ratio k will be described with reference to FIG. FIG. 7 shows an example in which the vertical size of frame F (interpolated frame AF) is v_len and the horizontal size is h_len. FIG. 7 shows a frame F and regions (regions of start point coordinates (xs, ys) and end point coordinates (xe, ye)) represented by the shooting region information obtained by the vignetting detection unit 101. Here, when the distortion correction processing is performed on the start point coordinates (xs, ys) and the end point coordinates (xe, ye), the start point coordinates (xs, ys) and the end point coordinates (xe, ye) are respectively coordinates (xs ′). , Ys ′) and coordinates (xe ′, ye ′). Coordinate conversion (conversion from distorted coordinates to normal coordinates) is performed using distortion aberration information. The distortion aberration information is information determined by a lens used for photographing and the like, and is information indicating how the image is distorted (degree of image distortion). The distortion aberration information is information including, for example, a conversion table from distortion coordinates to normal coordinates and a conversion table from normal coordinates to distortion coordinates. In this embodiment, the transformation from the distorted coordinate to the normal coordinate is (x ′, y ′) = g (x, y), and the transformation from the normal coordinate to the distorted coordinate is (x, y) = f (x ′, y). '). Here, (x, y) is a distorted coordinate. (X ′, y ′) is a normal coordinate corresponding to the distorted coordinate (x, y), that is, a coordinate obtained by performing distortion correction processing on the distorted coordinate (x, y). g and f are conversion coefficients.
When the data amount of one motion vector detection frame SF is (v_len / 2) × (h_len / 2), the reduction rate k is obtained by the following equation 1.

Reduction ratio k = {(v_len / 2) × (h_len / 2)}
/ {(Xe′−xs ′ + 1) × (ye′−ys ′ + 1)} (Formula 1)

The reduction ratio k is the ratio of the image size after the reduction process to the original image size, and is a value greater than 0 and less than 1.
Note that the distortion aberration information may be input from the outside, or may be stored in advance in the image processing apparatus. For example, the distortion information may be added as metadata to the input image signal. Distortion aberration information to be used may be selected according to a user operation from a plurality of distortion aberration information stored in advance in the image processing apparatus.
Note that the reduction ratio k is not limited to the value obtained by Equation 1. The reduction ratio may be a predetermined fixed value.

補間方式決定部103について説明する。
補間方式決定部103は、レンズの種類と縮小率kから、FRCの補間方式mを決定する。レンズの種類を表す情報(レンズ情報)は、外部から入力されてもよいし、画像処理装置内に予め記憶されていてもよい。例えば、レンズ情報は、入力画像信号にメタデータとして付加されていてもよいし、ユーザにより入力されてもよい。画像処理装置内に予め記憶された複数のレンズ情報の中から、ユーザ操作に応じて使用するレンズ情報が選択されてもよい。レンズ情報は、入力画像信号を撮影する際に使用したレンズの種類を表す。補間方式mには、“通常動きベクトル補間”、“魚眼動きベクトル補間”、“2度出し補間”などがある。
レンズの種類が魚眼レンズ以外の場合(即ち、入力画像信号が歪んだ画像の信号でない場合)は、補間方式mとして“通常動きベクトル補間”が設定される。また、入力画像信号が歪んだ画像の信号でない場合は、入力画像信号で表される画像の全領域が撮影領域となる。そのため、縮小処理前の動きベクトル検出用フレームの画像サイズ(データ量)は、v_len×h_lenとなる。式1に基づいて、補間方式決定部103は、縮小率kとして1/4を設定し、出力する。
レンズの種類が魚眼レンズの場合には、補間方式決定部103は、縮小率kと所定の閾値th_kを比較する。k≧th_kの場合、補間方式mとして“魚眼動きベクトル補間”が設定され、縮小率算出部102で求めた縮小率kがそのまま縮小&歪曲補正部104に出力される。k<th_kの場合は、補間方式mとして“2度出し補間”が設定され、縮小率kとして1/4が縮小&歪曲補正部104に出力される。但し、“2度出し補間”の場合は、縮小率kは使用されないため、縮小率kとして1/4以外の値が出力されてもよい(縮小率kは出力されなくてもよい)。画像を縮小しすぎると、動きベクトルの検出精度が低下してしまう。本実施例では、画像が複数のブロック(分割領域)に分割され、ブロック毎に動きベクトルが検出される。画像を縮小しすぎると、動きベクトルが正しく検出できるブロックと、動きベクトルが正しく検出できないブロックとが混在してしまい、動きベクトルを用いて補間フレームを生成した際に、補間フレームの画像が乱れてしまう虞がある。k<th_kの場合に“2度出し補間”を設定するのは、上記動きベクトルの検出精度の低下による補間フレームの画像の乱れを抑制するためである。th_kとしては、例えば、“通常動きベクトル補間”の場合に設定される縮小率kと同じ値が使用される。本実施例ではth_k=1/4が使用される。
The interpolation method determination unit 103 will be described.
The interpolation method determination unit 103 determines the FRC interpolation method m from the lens type and the reduction ratio k. Information indicating the type of lens (lens information) may be input from the outside, or may be stored in advance in the image processing apparatus. For example, the lens information may be added as metadata to the input image signal or may be input by the user. Lens information to be used may be selected from a plurality of lens information stored in advance in the image processing apparatus in response to a user operation. The lens information represents the type of lens used when photographing the input image signal. As the interpolation method m, there are “normal motion vector interpolation”, “fisheye motion vector interpolation”, “double out interpolation”, and the like.
When the lens type is other than the fisheye lens (that is, when the input image signal is not a distorted image signal), “normal motion vector interpolation” is set as the interpolation method m. If the input image signal is not a distorted image signal, the entire area of the image represented by the input image signal is the shooting area. Therefore, the image size (data amount) of the motion vector detection frame before the reduction process is v_len × h_len. Based on Equation 1, the interpolation method determination unit 103 sets 1/4 as the reduction ratio k and outputs the result.
When the lens type is a fisheye lens, the interpolation method determination unit 103 compares the reduction ratio k with a predetermined threshold th_k. When k ≧ th_k, “fisheye motion vector interpolation” is set as the interpolation method m, and the reduction rate k obtained by the reduction rate calculation unit 102 is output to the reduction & distortion correction unit 104 as it is. In the case of k <th_k, “double interpolation” is set as the interpolation method m, and ¼ is output to the reduction & distortion correction unit 104 as the reduction ratio k. However, in the case of “double interpolation”, since the reduction rate k is not used, a value other than ¼ may be output as the reduction rate k (the reduction rate k may not be output). If the image is reduced too much, the motion vector detection accuracy is lowered. In this embodiment, an image is divided into a plurality of blocks (divided regions), and a motion vector is detected for each block. If the image is reduced too much, blocks that can detect the motion vector correctly and blocks that cannot detect the motion vector are mixed, and when the interpolation frame is generated using the motion vector, the image of the interpolation frame is distorted. There is a risk of it. The reason why “double interpolation” is set in the case of k <th_k is to suppress the disturbance of the interpolated frame image due to the decrease in the motion vector detection accuracy. As th_k, for example, the same value as the reduction ratio k set in the case of “normal motion vector interpolation” is used. In this embodiment, th_k = 1/4 is used.

縮小&歪曲補正部104について説明する。
縮小&歪曲補正部104は、入力画像信号が歪んだ画像の信号である場合に、入力画像
信号に歪み補正処理を施す。そして、縮小&歪曲補正部104は、歪み補正処理後の画像信号に縮小処理を施す。それにより、縮小&歪曲補正部104は、動きベクトル検出用フレームSFを生成する。縮小&歪曲補正部104は、撮影領域情報、歪曲収差情報、レンズの種類、縮小率k(補間方式決定部103から入力された縮小率)に従って、フレームF(n)を動きベクトル検出用フレームSF(n)に変換する。
具体的には、レンズの種類が魚眼レンズの場合、縮小&歪曲補正部104は、F(n)から撮影領域情報で表される領域の画像信号を抽出する。そして、縮小&歪曲補正部104は、抽出した画像信号に、歪曲補正処理と縮小処理を施す。歪曲補正処理は、歪曲収差情報の(x’,y’)=g(x,y)に従って行われる。縮小処理は、補間方式決定部103から入力された縮小率kに従って行われる。具体的には、歪曲補正処理が施された画像信号の垂直方向及び垂直方向の画像サイズが、それぞれ、k0.5倍に縮小される。縮小方法はどのような方法であってもよい。例えば、縮小&歪曲補正部104は、バイリニア法を用いた縮小処理を行う。そして、歪曲補正処理及び縮小処理後の画像信号が、SF(n)とされる。
レンズ種類が魚眼レンズ以外の場合は、縮小&歪曲補正部104は、F(n)に対して縮小処理のみを施す。それにより、SF(n)が生成される。
縮小&歪曲補正部104は、生成したSF(n)をフレームメモリ制御部105に出力する。フレームメモリ制御部105は、縮小&歪曲補正部104から出力されたSF(n)を記憶する。
The reduction & distortion correction unit 104 will be described.
The reduction & distortion correction unit 104 performs a distortion correction process on the input image signal when the input image signal is a distorted image signal. Then, the reduction & distortion correction unit 104 performs a reduction process on the image signal after the distortion correction process. Accordingly, the reduction & distortion correction unit 104 generates a motion vector detection frame SF. The reduction & distortion correction unit 104 converts the frame F (n) into the motion vector detection frame SF according to the shooting area information, distortion aberration information, lens type, and reduction rate k (reduction rate input from the interpolation method determination unit 103). Convert to (n).
Specifically, when the type of lens is a fisheye lens, the reduction and distortion correction unit 104 extracts an image signal of an area represented by the shooting area information from F (n). Then, the reduction & distortion correction unit 104 performs distortion correction processing and reduction processing on the extracted image signal. The distortion correction process is performed in accordance with (x ′, y ′) = g (x, y) of the distortion aberration information. The reduction process is performed according to the reduction rate k input from the interpolation method determination unit 103. Specifically, the image size in the vertical direction and the vertical direction of the image signal that has been subjected to the distortion correction processing is reduced by a factor of 0.5 . Any reduction method may be used. For example, the reduction & distortion correction unit 104 performs a reduction process using a bilinear method. Then, the image signal after the distortion correction process and the reduction process is SF (n).
When the lens type is other than the fisheye lens, the reduction & distortion correction unit 104 performs only the reduction process on F (n). Thereby, SF (n) is generated.
The reduction & distortion correction unit 104 outputs the generated SF (n) to the frame memory control unit 105. The frame memory control unit 105 stores SF (n) output from the reduction & distortion correction unit 104.

本発明の特徴について説明する。
入力画像信号が歪んだ画像の信号でない場合には、F(n)から検出した動きベクトルをそのまま使用して補間フレームを生成することができる。具体的には、F(n)の画素を、当該画素の位置から動きベクトルの1/2の位置の画素とすることにより、補間フレームAF(n)の画素を生成することができる。しかしながら、入力画像信号が歪んだ画像の信号である場合には、移動する物体の軌跡は直線的にはならず、歪んだ軌跡となる。そのため、F(n)から検出した動きベクトルをそのまま使用して補間フレームを生成すると、補間フレームの画像として破綻した画像が生成されてしまう。そこで、本実施例では、入力画像信号が歪んだ画像の信号である場合に、歪み補正処理後の画像信号から動きベクトルを検出する。そして、入力画像信号の画像の歪み方に従って、検出された動きベクトルを歪ませる(歪み処理)。そのように歪まされた動きベクトルを使用することにより、F(n)における物体の画素を、当該物体の移動の軌跡に従った位置に適用することができ、補間フレームAF(n)の画像として正確な画像(破綻していない画像)を生成することができる。
The features of the present invention will be described.
When the input image signal is not a distorted image signal, an interpolation frame can be generated using the motion vector detected from F (n) as it is. Specifically, the pixel of the interpolation frame AF (n) can be generated by setting the pixel of F (n) to a pixel at a position half that of the motion vector from the position of the pixel. However, when the input image signal is a distorted image signal, the trajectory of the moving object does not become linear, but becomes a distorted trajectory. Therefore, if an interpolation frame is generated using the motion vector detected from F (n) as it is, a broken image is generated as an image of the interpolation frame. Therefore, in this embodiment, when the input image signal is a distorted image signal, a motion vector is detected from the image signal after the distortion correction processing. Then, the detected motion vector is distorted according to how the image of the input image signal is distorted (distortion processing). By using the motion vector so distorted, the pixel of the object in F (n) can be applied to a position according to the movement trajectory of the object, and as an image of the interpolation frame AF (n) An accurate image (an image that has not failed) can be generated.

動きベクトル検出部106について説明する。
動きベクトル検出部106は、歪みの無い画像の信号から動きベクトルを検出する。即ち、入力画像信号が歪んだ画像の信号である場合には、歪み補正処理後の画像信号から動きベクトルが検出される。具体的には、動きベクトル検出部106は、動きベクトル検出用フレームSF(n)とSF(n+1)から動きベクトルを検出し、検出した動きベクトルから補間ベクトルを求める。補間ベクトルは、動きベクトル検出用フレーム内の領域の、補間フレーム内での位置(補間位置)を示すベクトルである。
具体的には、動きベクトル検出部106は、ブロックマッチング法を用いて動きベクトルを検出する。ブロックマッチングでは、まず、図8に示すように、フレームSF(n)が複数のブロックに分割される。本実施例では、1つのブロックのサイズを水平方向16ピクセル×垂直方向16ピクセルとする。そして、ブロック毎に、そのブロック内の画像(SF(n)内の一部の領域の画像)と最も類似度が高い画像の領域(対応領域)が、SF(n+1)から探索される。本実施例では、処理対象のブロックの中心位置から水平方向112ピクセル×垂直方向48ピクセルの領域(図9)が探索領域とされる。そして、探索領域内から、処理対象のブロックに対応する対応領域が探索される。本実施例では、
処理対象のブロック内の画素値(SF(n)の画素値)との差分絶対値和(Sum of
Absolute Differences:SAD)が最も小さい領域が対応領域とされる。SADが所定の閾値より小さい場合に、処理対象のブロックの位置から、当該ブロックに対応する対応領域の位置へのベクトルが、当該ブロックの動きベクトルとされる。SADが所定の閾値以上の場合は、処理対象のブロックに対して、画像の動きは無いと判定され、大きさが0の動きベクトル(0ベクトル)が割り当てられる。上記処理が全てのブロックについて行われ、ブロック毎の動きベクトルが求められる。ここで、SF(n)におけるブロックblkの動きベクトルをV(n,blk)と表記する。また、SF(n)におけるブロック毎の動きベクトルの集合を{V(n)}と表記する。
次に、動きベクトル検出部106は、動きベクトル{V(n)}から補間ベクトル{E(n)}を算出する。補間ベクトル{E(n)}は、ブロック毎の補間ベクトルの集合である。補間位置は動きベクトルの始点と終点とつなぐ直線の中点となる。しかし、動きベクトル{V(n)}は縮小処理後の画像信号から検出されている。そこで、本実施例では、動きベクトル{V(n)}を縮小率kに応じて拡大し、拡大された動きベクトルの大きさを1/2にすることにより、補間ベクトル{E(n)}を求める。なお、補間ベクトル{E(n)}の始点は、動きベクトル{V(n)}の始点と同じ位置とされるものとする。具体的には、補間ベクトル{E(n)}は以下の式2により求められる。

{E(n)}={V(n)}/k0.5/2 ・・・(式2)
The motion vector detection unit 106 will be described.
The motion vector detection unit 106 detects a motion vector from an image signal without distortion. That is, when the input image signal is a distorted image signal, a motion vector is detected from the image signal after the distortion correction processing. Specifically, the motion vector detection unit 106 detects a motion vector from the motion vector detection frames SF (n) and SF (n + 1), and obtains an interpolation vector from the detected motion vector. The interpolation vector is a vector indicating the position (interpolation position) in the interpolation frame of the region in the motion vector detection frame.
Specifically, the motion vector detection unit 106 detects a motion vector using a block matching method. In block matching, first, as shown in FIG. 8, the frame SF (n) is divided into a plurality of blocks. In this embodiment, the size of one block is 16 pixels in the horizontal direction × 16 pixels in the vertical direction. Then, for each block, an image area (corresponding area) having the highest similarity to the image in the block (image of a partial area in SF (n)) is searched from SF (n + 1). In this embodiment, an area (FIG. 9) of 112 pixels in the horizontal direction × 48 pixels in the vertical direction from the center position of the block to be processed is set as the search area. Then, a corresponding area corresponding to the processing target block is searched from the search area. In this example,
Sum of absolute differences (Sum of) with pixel value (pixel value of SF (n)) in the block to be processed
The area with the smallest Absolute Differences (SAD) is set as the corresponding area. When SAD is smaller than a predetermined threshold, a vector from the position of the block to be processed to the position of the corresponding area corresponding to the block is set as the motion vector of the block. When the SAD is equal to or greater than a predetermined threshold, it is determined that there is no image motion for the block to be processed, and a motion vector having a size of 0 (0 vector) is assigned. The above process is performed for all blocks, and a motion vector for each block is obtained. Here, the motion vector of the block blk in SF (n) is expressed as V (n, blk). A set of motion vectors for each block in SF (n) is denoted as {V (n)}.
Next, the motion vector detection unit 106 calculates an interpolation vector {E (n)} from the motion vector {V (n)}. The interpolation vector {E (n)} is a set of interpolation vectors for each block. The interpolation position is the midpoint of a straight line connecting the start point and end point of the motion vector. However, the motion vector {V (n)} is detected from the image signal after the reduction process. Therefore, in the present embodiment, the motion vector {V (n)} is expanded according to the reduction ratio k, and the size of the expanded motion vector is halved, so that the interpolation vector {E (n)} Ask for. Note that the starting point of the interpolation vector {E (n)} is assumed to be the same position as the starting point of the motion vector {V (n)}. Specifically, the interpolation vector {E (n)} is obtained by the following equation 2.

{E (n)} = {V (n)} / k 0.5 / 2 (Formula 2)

歪曲補間ベクトル&拡縮率算出部107について説明する。
歪曲補間ベクトル&拡縮率算出部107は、入力画像信号が歪んだ画像の信号である場合に、歪曲補間ベクトル算出処理と、拡縮率算出処理とを行う。
まず、歪曲補間ベクトル算出処理について説明する。
歪曲補間ベクトル算出処理は、補間ベクトル{E(n)}から歪曲補間ベクトル{Z(n)}を算出する処理である。補間ベクトル{E(n)}は通常座標でのベクトルである。歪曲補間ベクトル{Z(n)}は、歪曲座標でのベクトルである。歪曲補間ベクトル算出処理は、歪曲収差情報に従って補間ベクトル{E(n)}の始点と終点の座標を通常座標から歪曲座標に変換することにより、歪曲補間ベクトル{Z(n)}を求める(補間ベクトル{E(n)}を歪曲補間ベクトル{Z(n)}に変換する)。
変換方法について図10を用いて具体的に説明する。図10中、通常座標A’はブロックblk’の中心座標である。通常座標B’は、ブロックblk’の補間ベクトルE(n,blk’)により指し示される位置である(ブロックblk’のサイズは16×16pix)。歪曲補間ベクトル&拡縮率算出部107は、歪曲収差情報の(x,y)=f(x’,y’)を用いて、通常座標A’,B’を歪曲座標A,Bに変換する。そして、歪曲補間ベクトル&拡縮率算出部107は、歪曲座標Aを中心としたブロックhblk(サイズは16×16pix)を設定する。歪曲補間ベクトル&拡縮率算出部107は、歪曲座標Aから歪曲座標Bへ向かうベクトルZ(n,hblk)をブロックhblkの歪曲補間ベクトルとして設定する。歪曲補間ベクトル&拡縮率算出部107は、上記処理をすべての補間ベクトルについて行い、F(n)の歪曲補間ベクトル{Z(n)}を求める。
The distortion interpolation vector & scaling factor calculation unit 107 will be described.
When the input image signal is a distorted image signal, the distortion interpolation vector & enlargement / reduction ratio calculation unit 107 performs a distortion interpolation vector calculation process and an enlargement / reduction ratio calculation process.
First, the distortion interpolation vector calculation process will be described.
The distortion interpolation vector calculation process is a process of calculating a distortion interpolation vector {Z (n)} from the interpolation vector {E (n)}. The interpolation vector {E (n)} is a vector in normal coordinates. The distortion interpolation vector {Z (n)} is a vector in distortion coordinates. The distortion interpolation vector calculation process obtains a distortion interpolation vector {Z (n)} by converting the coordinates of the start point and end point of the interpolation vector {E (n)} from normal coordinates to distortion coordinates according to the distortion aberration information (interpolation). Convert the vector {E (n)} into a distorted interpolation vector {Z (n)}).
The conversion method will be specifically described with reference to FIG. In FIG. 10, the normal coordinate A ′ is the center coordinate of the block blk ′. The normal coordinate B ′ is a position indicated by the interpolation vector E (n, blk ′) of the block blk ′ (the size of the block blk ′ is 16 × 16 pix). The distortion interpolation vector & scaling factor calculation unit 107 converts the normal coordinates A ′ and B ′ into the distortion coordinates A and B using (x, y) = f (x ′, y ′) of the distortion aberration information. Then, the distortion interpolation vector & enlargement / reduction ratio calculation unit 107 sets a block hblk (size is 16 × 16 pix) centered on the distortion coordinate A. The distortion interpolation vector & scaling factor calculation unit 107 sets a vector Z (n, hblk) from the distortion coordinate A to the distortion coordinate B as a distortion interpolation vector of the block hblk. The distortion interpolation vector & enlargement / reduction ratio calculation unit 107 performs the above process on all the interpolation vectors to obtain the distortion interpolation vector {Z (n)} of F (n).

次に、拡縮率算出処理について説明する。
画像の歪みの度合いは、歪曲座標の位置によって異なる。そのため、ブロックhblkの画像をそのまま歪曲座標Bに適用すると、補間フレームの画像が破綻してしまう。そこで、本実施例では、歪曲補間ベクトルの始点位置のブロックの画像を、歪曲補間ベクトルの終点位置に適用する際に、当該ブロックの画像に拡大処理または縮小処理を施す。拡縮率算出処理では、上記拡大処理や縮小処理の倍率(拡大率・縮小率)を求める。ここでは、拡大率と縮小率を合わせて“拡縮率”と呼ぶ。
まず、歪曲補間ベクトル&拡縮率算出部107は、図11に示すように、通常座標A’
を中心としたブロックblk’と通常座標B’を中心としたブロックblk’2を設定する。ブロックblk’のサイズと、ブロックblk’2のサイズは、いずれも、16×16pixとする。そして、歪曲補間ベクトル&拡縮率算出部107は、ブロックblk’とブロックblk’2を、歪曲収差情報(x,y)=f(x’,y’)を用いて歪曲座標のブロックに変換する。図11の例では、ブロックblk’がブロックblkに変換され、ブロックblk’2がブロックblk2に変換される。
次に、歪曲補間ベクトル&拡縮率算出部107は、ブロックblkとブロックblk2のサイズを求める。具体的には、図12に示すように、歪曲座標A(ブロックblkの中心)の垂直位置におけるブロックblkの水平方向の長さが、ブロックblkの水平方向サイズblk_h_lenとして求められる。歪曲座標Aの水平位置におけるブロックblkの垂直方向の長さが、ブロックblkの垂直方向サイズblk_v_lenとして求められる。同様に、ブロックblk2の水平方向サイズblk2_h_lenと垂直方向サイズblk2_v_lenも求められる。
そして、歪曲補間ベクトル&拡縮率算出部107は、ブロックhblkの水平方向の拡縮率ghと垂直方向の拡縮率gvを以下の式3−1,3−2を用いて算出する。

gh=blk2_h_len/blk_h_len ・・・(式3−1)
gv=blk2_v_len/blk_v_len ・・・(式3−2)

ここでは、ブロックhblkのghとgvを合わせて拡縮率L(n,blkh)と表記する。そして、歪曲補間ベクトル&拡縮率算出部107は、上記処理をすべての歪曲補間ベクトル(歪曲補間ベクトル算出処理において歪曲補間ベクトルの始点に設定されたブロック)について行い、F(n)の拡縮率{L(n)}を求める。
なお、実際には、通常座標上の四角形のブロックを歪曲座標上のブロックに変換した場合、変換後のブロックは四角形のブロックにはならない。本実施例では、計算を簡略化するため変換後のブロックの形状を四角形に近似している。
Next, the enlargement / reduction ratio calculation process will be described.
The degree of image distortion varies depending on the position of the distortion coordinates. Therefore, if the image of the block hblk is applied to the distorted coordinates B as it is, the image of the interpolation frame will be broken. Therefore, in this embodiment, when the image of the block at the start point position of the distortion interpolation vector is applied to the end point position of the distortion interpolation vector, the enlargement process or the reduction process is performed on the image of the block. In the enlargement / reduction ratio calculation process, the magnification (enlargement ratio / reduction ratio) of the enlargement process or reduction process is obtained. Here, the enlargement ratio and the reduction ratio are collectively referred to as “enlargement / reduction ratio”.
First, as shown in FIG. 11, the distortion interpolation vector & scaling factor calculation unit 107 performs normal coordinates A ′.
And a block blk′2 centered on the normal coordinate B ′. Both the size of the block blk ′ and the size of the block blk′2 are 16 × 16 pix. Then, the distortion interpolation vector & scaling factor calculation unit 107 converts the block blk ′ and the block blk′2 into a block of distortion coordinates using distortion aberration information (x, y) = f (x ′, y ′). . In the example of FIG. 11, the block blk ′ is converted to the block blk, and the block blk′2 is converted to the block blk2.
Next, the distortion interpolation vector & scaling factor calculation unit 107 obtains the sizes of the block blk and the block blk2. Specifically, as shown in FIG. 12, the horizontal length of the block blk at the vertical position of the distorted coordinate A (the center of the block blk) is obtained as the horizontal size blk_h_len of the block blk. The vertical length of the block blk at the horizontal position of the distorted coordinates A is obtained as the vertical size blk_v_len of the block blk. Similarly, the horizontal size blk2_h_len and the vertical size blk2_v_len of the block blk2 are also obtained.
Then, the distortion interpolation vector & scaling factor calculation unit 107 calculates the horizontal scaling factor gh and the vertical scaling factor gv of the block hblk using the following equations 3-1 and 3-2.

gh = blk2_h_len / blk_h_len (formula 3-1)
gv = blk2_v_len / blk_v_len (Equation 3-2)

Here, gh and gv of the block hblk are combined and expressed as a scaling factor L (n, blkh). Then, the distortion interpolation vector & enlargement / reduction ratio calculation unit 107 performs the above process on all distortion interpolation vectors (blocks set as the start points of the distortion interpolation vectors in the distortion interpolation vector calculation process), and the enlargement / reduction ratio of F (n) { L (n)} is obtained.
In practice, when a square block on normal coordinates is converted to a block on distorted coordinates, the converted block does not become a square block. In the present embodiment, the shape of the converted block is approximated to a quadrangle in order to simplify the calculation.

なお、本実施例では、補間ベクトル{E(n)}を歪曲補間ベクトル{Z(n)}に変換する構成としたが、この構成に限らない。例えば、動きベクトル{V(n)}の軌跡を入力画像信号の画像の歪み方に従って歪ませ、歪ませられた軌跡から歪曲補間ベクトル{Z(n)}が求められてもよい。   In this embodiment, the interpolation vector {E (n)} is converted into the distortion interpolation vector {Z (n)}. However, the present invention is not limited to this configuration. For example, the trajectory of the motion vector {V (n)} may be distorted according to the image distortion method of the input image signal, and the distorted interpolation vector {Z (n)} may be obtained from the distorted trajectory.

補間フレーム生成部108について説明する。
補間フレーム生成部108は、入力画像信号のフレーム間を補間する補間フレームを生成する。本実施例では、入力画像信号が歪んだ画像の信号である場合には、入力画像信号と、歪ませられた動きベクトルとから、入力画像信号のフレーム間を補間する補間フレームが生成される。
具体的には、補間フレーム生成部108は、フレームF(n),F(n+1)、補間方式m、境界情報kz、補間ベクトル{E(n)}、歪曲補間ベクトル{Z(n)}、拡縮率{L(n)}を用いて、補間フレームAF(n)を生成する。
補間方式mが“魚眼動きベクトル補間”の場合は、歪曲補間ベクトル{Z(n)}に対応する各ブロックのF(n)上の画像が、拡縮率{L(n)}に従って拡大・縮小処理される。そして、拡大・縮小処理後の画像が、補間フレームAF(n)の画像として歪曲補間ベクトル{Z(n)}で示される位置に貼り付けられる。拡大・縮小処理は、例えば、バイリニア法を用いて行われる。即ち、本実施例では、入力画像信号のフレーム内の一部の領域の画像の位置を、歪ませられた動きベクトルに従って変更することにより、補間フレーム内の一部の領域の画像が決定される。そして、画像の位置を変更する際に、入力画像信号の画像の歪み方に従って、位置を変更する画像のサイズが変更される。拡大・縮小処理後の画像を貼り付けた際に、複数の画像が重複する位置については、重複する画像の画素値の平均値が適用される。画像が貼り付けられなかった位置は、当該位置と同じ位置
のF(n)とF(n+1)の画素値の平均値が適用される。また、補間フレーム生成部108は、境界情報kzからケラレ部分(非撮影領域)を判断する。そして、補間フレーム生成部108は、ケラレ部分についてはベクトル補間(歪曲補間ベクトル{Z(n)}に応じた画像の貼り付け)を行わずに、F(n)の画素値を適用する。即ち、本実施例では、撮影領域に対しては、歪ませられた動きベクトルを用いて補間フレームの画素値が決定され、非撮影領域に対しては、補間フレームの画素値として同じ位置の入力画像信号の画素値が適用される。これにより、非撮影領域(ケラレ部分)や非撮影領域と撮影領域の境界が誤補間によって乱れることを抑制することができる。以上により、補間フレームが生成される。
補間方式mが“通常動きベクトル補間”の場合には、補間ベクトル{E(n)}に従って補間フレームが生成される。具体的には、補間ベクトル{E(n)}に対応する各ブロックのF(n)上の画像が、補間フレームAF(n)の画像として補間ベクトル{E(n)}で示される位置に貼り付けられる。複数の画像が重複する位置、画像が貼り付けられなかった位置については、“魚眼動きベクトル補間”の場合と同様に処理される。
補間方式mが“2度出し補間”の場合には、補間フレームAF(n)は出力端子から出力されないため、補間フレームAF(n)は生成されない。
The interpolation frame generation unit 108 will be described.
The interpolation frame generation unit 108 generates an interpolation frame for interpolating between frames of the input image signal. In this embodiment, when the input image signal is a distorted image signal, an interpolation frame for interpolating between the frames of the input image signal is generated from the input image signal and the distorted motion vector.
Specifically, the interpolation frame generation unit 108 includes frames F (n) and F (n + 1), an interpolation method m, boundary information kz, an interpolation vector {E (n)}, a distortion interpolation vector {Z (n)}, An interpolation frame AF (n) is generated using the scaling factor {L (n)}.
When the interpolation method m is “fisheye motion vector interpolation”, the image on F (n) of each block corresponding to the distortion interpolation vector {Z (n)} is enlarged / reduced according to the enlargement / reduction ratio {L (n)}. Reduced. Then, the image after the enlargement / reduction processing is pasted at the position indicated by the distortion interpolation vector {Z (n)} as the image of the interpolation frame AF (n). The enlargement / reduction process is performed using, for example, a bilinear method. That is, in this embodiment, the image of a part of the region in the interpolation frame is determined by changing the position of the image of the part of the region in the frame of the input image signal according to the distorted motion vector. . Then, when changing the position of the image, the size of the image whose position is changed is changed according to how the image of the input image signal is distorted. When the images after enlargement / reduction processing are pasted, the average value of the pixel values of the overlapping images is applied to the position where the plurality of images overlap. The average value of the pixel values of F (n) and F (n + 1) at the same position as the position is applied to the position where the image is not pasted. Further, the interpolation frame generation unit 108 determines the vignetting portion (non-imaging area) from the boundary information kz. Then, the interpolation frame generation unit 108 applies the pixel value of F (n) without performing vector interpolation (image pasting according to the distortion interpolation vector {Z (n)}) for the vignetting portion. That is, in this embodiment, the pixel value of the interpolation frame is determined using the distorted motion vector for the shooting region, and the pixel position of the interpolation frame is input at the same position for the non-shooting region. The pixel value of the image signal is applied. As a result, it is possible to prevent the non-photographing area (vignetting portion) and the boundary between the non-photographing area and the photographing area from being disturbed by erroneous interpolation. As described above, an interpolation frame is generated.
When the interpolation method m is “normal motion vector interpolation”, an interpolation frame is generated according to the interpolation vector {E (n)}. Specifically, the image on F (n) of each block corresponding to the interpolation vector {E (n)} is positioned at the position indicated by the interpolation vector {E (n)} as the image of the interpolation frame AF (n). It is pasted. A position where a plurality of images overlap and a position where images are not pasted are processed in the same manner as in the case of “fisheye motion vector interpolation”.
When the interpolation method m is “double interpolation”, the interpolation frame AF (n) is not output from the output terminal, and therefore the interpolation frame AF (n) is not generated.

以上述べたように、本実施例によれば、入力画像信号が歪んだ画像の信号である場合に、歪み補正処理後の画像信号から動きベクトルが検出され、入力画像信号の画像の歪み方に従って、検出された動きベクトルが歪まされる。そして、入力画像信号と、歪ませられた動きベクトルとから、入力画像信号のフレーム間を補間する補間フレームが生成される。それにより、入力画像信号が歪んだ画像の信号である場合に、入力画像信号のフレームの画像を正確な補間位置に貼り付けて補間フレームを生成することができる。それにより、意図的な画像の歪みがある動画像のフレームレートを、動画像を破綻させることなく高めることができる。
また、本実施例によれば、入力画像信号のフレーム内の一部の領域の画像の位置を変更して補間フレーム内の一部の領域の画像を決定する際に、入力画像信号の画像の歪み方に従って、位置を変更する画像のサイズが変更される。それにより、補間フレームの画像の乱れをより抑制することができる。なお、このようなサイズの変更は行わなくてもよい。そのような構成であっても、歪まされた動きベクトルを用いることにより、従来よりも補間フレームの画像の乱れを抑制することができる。
また、本実施例によれば、縮小処理が施された歪み補正処理後の画像信号から動きベクトルが検出されるため、動きベクトル検出用フレームのデータ量を低減することができ、且つ、動きベクトル検出処理の処理負荷を低減することができる。また、対応可能な歪曲度合いの範囲を広げることができる。なお、データ記憶容量が十分に大きく、データの処理能力が十分に高い場合には、縮小処理は行われなくてもよい。
また、本実施例によれば、縮小処理の縮小率が所定の閾値未満である場合に、入力画像信号のフレームが、入力画像信号のフレーム間を補間する補間フレームとされる。それにより、動きベクトルの誤検出によって生じる画像の破綻を抑制することができる。なお、入力画像信号が歪んだ画像の信号である場合には、縮小処理の縮小率によらず“魚眼動きベクトル補間”が設定されてもよい。
As described above, according to the present embodiment, when the input image signal is a distorted image signal, a motion vector is detected from the image signal after the distortion correction processing, and according to how the image of the input image signal is distorted. , The detected motion vector is distorted. Then, an interpolation frame for interpolating between frames of the input image signal is generated from the input image signal and the distorted motion vector. As a result, when the input image signal is a distorted image signal, the frame of the input image signal can be pasted at an accurate interpolation position to generate an interpolation frame. Thereby, the frame rate of a moving image with intentional image distortion can be increased without breaking the moving image.
Further, according to the present embodiment, when the position of the image of the partial area in the frame of the input image signal is changed to determine the image of the partial area in the interpolation frame, the image of the input image signal The size of the image whose position is changed is changed according to the distortion method. Thereby, the disturbance of the image of the interpolation frame can be further suppressed. Note that such a size change need not be performed. Even in such a configuration, by using the distorted motion vector, it is possible to suppress the disturbance of the image of the interpolation frame as compared with the conventional case.
Also, according to the present embodiment, since a motion vector is detected from the image signal after the distortion correction processing that has been subjected to the reduction processing, the data amount of the motion vector detection frame can be reduced, and the motion vector The processing load of the detection process can be reduced. In addition, the range of the degree of distortion that can be handled can be expanded. If the data storage capacity is sufficiently large and the data processing capability is sufficiently high, the reduction process may not be performed.
Further, according to the present embodiment, when the reduction rate of the reduction process is less than the predetermined threshold, the frame of the input image signal is an interpolation frame that interpolates between the frames of the input image signal. Thereby, it is possible to suppress the failure of the image caused by the erroneous detection of the motion vector. When the input image signal is a distorted image signal, “fisheye motion vector interpolation” may be set regardless of the reduction rate of the reduction process.

なお、本実施例ではブロック単位で動きベクトルを検出する構成としたが、動きベクトルは画素単位で検出されてもよい。
なお、本実施例では、撮影領域の画像信号から動きベクトルを検出する構成としたが、この構成に限らない。例えば、入力画像信号の全画像領域に対して歪み補正処理が施され、上記全画像領域に対応する歪み補正処理後の画像信号から動きベクトルが検出されてもよい。
なお、本実施例では、撮影領域に対しては、歪ませられた動きベクトルを用いて補間フレームの画素値を決定し、非撮影領域に対しては、補間フレームの画素値として同じ位置
の入力画像信号の画素値を適用する構成としたが、この構成に限らない。全画像領域に対して、歪ませられた動きベクトルを用いて補間フレームの画素値が決定されてよい。
In this embodiment, the motion vector is detected in units of blocks. However, the motion vector may be detected in units of pixels.
In the present embodiment, the configuration is such that the motion vector is detected from the image signal in the imaging region, but the present invention is not limited to this configuration. For example, the distortion correction process may be performed on the entire image area of the input image signal, and the motion vector may be detected from the image signal after the distortion correction process corresponding to the entire image area.
In this embodiment, the pixel value of the interpolation frame is determined using the distorted motion vector for the shooting region, and the same position is input as the pixel value of the interpolation frame for the non-shooting region. Although the pixel value of the image signal is applied, the present invention is not limited to this configuration. For the entire image region, the interpolated frame pixel values may be determined using the distorted motion vectors.

<実施例2>
本発明の実施例2に係る画像処理装置及び画像処理方法について図を参照して説明する。実施例1では、入力画像信号のフレーム内の座標を起点として補間フレームを生成したが、実施例2では、生成対象の補間フレーム内の座標を起点として補間フレームを生成する。
図13は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、ケラレ検出部101、縮小率算出部102、補間方式決定部103、縮小&歪曲補正部104、フレームメモリ制御部105、動きベクトル検出部106、歪曲補間ベクトル算出部201、補間フレーム生成部202、などを有する。実施例1と同じ機能部については、同じ符号を付し、説明を省略する。
<Example 2>
An image processing apparatus and an image processing method according to Embodiment 2 of the present invention will be described with reference to the drawings. In the first embodiment, the interpolation frame is generated starting from the coordinates in the frame of the input image signal. In the second embodiment, the interpolation frame is generated starting from the coordinates in the interpolation frame to be generated.
FIG. 13 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes an vignetting detection unit 101, a reduction rate calculation unit 102, an interpolation method determination unit 103, a reduction & distortion correction unit 104, a frame memory control unit 105, a motion vector detection unit 106, and a distortion interpolation vector calculation. A unit 201, an interpolation frame generation unit 202, and the like. The same functional parts as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

歪曲補間ベクトル算出部201について説明する。
歪曲補間ベクトル算出部201は、実施例1の歪曲補間ベクトル&拡縮率算出部107の歪曲補間ベクトル算出処理と同様の処理を行う。歪曲補間ベクトル算出部201は、実施例1の歪曲補間ベクトル&拡縮率算出部107の拡縮率算出処理は行わない。
The distortion interpolation vector calculation unit 201 will be described.
The distortion interpolation vector calculation unit 201 performs processing similar to the distortion interpolation vector calculation processing of the distortion interpolation vector & scaling factor calculation unit 107 of the first embodiment. The distortion interpolation vector calculation unit 201 does not perform the enlargement / reduction rate calculation processing of the distortion interpolation vector & enlargement / reduction rate calculation unit 107 of the first embodiment.

補間フレーム生成部202について説明する。
補間フレーム生成部202は、フレームF(n),F(n+1)、補間方式m、境界情報kz、補間ベクトル{E(n)}、歪曲補間ベクトル{Z(n)}、歪曲収差情報から補間フレームAF(n)を生成する。
補間方式mが“魚眼動きベクトル補間”の場合について説明する。
実施例1では、歪曲補間ベクトルから、フレームF(n)内の画素位置に対応する補間フレームAF(n)内の画素位置を判断し、フレームF(n)内の一部の領域(ブロック)の画像の位置を変更して、補間フレームを生成した。実施例2では、歪曲補間ベクトルから、生成対象の補間フレームAF(n)内の画素位置に対応するフレームF(n)内の画素位置を判断し、判断結果に従ってフレームF(n)内の画素値を用いて補間フレームを生成する。
図14を用いて具体的に説明する。
歪曲補間ベクトルZ(n,blk1)から、F(n)上の歪曲座標AとAF(n)上の歪曲座標Bの対応が取れている。AF(n)上のブロックblk2内の画像を決定するために、補間フレーム生成部202は、ブロックblk2内の画素位置毎に、その画素位置の画素値を求める。ブロックblk2は、歪曲座標Bに対応する標準座標B’を中心として設定されたブロック(標準座標のブロック)を歪ませて得られる歪曲座標のブロックであってもよいし、歪曲座標Bを中心として設定されたブロック(例えば、水平方向16ピクセル×垂直方向16ピクセルのブロック)であってもよい。
ブロックblk2の左上端の歪曲座標p0の画素値を求める場合、まず、歪曲座標p0が歪曲収差情報(x’,y’)=g(x,y)に従って通常座標p0’に変換される。
次に、歪曲補間ベクトルZ(n,blk1)に対応する補間ベクトルE(n,blk1’)用いて、通常座標p0’を始点としてベクトル−E(n,blk1’)によって示される通常座標q0’が求められる。ベクトル−E(n,blk1’)は、補間ベクトルE(n,blk1’)と同じ大きさで向きが逆のベクトルである。
そして、歪曲収差情報(x,y)=f(x’,y’)に従って、通常座標q0’が歪曲座標q0に変換される。歪曲座標q0から歪曲座標p0へのベクトルは、歪曲座標q0(歪曲座標p0)に対する歪曲補間ベクトルである。
歪曲座標q0から歪曲座標p0へのベクトルは、歪曲座標q0(歪曲座標p0)に対応する歪曲補間ベクトルである。そこで、本実施例では、フレームF(n)上の歪曲座標q0の画素値が、補間フレームAF(n)上の歪曲座標p0に補間する画素値とされる。こ
の処理が全ての画素位置(全てのブロック内の全ての画素位置)に対して行われ、補間フレームAF(n)が生成される。
補間方式mが“通常動きベクトル補間”の場合、及び、補間方式mが“2度出し補間”の場合には、実施例1と同様の処理が行われる。“通常動きベクトル補間”の場合には、“魚眼動きベクトル補間”と同様に、生成対象の補間フレーム内の位置に対応する入力画像信号のフレーム内の位置を判断して補間フレームが生成されてもよい。
The interpolation frame generation unit 202 will be described.
The interpolation frame generation unit 202 interpolates from the frames F (n) and F (n + 1), the interpolation method m, the boundary information kz, the interpolation vector {E (n)}, the distortion interpolation vector {Z (n)}, and distortion aberration information. A frame AF (n) is generated.
A case where the interpolation method m is “fisheye motion vector interpolation” will be described.
In the first embodiment, the pixel position in the interpolation frame AF (n) corresponding to the pixel position in the frame F (n) is determined from the distortion interpolation vector, and a partial region (block) in the frame F (n) is determined. An interpolated frame was generated by changing the position of the image. In the second embodiment, the pixel position in the frame F (n) corresponding to the pixel position in the interpolation frame AF (n) to be generated is determined from the distortion interpolation vector, and the pixels in the frame F (n) are determined according to the determination result. An interpolation frame is generated using the value.
This will be specifically described with reference to FIG.
From the distortion interpolation vector Z (n, blk1), the correspondence between the distortion coordinate A on F (n) and the distortion coordinate B on AF (n) is established. In order to determine an image in the block blk2 on AF (n), the interpolation frame generation unit 202 obtains a pixel value at the pixel position for each pixel position in the block blk2. The block blk2 may be a distorted coordinate block obtained by distorting a block (standard coordinate block) set around the standard coordinate B ′ corresponding to the distorted coordinate B, or centered on the distorted coordinate B. It may be a set block (for example, a block of 16 pixels in the horizontal direction × 16 pixels in the vertical direction).
When obtaining the pixel value of the distorted coordinate p0 at the upper left end of the block blk2, first, the distorted coordinate p0 is converted into the normal coordinate p0 ′ according to the distortion aberration information (x ′, y ′) = g (x, y).
Next, using the interpolation vector E (n, blk1 ′) corresponding to the distortion interpolation vector Z (n, blk1), the normal coordinate q0 ′ indicated by the vector −E (n, blk1 ′) starting from the normal coordinate p0 ′. Is required. The vector -E (n, blk1 ′) is a vector having the same size and the opposite direction as the interpolation vector E (n, blk1 ′).
Then, in accordance with the distortion aberration information (x, y) = f (x ′, y ′), the normal coordinate q0 ′ is converted into the distortion coordinate q0. The vector from the distortion coordinate q0 to the distortion coordinate p0 is a distortion interpolation vector for the distortion coordinate q0 (distortion coordinate p0).
The vector from the distortion coordinate q0 to the distortion coordinate p0 is a distortion interpolation vector corresponding to the distortion coordinate q0 (distortion coordinate p0). Therefore, in this embodiment, the pixel value of the distorted coordinate q0 on the frame F (n) is the pixel value to be interpolated to the distorted coordinate p0 on the interpolated frame AF (n). This process is performed for all pixel positions (all pixel positions in all blocks), and an interpolation frame AF (n) is generated.
When the interpolation method m is “normal motion vector interpolation” and when the interpolation method m is “double interpolation”, the same processing as in the first embodiment is performed. In the case of “normal motion vector interpolation”, an interpolated frame is generated by judging the position in the frame of the input image signal corresponding to the position in the interpolation frame to be generated, as in “fisheye motion vector interpolation”. May be.

以上述べたように、本実施例によれば、歪ませられた動きベクトルを用いて補間フレームが生成されるため、実施例1と同様に、画像の歪みがある動画像のフレームレートを、動画像を破綻させることなく高めることができる。
具体的には、本実施例によれば、歪曲収差情報を用いて、補間フレームの画素位置に対応する入力画像信号のフレームの画素位置が求められる。これは、画素位置毎に歪曲補間ベクトルを求めること(歪ませられた動きベクトルとして、画素位置毎の動きベクトルを求めること)と等価である。そして、画素位置毎に歪曲補間ベクトルに従って補間フレームが生成される。それにより、複数画素位置毎の歪曲補間ベクトルを用いた場合よりも補間フレームの画像の破綻を抑制することができる。
なお、補間フレームの画素位置に対応する入力画像信号のフレームの画素位置を求める処理、即ち、画素位置毎に歪曲補間ベクトルを求める処理は、補間フレーム生成部ではなく、歪曲補間ベクトル算出部201で行われてもよい。
As described above, according to the present embodiment, an interpolated frame is generated using a distorted motion vector. Therefore, as in the first embodiment, the frame rate of a moving image with image distortion is changed to a moving image. It can be enhanced without breaking the image.
Specifically, according to the present embodiment, the pixel position of the frame of the input image signal corresponding to the pixel position of the interpolation frame is obtained using the distortion aberration information. This is equivalent to obtaining a distortion interpolation vector for each pixel position (obtaining a motion vector for each pixel position as a distorted motion vector). An interpolation frame is generated according to the distortion interpolation vector for each pixel position. Thereby, it is possible to suppress the failure of the image of the interpolation frame as compared with the case where the distortion interpolation vector for each of the plurality of pixel positions is used.
Note that the processing for obtaining the pixel position of the frame of the input image signal corresponding to the pixel position of the interpolation frame, that is, the processing for obtaining the distortion interpolation vector for each pixel position is performed by the distortion interpolation vector calculation unit 201 instead of the interpolation frame generation unit. It may be done.

<実施例3>
本発明の実施例1に係る画像処理装置及び画像処理方法について図を参照して説明する。実施例1,2では、動きベクトルを歪ませて入力画像信号のフレーム間を補間する補間フレームを生成した。実施例3では、画像の歪みが補正された画僧信号間を補間する補間フレーム(通常補間フレーム)を生成し、通常補間フレームを歪ませて入力画像信号のフレーム間を補間する補間フレーム(歪み補間フレーム)を生成する。
図15は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、ケラレ検出部101、縮小率算出部102、補間方式決定部103、縮小&歪曲補正部104、フレームメモリ制御部105、動きベクトル検出部106、補間フレーム生成部301、拡大&歪曲化部302、などを有する。実施例1,2と同じ機能部ついては、同じ符号を付し、説明を省略する。
<Example 3>
An image processing apparatus and an image processing method according to Embodiment 1 of the present invention will be described with reference to the drawings. In the first and second embodiments, an interpolation frame for interpolating between frames of an input image signal by generating a distorted motion vector is generated. In the third embodiment, an interpolation frame (ordinary interpolation frame) for interpolating between image signals whose image distortion has been corrected is generated, and the normal interpolation frame is distorted to interpolate between frames of the input image signal (distortion). Interpolation frame).
FIG. 15 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes an vignetting detection unit 101, a reduction rate calculation unit 102, an interpolation method determination unit 103, a reduction & distortion correction unit 104, a frame memory control unit 105, a motion vector detection unit 106, and an interpolation frame generation unit. 301, an enlargement & distortion unit 302, and the like. The same functional parts as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.

補間フレーム生成部301について説明する。
補間フレーム生成部301は、歪み補正処理後の画像信号と、動きベクトル検出部106で検出された動きベクトルとから、歪み補正処理後の画像信号のフレーム間を補間する補間フレーム(通常補間フレーム)を生成する。
具体的には、補間フレーム生成部301は、フレームF(n)、F(n+1)、SF(n)、SF(n+1)、補間方式m、縮小率k、補間ベクトル{E(n)}、から補間フレームAF(n)またはASF(n)を生成する。
補間方式mが“魚眼動きベクトル補間”の場合は、補間フレーム生成部301は、動きベクトル検出用フレームSF(n),SF(n+1)、補間ベクトル{E(n)}を用いて補間フレームASF(n)を生成する。補間フレームの生成方法は、実施例1,2の“通常動きベクトル補間”の場合と同様である。例えば、補間ベクトル{E(n)}に対応する各ブロックのSF(n)上の画像が、補間フレームASF(n)の画像として補間ベクトル{E(n)}で示される位置に貼り付けられる。
なお、SF(n)、SF(n+1)が通常座標の縮小された画像である場合には、補間フレームASF(n)も通常座標の縮小された画像となる。そのような場合には、補間ベクトル{E(n)}は縮小されたベクトルではないため、補間ベクトル{E(n)}は、k0.5倍されて使用される。
なお、補間フレーム生成部301は、撮影領域に対して、動きベクトル検出部106で
検出された動きベクトルを用いて補間フレームの画素値を決定することが好ましい。そして、補間フレーム生成部301は、非撮影領域に対して、補間フレームの画素値として同じ位置の歪み補正処理後の画像信号の画素値を適用することが好ましい。それにより、非撮影領域や非撮影領域と撮影領域の境界が誤補間によって乱れることを抑制することができる。
なお、動きベクトル検出用フレームSFの画像は、撮影領域の画像であってもよいし、撮影領域と非撮影領域を含む画像であってもよい。例えば、動きベクトル検出用フレームSFは、入力画像信号のフレームの全領域に対して歪み補正処理を施して得られる画像であってもよい。動きベクトル検出用フレームSFの画像が撮影領域の画像(非撮影領域が除外された画像)である場合には、動きベクトル検出用フレームSFの画像に非撮影領域の画像を付加して補間フレームASF(n)が生成される。
補間方式mが“通常動きベクトル補間”の場合は、補間フレーム生成部301は、フレームF(n),F(n+1)、補間ベクトル{E(n)}を用いて補間フレームAF(n)を生成する。補間フレームの生成方法は、実施例1,2と同様である。
補間方式mが“2度出し補間”の場合は、実施例1,2と同様に、補間フレーム生成部301は、補間フレームを生成しない。
The interpolation frame generation unit 301 will be described.
The interpolation frame generation unit 301 interpolates between the frames of the image signal after the distortion correction processing from the image signal after the distortion correction processing and the motion vector detected by the motion vector detection unit 106 (normal interpolation frame). Is generated.
Specifically, the interpolation frame generation unit 301 includes frames F (n), F (n + 1), SF (n), SF (n + 1), an interpolation method m, a reduction ratio k, an interpolation vector {E (n)}, To generate an interpolation frame AF (n) or ASF (n).
When the interpolation method m is “fisheye motion vector interpolation”, the interpolation frame generation unit 301 uses the motion vector detection frames SF (n), SF (n + 1), and the interpolation vector {E (n)} to interpolate frames. ASF (n) is generated. The method for generating the interpolation frame is the same as in the case of “normal motion vector interpolation” in the first and second embodiments. For example, the image on SF (n) of each block corresponding to the interpolation vector {E (n)} is pasted at the position indicated by the interpolation vector {E (n)} as the image of the interpolation frame ASF (n). .
If SF (n) and SF (n + 1) are images with reduced normal coordinates, the interpolation frame ASF (n) is also an image with reduced normal coordinates. In such a case, since the interpolation vector {E (n)} is not a reduced vector, the interpolation vector {E (n)} is used after being multiplied by k 0.5 .
Note that the interpolation frame generation unit 301 preferably determines the pixel value of the interpolation frame using the motion vector detected by the motion vector detection unit 106 for the imaging region. And it is preferable that the interpolation frame production | generation part 301 applies the pixel value of the image signal after the distortion correction process of the same position as a pixel value of an interpolation frame with respect to a non-photographing area | region. Thereby, it is possible to prevent the non-photographing area and the boundary between the non-photographing area and the photographing area from being disturbed by erroneous interpolation.
Note that the image of the motion vector detection frame SF may be an image of a shooting region or an image including a shooting region and a non-shooting region. For example, the motion vector detection frame SF may be an image obtained by performing distortion correction processing on the entire region of the frame of the input image signal. When the image of the motion vector detection frame SF is an image of a shooting area (an image in which the non-shooting area is excluded), the image of the non-shooting area is added to the image of the motion vector detection frame SF to interpolate the frame ASF. (N) is generated.
When the interpolation method m is “normal motion vector interpolation”, the interpolation frame generation unit 301 uses the frames F (n), F (n + 1), and the interpolation vector {E (n)} to generate the interpolation frame AF (n). Generate. The method for generating the interpolation frame is the same as in the first and second embodiments.
When the interpolation method m is “double interpolation”, the interpolation frame generation unit 301 does not generate an interpolation frame as in the first and second embodiments.

拡大&歪曲化部302について説明する。
補間フレームASF(n)は、歪みの無い補間フレーム(通常補間フレーム)である。拡大&歪曲化部302は、入力画像信号の画像の歪み方に従って、補間フレームASF(n)を歪ませることにより、入力画像信号のフレーム間を補間する補間フレームAF(n)(歪み補間フレーム)を生成する。
具体的には、拡大&歪曲化部302は、補間フレームASF(n)、補間方式m、縮小率k、歪曲収差情報から、補間フレームAF(n)を生成する。
補間方式mが“魚眼ベクトル補間”の場合には、拡大&歪曲化部302は、補間フレームASF(n)に対して拡大処理と歪曲化処理を施す。拡大処理は、補間フレームASF(n)の水平方向サイズと水力方向サイズを、それぞれ、1/k0.5倍に拡大する処理である。拡大処理は、例えば、バイリニア法を用いて行われる。歪曲化処理は、拡大処理後の画像信号の画像を歪ませる処理である。歪曲化処理は、歪曲収差情報の(x,y)=f(x’,y’)に従って行われる。を利用してみのある画像に変換する。補間フレームASF(n)に対して拡大処理と歪曲化処理を施すことにより、補間フレームAF(n)が生成される。
補間方式mが“通常ベクトル補間”の場合には、フレームメモリ制御部にはすでに補間フレーム生成部301で生成された補間フレームAF(n)が記憶されているため、拡大&歪曲化部302は、補間フレームAF(n)を生成しない。
補間方式mが“2度出し補間”の場合には、拡大&歪曲化部302は、補間フレームAF(n)を生成しない。
The enlargement & distortion unit 302 will be described.
The interpolation frame ASF (n) is an interpolation frame without distortion (normal interpolation frame). The enlargement & distortion unit 302 distorts the interpolation frame ASF (n) according to how the input image signal is distorted, thereby interpolating between frames of the input image signal (distortion interpolation frame). Is generated.
Specifically, the enlargement & distortion unit 302 generates an interpolation frame AF (n) from the interpolation frame ASF (n), the interpolation method m, the reduction ratio k, and distortion aberration information.
When the interpolation method m is “fisheye vector interpolation”, the enlargement & distortion unit 302 performs an enlargement process and a distortion process on the interpolation frame ASF (n). The enlargement process is a process of enlarging the horizontal direction size and the hydraulic direction size of the interpolation frame ASF (n) to 1 / k 0.5 times, respectively. The enlargement process is performed using, for example, a bilinear method. The distortion process is a process for distorting the image of the image signal after the enlargement process. The distortion processing is performed according to (x, y) = f (x ′, y ′) of distortion aberration information. Use to convert to a realistic image. An interpolation frame AF (n) is generated by performing enlargement processing and distortion processing on the interpolation frame ASF (n).
When the interpolation method m is “normal vector interpolation”, since the interpolation frame AF (n) generated by the interpolation frame generation unit 301 is already stored in the frame memory control unit, the enlargement & distortion unit 302 The interpolation frame AF (n) is not generated.
When the interpolation method m is “double interpolation”, the enlargement & distortion unit 302 does not generate the interpolation frame AF (n).

以上述べたように、本実施例によれば、歪み補正処理後の画像信号から動きベクトルが検出され、歪み補正処理後の画像信号と、検出された動きベクトルとから、歪み補正処理後の画像信号のフレーム間を補間する補間フレーム(通常補間フレーム)が生成される。そして、入力画像信号の画像の歪み方に従って、上記通常補間フレームを歪ませることにより、入力画像信号のフレーム間を補間する補間フレーム(歪み補間フレーム)が生成される。それにより、意図的な画像の歪みがある動画像のフレームレートを、動画像を破綻させることなく高めることができる。
なお、補間フレーム生成部301は、補間フレームASFとして、縮小されていない画像が生成されてもよい。例えば、動きベクトル検出用フレームSFが縮小された画像である場合には、補間フレーム生成部301は、動きベクトル検出用フレームSFに拡大処理を施し、拡大されたSFから補間フレームASFが生成されてもよい。また、補間フレーム生成部301は、動きベクトル検出用フレームSFから生成した補間フレーム(縮小さ
れた画像)に対して拡大処理を施して、補間フレームASFを生成してもよい。また、動きベクトル検出用フレームSFの画像は、縮小処理が施されていない画像であってもよい。それらの場合には、フレーム拡大&歪曲化部302による拡大処理は不要となる。
As described above, according to the present embodiment, a motion vector is detected from an image signal after distortion correction processing, and an image after distortion correction processing is detected from the image signal after distortion correction processing and the detected motion vector. An interpolation frame (normal interpolation frame) for interpolating between signal frames is generated. Then, the normal interpolation frame is distorted in accordance with how the input image signal is distorted, thereby generating an interpolation frame (distortion interpolation frame) for interpolating between the frames of the input image signal. Thereby, the frame rate of a moving image with intentional image distortion can be increased without breaking the moving image.
Note that the interpolation frame generation unit 301 may generate an unreduced image as the interpolation frame ASF. For example, when the motion vector detection frame SF is a reduced image, the interpolation frame generation unit 301 performs an enlargement process on the motion vector detection frame SF, and an interpolation frame ASF is generated from the enlarged SF. Also good. In addition, the interpolation frame generation unit 301 may generate an interpolation frame ASF by performing an enlargement process on the interpolation frame (reduced image) generated from the motion vector detection frame SF. Further, the image of the motion vector detection frame SF may be an image that has not been subjected to reduction processing. In those cases, enlargement processing by the frame enlargement & distortion unit 302 is not necessary.

<実施例4>
本発明の実施例4に係る画像処理装置及び画像処理方法について図を参照して説明する。
図16は、本実施例に係る画像処理装置の機能構成の一例を示すブロック図である。本実施例に係る画像処理装置は、縮小部401、補間方式決定部402、フレームメモリ制御部105、動きベクトル検出部403、補間フレーム生成部404、などを有する。実施例1〜3と同じ機能部については、同じ符号を付し、説明を省略する。
<Example 4>
An image processing apparatus and an image processing method according to Embodiment 4 of the present invention will be described with reference to the drawings.
FIG. 16 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes a reduction unit 401, an interpolation method determination unit 402, a frame memory control unit 105, a motion vector detection unit 403, an interpolation frame generation unit 404, and the like. The same functional units as those in the first to third embodiments are denoted by the same reference numerals and description thereof is omitted.

縮小部401について説明する。
縮小部401は、入力画像信号のフレームF(n)を縮小し、動きベクトル検出用フレームSF(n)を生成する。本実施例では、フレームF(n)の水平方向サイズと垂直方向サイズがそれぞれ1/2倍に縮小されるものとする。なお、縮小率は1/2より大きくても小さくてもよい。縮小率は、フレームF(n)の画像サイズに応じて変更されてもよい。縮小処理は、例えば、バイリニア法を用いて行われる。
The reduction unit 401 will be described.
The reduction unit 401 reduces the frame F (n) of the input image signal and generates a motion vector detection frame SF (n). In the present embodiment, it is assumed that the horizontal size and the vertical size of the frame F (n) are reduced by a factor of 1/2. The reduction rate may be larger or smaller than 1/2. The reduction ratio may be changed according to the image size of the frame F (n). The reduction process is performed using, for example, a bilinear method.

動きベクトル検出部403について説明する。
動きベクトル検出部403は、動きベクトル検出用フレームSF(n),SF(n+1)から動きベクトル{V(n)}を求める。動きベクトルの検出方法は、他の実施例と同様である。また、本実施例では、動きベクトル検出用フレームSF(n)、SF(n+1)は、フレームF(n)の水平方向サイズと垂直方向サイズをそれぞれ1/2倍に縮小したものである。そのため、本実施例では、動きベクトル{V(n)}がそのまま補間ベクトル{E(n)}とされる。
The motion vector detection unit 403 will be described.
The motion vector detection unit 403 obtains a motion vector {V (n)} from the motion vector detection frames SF (n) and SF (n + 1). The motion vector detection method is the same as in the other embodiments. In this embodiment, the motion vector detection frames SF (n) and SF (n + 1) are obtained by reducing the horizontal size and the vertical size of the frame F (n) by 1/2 times, respectively. Therefore, in this embodiment, the motion vector {V (n)} is directly used as the interpolation vector {E (n)}.

補間フレーム生成部404について説明する。
補間フレーム生成部404は、補間方式mが“通常動きベクトル補間”である場合に、動きベクトル検出部403で検出された動きベクトルを用いて、入力画像信号のフレーム間を補間する補間フレームを生成する(第1生成処理)。具体的には、補間方式mが“通常動きベクトル補間”である場合に、フレームF(n),F(n+1)、補間ベクトル{E(n)}から補間フレームAF(n)が生成される。補間フレームAF(n)の生成方法は、他の実施例と同じである。
補間方式mが“2度出し補間”である場合には、補間フレーム生成部404は、補間フレームAFを生成しない。補間方式mが“2度出し補間”である場合には、実施例1で述べたように、入力画像信号のフレームが、入力画像信号のフレーム間を補間する補間フレームとされる(第2生成処理)。
The interpolation frame generation unit 404 will be described.
The interpolation frame generation unit 404 generates an interpolation frame for interpolating between frames of the input image signal using the motion vector detected by the motion vector detection unit 403 when the interpolation method m is “normal motion vector interpolation”. (First generation process). Specifically, when the interpolation method m is “normal motion vector interpolation”, an interpolation frame AF (n) is generated from the frames F (n), F (n + 1), and the interpolation vector {E (n)}. . The method for generating the interpolation frame AF (n) is the same as in the other embodiments.
When the interpolation method m is “double interpolation”, the interpolation frame generation unit 404 does not generate the interpolation frame AF. When the interpolation method m is “double interpolation”, as described in the first embodiment, the frame of the input image signal is an interpolation frame for interpolating between the frames of the input image signal (second generation). processing).

補間方式決定部402について説明する。
補間方式決定部402は、レンズ情報または歪曲収差情報に応じて補間方式mを決定する。それにより、第1生成処理で補間フレームを生成するか、第2生成処理で補間フレームを生成するかが制御される。
The interpolation method determination unit 402 will be described.
The interpolation method determination unit 402 determines the interpolation method m according to lens information or distortion information. Thereby, whether to generate an interpolation frame in the first generation process or to generate an interpolation frame in the second generation process is controlled.

レンズ情報に応じて補間方式mを決定する場合について説明する。
補間方式決定部402は、レンズ情報から、入力画像信号が歪んだ画像の信号か否かを判断する。入力画像信号が歪んだ画像の信号である場合には、補間方式決定部402は、補間方式mとして“2度出し補間”を設定する。入力画像信号が歪んだ画像の信号でない場合には、補間方式決定部402は、補間方式mとして“通常動きベクトル補間”を設定する。例えば、レンズ情報が、標準レンズ、望遠レンズ、マクロレンズを示す場合には、
補間方式決定部402は、入力画像信号が歪んだ画像の信号でないと判断する。レンズ情報が、魚眼レンズ、広角レンズを示す場合には、補間方式決定部402は、入力画像信号が歪んだ画像の信号であると判断する。
即ち、入力画像信号が歪んだ画像の信号でない場合に第1生成処理で補間フレームが生成され、入力画像信号が歪んだ画像の信号である場合に第2生成処理で補間フレームが生成されるように、補間フレームの生成が制御される。
A case where the interpolation method m is determined according to the lens information will be described.
The interpolation method determination unit 402 determines from the lens information whether the input image signal is a distorted image signal. When the input image signal is a distorted image signal, the interpolation method determination unit 402 sets “double interpolation” as the interpolation method m. If the input image signal is not a distorted image signal, the interpolation method determination unit 402 sets “normal motion vector interpolation” as the interpolation method m. For example, when the lens information indicates a standard lens, a telephoto lens, or a macro lens,
The interpolation method determination unit 402 determines that the input image signal is not a distorted image signal. When the lens information indicates a fisheye lens or a wide-angle lens, the interpolation method determination unit 402 determines that the input image signal is a distorted image signal.
That is, an interpolation frame is generated in the first generation process when the input image signal is not a distorted image signal, and an interpolation frame is generated in the second generation process when the input image signal is a distorted image signal. In addition, the generation of the interpolation frame is controlled.

歪曲収差情報に応じて補間方式mを決定する場合について説明する。
補間方式決定部402は、歪曲収差情報から、入力画像信号で表される画像の歪みの度合いを判断する。画像の歪みの度合いが所定の閾値より大きい場合には、補間方式決定部402は、補間方式mとして“2度出し補間”を設定する。画像の歪みの度合いが所定の閾値未満の場合には、補間方式決定部402は、補間方式mとして“通常動きベクトル補間”を設定する。画像の歪みの度合いは、例えば、入力画像信号の画素毎の通常座標と歪曲座標の差の最大値、最小値、平均値などである。
即ち、画像の歪みの度合いが所定の閾値以下である場合に第1生成処理で補間フレームが生成され、画像の歪みの度合いが所定の閾値より大きい場合に第2生成処理で補間フレームが生成されるように、補間フレームの生成処理が制御される。
The case where the interpolation method m is determined according to distortion aberration information will be described.
The interpolation method determination unit 402 determines the degree of distortion of the image represented by the input image signal from the distortion aberration information. When the degree of image distortion is larger than a predetermined threshold, the interpolation method determination unit 402 sets “double interpolation” as the interpolation method m. When the degree of image distortion is less than a predetermined threshold, the interpolation method determination unit 402 sets “normal motion vector interpolation” as the interpolation method m. The degree of image distortion is, for example, the maximum value, minimum value, or average value of the difference between the normal coordinates and the distortion coordinates for each pixel of the input image signal.
That is, an interpolation frame is generated in the first generation process when the degree of image distortion is equal to or less than a predetermined threshold, and an interpolation frame is generated in the second generation process when the degree of image distortion is greater than the predetermined threshold. As described above, the interpolation frame generation process is controlled.

以上述べたように、本実施例よれば、画像の歪みの度合いが小さい(画像の歪みがない)場合に、第1生成処理で補間フレームが生成される。また、画像の歪みの度合いが大きい(画像の歪みがある)場合には、第2生成処理で補間フレームが生成される。それにより、意図的な画像の歪みがある動画像のフレームレートを、動画像を大きく破綻させることなく高めることができる。
具体的には、画像の歪みがない場合には、動きベクトルで示される補間位置は正確な位置となるため、補間フレームの画像が乱れない。そのような場合に、動きベクトルに従って補間フレームを生成することで、動画像の動きの滑らかさを高め、且つ、フリッカを低減することができる。また、画像の歪みがある場合には、動きベクトルで示される補間位置は正確な位置とならないため、補間フレームの画像が乱れる虞がある。そのような場合に、入力画像信号のフレームを補間フレームとすることにより、補間フレームの画像が破綻することを抑制することができ、動画像が破綻することを抑制することができる。
また、画像の歪みの度合いが小さい場合には、動きベクトルで示される補間位置が正確な位置からずれていたとしても、そのずれは小さいため、補間フレームの画像の乱れは小さい。そのような場合に、動きベクトルに従って補間フレームを生成することで、動画像の動きの滑らかさの向上、及び、フリッカの低減の効果を優先して得ることができる。また、画像の歪みの度合いが大きい場合には、補間フレームの画像が大きく乱れる虞がある。そのような場合に、入力画像信号のフレームを補間フレームとすることにより、補間フレームの画像が破綻することを抑制することができ、動画像が破綻することを抑制することができる。
As described above, according to the present embodiment, when the degree of image distortion is small (no image distortion), an interpolation frame is generated in the first generation process. When the degree of image distortion is large (there is image distortion), an interpolation frame is generated in the second generation process. Thereby, the frame rate of a moving image with intentional image distortion can be increased without causing the moving image to break down significantly.
Specifically, when there is no distortion of the image, the interpolation position indicated by the motion vector is an accurate position, so that the image of the interpolation frame is not disturbed. In such a case, by generating the interpolation frame according to the motion vector, it is possible to increase the smoothness of the motion of the moving image and reduce the flicker. In addition, when there is distortion of the image, the interpolation position indicated by the motion vector is not an accurate position, so that the image of the interpolation frame may be disturbed. In such a case, by setting the frame of the input image signal as an interpolation frame, it is possible to suppress the image of the interpolation frame from failing, and to prevent the moving image from failing.
Further, when the degree of distortion of the image is small, even if the interpolation position indicated by the motion vector is deviated from the correct position, the deviation is small, so that the disturbance of the image of the interpolation frame is small. In such a case, by generating the interpolation frame according to the motion vector, it is possible to preferentially obtain the effects of improving the smoothness of the moving image and reducing flicker. Further, when the degree of distortion of the image is large, the image of the interpolation frame may be greatly disturbed. In such a case, by setting the frame of the input image signal as an interpolation frame, it is possible to suppress the image of the interpolation frame from failing, and to prevent the moving image from failing.

なお、実施例1〜4で述べたフレームは、インターレース画像信号におけるフィールドであってもよい。即ち、フレームレート変換は、フレーム単位で行われてもよいし、フィールド単位で行われてもよい。
また、ブロックサイズ、ブロックマッチングにおける探索領域のサイズ、動きベクトル検出用フレームのデータサイズ等は、実施例で例示した値に限定されるものではなく、適宜設定、変更されるものである。
また、縮小処理や拡大処理は、バイリニア法を用いた方法に限らない。縮小処理や拡大処理は、バイリニア法以外の方法、例えば、バイキュービック法を用いて行われてもよい。
また、歪みのある画像の信号は、魚眼レンズを用いて撮影された画像信号に限らない。意図的な歪みのある画像の信号であれば、魚眼レンズ以外のレンズを用いて撮影された画
像信号であってもよい。例えば、歪みのある画像の信号は、広角レンズを用いて撮影された画像信号であってもよい。
The frame described in the first to fourth embodiments may be a field in an interlaced image signal. That is, the frame rate conversion may be performed on a frame basis or on a field basis.
In addition, the block size, the size of the search area in block matching, the data size of the motion vector detection frame, and the like are not limited to the values exemplified in the embodiment, and are set and changed as appropriate.
Further, the reduction process and the enlargement process are not limited to the method using the bilinear method. The reduction process and the enlargement process may be performed using a method other than the bilinear method, for example, a bicubic method.
The image signal with distortion is not limited to an image signal photographed using a fisheye lens. As long as the image signal is intentionally distorted, it may be an image signal photographed using a lens other than a fisheye lens. For example, the image signal with distortion may be an image signal captured using a wide-angle lens.

104 縮小&歪曲補正部
106 動きベクトル検出部
107 歪曲補間ベクトル&拡縮率算出部
108 補間フレーム生成部
201 歪曲補間ベクトル算出部
202 補間フレーム生成部
301 補間フレーム生成部
302 歪曲化部
402 補間方式決定部
403 ベクトル検出部
404 補間フレーム生成部
104 Reduction & Distortion Correction Unit 106 Motion Vector Detection Unit 107 Distortion Interpolation Vector & Expansion / Reduction Ratio Calculation Unit 108 Interpolation Frame Generation Unit 201 Distortion Interpolation Vector Calculation Unit 202 Interpolation Frame Generation Unit 301 Interpolation Frame Generation Unit 302 Distortion Unit 402 Interpolation Method Determination Unit 403 Vector detection unit 404 Interpolated frame generation unit

Claims (23)

入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正手段と、
前記歪み補正処理後の画像信号から動きベクトルを検出する検出手段と、
前記入力画像信号の画像の歪み方に従って、前記検出手段で検出された動きベクトルを歪ませる歪み処理手段と、
前記入力画像信号と、前記歪み処理手段で歪ませられた動きベクトルとから、前記入力画像信号のフレーム間を補間する補間フレームを生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
When the input image signal is a distorted image signal, distortion correction means for performing a distortion correction process for correcting image distortion on the input image signal;
Detecting means for detecting a motion vector from the image signal after the distortion correction processing;
Distortion processing means for distorting the motion vector detected by the detection means according to how the input image signal is distorted;
Generating means for generating an interpolated frame for interpolating between frames of the input image signal from the input image signal and the motion vector distorted by the distortion processing means;
An image processing apparatus comprising:
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記生成手段は、前記撮影領域に対しては、前記歪み処理手段で歪ませられた動きベクトルを用いて補間フレームの画素値を決定し、前記非撮影領域に対しては、補間フレームの画素値として同じ位置の前記入力画像信号の画素値を適用する
ことを特徴とする請求項1に記載の画像処理装置。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
The generating unit determines a pixel value of an interpolation frame using the motion vector distorted by the distortion processing unit for the imaging region, and a pixel value of the interpolation frame for the non-imaging region. The image processing apparatus according to claim 1, wherein a pixel value of the input image signal at the same position is applied.
前記生成手段は、前記入力画像信号のフレーム内の一部の領域の画像の位置を、前記歪み処理手段で歪ませられた動きベクトルに従って変更することにより、補間フレーム内の一部の領域の画像を決定するものであり、画像の位置を変更する際に、前記入力画像信号の画像の歪み方に従って、位置を変更する画像のサイズを変更する
ことを特徴とする請求項1または2に記載の画像処理装置。
The generating means changes the position of the image of the partial area in the frame of the input image signal in accordance with the motion vector distorted by the distortion processing means, whereby the image of the partial area in the interpolation frame The size of the image whose position is to be changed is changed according to a method of distortion of the image of the input image signal when the position of the image is changed. Image processing device.
前記歪み処理手段は、歪ませられた動きベクトルとして、画素位置毎の動きベクトルを求める
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the distortion processing unit obtains a motion vector for each pixel position as a distorted motion vector.
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正手段と、
前記歪み補正処理後の画像信号から動きベクトルを検出する検出手段と、
前記歪み補正処理後の画像信号と、前記検出手段で検出された動きベクトルとから、前記歪み補正処理後の画像信号のフレーム間を補間する補間フレームを生成する生成手段と、
前記入力画像信号の画像の歪み方に従って、前記生成手段で生成された補間フレームを歪ませることにより、前記入力画像信号のフレーム間を補間する補間フレームを生成する歪み処理手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
When the input image signal is a distorted image signal, distortion correction means for performing a distortion correction process for correcting image distortion on the input image signal;
Detecting means for detecting a motion vector from the image signal after the distortion correction processing;
Generating means for generating an interpolated frame for interpolating between frames of the image signal after the distortion correction processing, from the image signal after the distortion correction processing and the motion vector detected by the detection means;
Distortion processing means for generating an interpolation frame for interpolating between the frames of the input image signal by distorting the interpolation frame generated by the generation means according to a method of distortion of the image of the input image signal;
An image processing apparatus comprising:
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記生成手段は、前記撮影領域に対しては、前記検出手段で検出された動きベクトルを用いて補間フレームの画素値を決定し、前記非撮影領域に対しては、補間フレームの画素値として同じ位置の前記歪み補正処理後の画像信号の画素値を適用する
ことを特徴とする請求項5に記載の画像処理装置。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
The generation unit determines a pixel value of an interpolation frame using the motion vector detected by the detection unit for the shooting region, and is the same as a pixel value of the interpolation frame for the non-shooting region. 6. The image processing apparatus according to claim 5, wherein a pixel value of an image signal after the position correction processing is applied.
前記検出手段は、縮小処理が施された歪み補正処理後の画像信号から動きベクトルを検出する
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the detection unit detects a motion vector from the image signal after the distortion correction process that has been subjected to the reduction process.
前記縮小処理の縮小率が所定の閾値未満である場合には、前記入力画像信号のフレームが、前記入力画像信号のフレーム間を補間する補間フレームとされる
ことを特徴とする請求項7に記載の画像処理装置。
8. The frame of the input image signal is an interpolation frame for interpolating between frames of the input image signal when the reduction rate of the reduction process is less than a predetermined threshold. Image processing apparatus.
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記検出手段は、前記撮影領域の画像信号から動きベクトルを検出する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
The image processing apparatus according to claim 1, wherein the detection unit detects a motion vector from an image signal of the shooting area.
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理装置であって、
前記入力画像信号から動きベクトルを検出し、検出した動きベクトルを用いて、前記入力画像信号のフレーム間を補間する補間フレームを生成する第1生成手段と、
前記入力画像信号のフレームを、前記入力画像信号のフレーム間を補間する補間フレームとする第2生成手段と、
前記入力画像信号が歪んだ画像の信号でない場合に前記第1生成手段で補間フレームが生成され、前記入力画像信号が歪んだ画像の信号である場合に前記第2生成手段で補間フレームが生成されるように、前記第1生成手段の処理と前記第2生成手段の処理を制御する制御手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that interpolates between frames of an input image signal to increase a frame rate of the input image signal,
First generating means for detecting a motion vector from the input image signal and generating an interpolation frame for interpolating between frames of the input image signal using the detected motion vector;
A second generation means for setting the frame of the input image signal as an interpolation frame for interpolating between frames of the input image signal;
When the input image signal is not a distorted image signal, an interpolation frame is generated by the first generation means, and when the input image signal is a distorted image signal, an interpolation frame is generated by the second generation means. Control means for controlling the processing of the first generation means and the processing of the second generation means,
An image processing apparatus comprising:
前記制御手段は、画像の歪みの度合いが所定の閾値以下である場合に前記第1生成手段で補間フレームが生成され、画像の歪みの度合いが前記所定の閾値より大きい場合に前記第2生成手段で補間フレームが生成されるように、前記第1生成手段の処理と前記第2生成手段の処理を制御する
ことを特徴とする請求項10に記載の画像処理装置。
The control means generates an interpolated frame by the first generation means when the degree of image distortion is equal to or less than a predetermined threshold, and the second generation means when the degree of image distortion is greater than the predetermined threshold. The image processing apparatus according to claim 10, wherein the processing of the first generation unit and the processing of the second generation unit are controlled such that an interpolation frame is generated in step S 11.
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正ステップと、
コンピュータが、前記歪み補正処理後の画像信号から動きベクトルを検出する検出ステップと、
コンピュータが、前記入力画像信号の画像の歪み方に従って、前記検出ステップで検出された動きベクトルを歪ませる歪み処理ステップと、
コンピュータが、前記入力画像信号と、前記歪み処理ステップで歪ませられた動きベクトルとから、前記入力画像信号のフレーム間を補間する補間フレームを生成する生成ステップと、
を有することを特徴とする画像処理方法。
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
When the computer is a signal of a distorted image, the distortion correction step of performing a distortion correction process to correct the distortion of the image to the input image signal;
A detection step in which a computer detects a motion vector from the image signal after the distortion correction processing;
A distortion processing step in which the computer distorts the motion vector detected in the detection step according to a method of distortion of the image of the input image signal;
A generation step of generating an interpolated frame for interpolating between frames of the input image signal from the input image signal and the motion vector distorted in the distortion processing step;
An image processing method comprising:
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記生成ステップでは、前記撮影領域に対しては、前記歪み処理ステップで歪ませられた動きベクトルを用いて補間フレームの画素値が決定され、前記非撮影領域に対しては、補間フレームの画素値として同じ位置の前記入力画像信号の画素値が適用される
ことを特徴とする請求項12に記載の画像処理方法。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
In the generation step, a pixel value of an interpolation frame is determined using the motion vector distorted in the distortion processing step for the shooting region, and a pixel value of the interpolation frame for the non-shooting region. The image processing method according to claim 12, wherein pixel values of the input image signal at the same position are applied.
前記生成ステップでは、前記入力画像信号のフレーム内の一部の領域の画像の位置を、前記歪み処理ステップで歪ませられた動きベクトルに従って変更することにより、補間フレーム内の一部の領域の画像が決定され、画像の位置を変更する際に、前記入力画像信号の画像の歪み方に従って、位置を変更する画像のサイズが変更される
ことを特徴とする請求項12または13に記載の画像処理方法。
In the generating step, an image of a partial region in the interpolation frame is obtained by changing a position of an image of the partial region in the frame of the input image signal according to the motion vector distorted in the distortion processing step. 14. The image processing according to claim 12 or 13, wherein when the position of the image is determined and the position of the image is changed, the size of the image whose position is changed is changed according to how the image of the input image signal is distorted. Method.
前記歪み処理ステップでは、歪ませられた動きベクトルとして、画素位置毎の動きベクトルが求められる
ことを特徴とする請求項12〜14のいずれか1項に記載の画像処理方法。
15. The image processing method according to claim 12, wherein in the distortion processing step, a motion vector for each pixel position is obtained as a distorted motion vector.
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号が歪んだ画像の信号である場合に、前記入力画像信号に画像の歪みを補正する歪み補正処理を施す歪み補正ステップと、
コンピュータが、前記歪み補正処理後の画像信号から動きベクトルを検出する検出ステップと、
コンピュータが、前記歪み補正処理後の画像信号と、前記検出ステップで検出された動きベクトルとから、前記歪み補正処理後の画像信号のフレーム間を補間する補間フレームを生成する生成ステップと、
コンピュータが、前記入力画像信号の画像の歪み方に従って、前記生成ステップで生成された補間フレームを歪ませることにより、前記入力画像信号のフレーム間を補間する補間フレームを生成する歪み処理ステップと、
を有することを特徴とする画像処理方法。
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
When the computer is a signal of a distorted image, the distortion correction step of performing a distortion correction process to correct the distortion of the image to the input image signal;
A detection step in which a computer detects a motion vector from the image signal after the distortion correction processing;
A computer that generates an interpolated frame for interpolating between frames of the image signal after the distortion correction processing, from the image signal after the distortion correction processing and the motion vector detected in the detection step;
A distortion processing step for generating an interpolation frame for interpolating between frames of the input image signal by distorting the interpolation frame generated in the generation step according to a method of distortion of the image of the input image signal;
An image processing method comprising:
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記生成ステップでは、前記撮影領域に対しては、前記検出ステップで検出された動きベクトルを用いて補間フレームの画素値が決定され、前記非撮影領域に対しては、補間フレームの画素値として同じ位置の前記歪み補正処理後の画像信号の画素値が適用される
ことを特徴とする請求項16に記載の画像処理方法。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
In the generation step, the pixel value of the interpolation frame is determined using the motion vector detected in the detection step for the shooting region, and the same as the pixel value of the interpolation frame for the non-shooting region. The image processing method according to claim 16, wherein a pixel value of an image signal after the distortion correction processing of a position is applied.
前記検出ステップでは、縮小処理が施された歪み補正処理後の画像信号から動きベクトルが検出される
ことを特徴とする請求項12〜17のいずれか1項に記載の画像処理方法。
The image processing method according to any one of claims 12 to 17, wherein in the detection step, a motion vector is detected from an image signal after distortion correction processing that has been subjected to reduction processing.
前記縮小処理の縮小率が所定の閾値未満である場合には、前記入力画像信号のフレームが、前記入力画像信号のフレーム間を補間する補間フレームとされる
ことを特徴とする請求項18に記載の画像処理方法。
19. The frame of the input image signal is an interpolation frame for interpolating between frames of the input image signal when the reduction rate of the reduction process is less than a predetermined threshold. Image processing method.
前記入力画像信号が、撮影された画像の領域である撮影領域と、それ以外の領域である非撮影領域とを含む画像の信号である場合に、
前記検出ステップでは、前記撮影領域の画像信号から動きベクトルが検出される
ことを特徴とする請求項12〜19のいずれか1項に記載の画像処理方法。
When the input image signal is a signal of an image including a shooting region that is a region of a captured image and a non-shooting region that is a region other than that,
The image processing method according to claim 12, wherein in the detection step, a motion vector is detected from an image signal in the shooting area.
入力画像信号のフレーム間を補間して、前記入力画像信号のフレームレートを高める画像処理方法であって、
コンピュータが、前記入力画像信号から動きベクトルを検出し、検出した動きベクトルを用いて、前記入力画像信号のフレーム間を補間する補間フレームを生成する第1生成ステップと、
コンピュータが、前記入力画像信号のフレームを、前記入力画像信号のフレーム間を補間する補間フレームとする第2生成ステップと、
コンピュータが、前記入力画像信号が歪んだ画像の信号でない場合に前記第1生成ステップで補間フレームが生成され、前記入力画像信号が歪んだ画像の信号である場合に前記第2生成ステップで補間フレームが生成されるように、前記第1生成ステップの処理と前記第2生成ステップの処理を制御する制御ステップと、
を有することを特徴とする画像処理方法。
An image processing method for interpolating between frames of an input image signal to increase a frame rate of the input image signal,
A first generation step in which a computer detects a motion vector from the input image signal and generates an interpolated frame for interpolating between frames of the input image signal using the detected motion vector;
A second generation step in which the computer sets the frame of the input image signal as an interpolation frame for interpolating between frames of the input image signal;
An interpolation frame is generated in the first generation step when the input image signal is not a distorted image signal, and an interpolation frame is generated in the second generation step when the input image signal is a distorted image signal. A control step for controlling the processing of the first generation step and the processing of the second generation step, so that
An image processing method comprising:
前記制御ステップでは、画像の歪みの度合いが所定の閾値以下である場合に前記第1生成ステップで補間フレームが生成され、画像の歪みの度合いが前記所定の閾値より大きい場合に前記第2生成ステップで補間フレームが生成されるように、前記第1生成ステップの処理と前記第2生成ステップの処理が制御される
ことを特徴とする請求項21に記載の画像処理方法。
In the control step, an interpolation frame is generated in the first generation step when the degree of image distortion is equal to or less than a predetermined threshold, and the second generation step when the degree of image distortion is greater than the predetermined threshold. The image processing method according to claim 21, wherein the processing of the first generation step and the processing of the second generation step are controlled so that an interpolation frame is generated in step (a).
請求項12〜22のいずれか1項に記載の画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the image processing method according to any one of claims 12 to 22.
JP2012109982A 2012-05-11 2012-05-11 Image processing apparatus, image processing method, and program Expired - Fee Related JP6091082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012109982A JP6091082B2 (en) 2012-05-11 2012-05-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012109982A JP6091082B2 (en) 2012-05-11 2012-05-11 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2013239791A true JP2013239791A (en) 2013-11-28
JP2013239791A5 JP2013239791A5 (en) 2015-06-25
JP6091082B2 JP6091082B2 (en) 2017-03-08

Family

ID=49764491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012109982A Expired - Fee Related JP6091082B2 (en) 2012-05-11 2012-05-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6091082B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161140A (en) * 2018-11-08 2020-05-15 银河水滴科技(北京)有限公司 Method and device for correcting distorted image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244846A (en) * 2007-03-27 2008-10-09 Toshiba Corp Device and method for interpolating frame

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008244846A (en) * 2007-03-27 2008-10-09 Toshiba Corp Device and method for interpolating frame

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161140A (en) * 2018-11-08 2020-05-15 银河水滴科技(北京)有限公司 Method and device for correcting distorted image
CN111161140B (en) * 2018-11-08 2023-09-19 银河水滴科技(北京)有限公司 Distortion image correction method and device

Also Published As

Publication number Publication date
JP6091082B2 (en) 2017-03-08

Similar Documents

Publication Publication Date Title
JP5438579B2 (en) Image processing apparatus and control method thereof
JP5906028B2 (en) Image processing apparatus and image processing method
US8274570B2 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
JP4657367B2 (en) Image processing apparatus, imaging apparatus, and image distortion correction method
US10306210B2 (en) Image processing apparatus and image capturing apparatus
JP2013218654A (en) Image processing device
WO2023070862A1 (en) Method and apparatus for correcting image distortion of wide-angle lens, and photographing device
JP4124096B2 (en) Image processing method, image processing apparatus, and program
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
JPH11250239A (en) Digital image pickup device for operating distortion correction by yuv data
US20200092467A1 (en) Image processing apparatus, image processing method, and image processing program
EP3836540B1 (en) Image processing apparatus and image capturing apparatus
JP6282133B2 (en) Imaging device, control method thereof, and control program
CN103458178A (en) Imaging device, control method of the same and program
JP6091082B2 (en) Image processing apparatus, image processing method, and program
JP2018033080A (en) Image processing apparatus, image processing method and program
JP5042251B2 (en) Image processing apparatus and image processing method
JP6274744B2 (en) Image processing apparatus and image processing method
JP2017022597A (en) Image processing apparatus, control method therefor, and control program
JP4998134B2 (en) Image processing apparatus and image processing method
US11206344B2 (en) Image pickup apparatus and storage medium
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP2008067176A (en) Image correction device, and image correction method
JP2005197862A (en) Image processing apparatus
JP2017228821A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R151 Written notification of patent or utility model registration

Ref document number: 6091082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees