JP2002084458A - Image processing unit and method, and recording medium - Google Patents

Image processing unit and method, and recording medium

Info

Publication number
JP2002084458A
JP2002084458A JP2001191766A JP2001191766A JP2002084458A JP 2002084458 A JP2002084458 A JP 2002084458A JP 2001191766 A JP2001191766 A JP 2001191766A JP 2001191766 A JP2001191766 A JP 2001191766A JP 2002084458 A JP2002084458 A JP 2002084458A
Authority
JP
Japan
Prior art keywords
image
feature
input image
input
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001191766A
Other languages
Japanese (ja)
Other versions
JP4617611B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasushi Noide
泰史 野出
Takayoshi Fujiwara
孝芳 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001191766A priority Critical patent/JP4617611B2/en
Publication of JP2002084458A publication Critical patent/JP2002084458A/en
Application granted granted Critical
Publication of JP4617611B2 publication Critical patent/JP4617611B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that can accurately extract a telop. SOLUTION: An input image and a stored image are composed by shifting e.g. the phase of the stored image supplied from a storage memory so that the phase of pixels of a telop part on a field A being the input image is coincident with the phase of pixels of a telop part on the stored image as shown in Figure 4(A). As a result, a level distribution of the pixels of the input image in the telop part is conserved as shown in Figure 4(B). On the other hand, in the background, the phase of the stored image is shifted resulting in that the phase of the pixels of the input image for the part and the phase of the pixels of the stored image may be inverted and the level distribution for the case is made flat.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに記録媒体に関し、特に、画像上の特定領
域を正確に抽出することができるようにした、画像処理
装置および方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and a recording medium, and more particularly, to an image processing apparatus and method and a recording medium capable of accurately extracting a specific area on an image. About.

【0002】[0002]

【従来の技術】従来、画像中の特徴のある部分を抽出す
る技術として、画像からその特徴を用いて抽出する方式
が考案されてきた。
2. Description of the Related Art Hitherto, as a technique for extracting a characteristic part in an image, a method of extracting the characteristic part from an image using the characteristic has been devised.

【0003】例えば、画像中のテロップを抽出する場
合、テロップは、背景に比べて輝度値が大きく、エッジ
が急峻であるという特徴があることから、それらの特徴
を利用して抽出される。
For example, when a telop in an image is extracted, the telop is extracted by using those characteristics because the telop has a feature that the luminance value is larger than the background and the edge is steep.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、テロッ
プの輝度の大きさやエッジの急峻の度合いが似かよった
画像が、背景に含まれている場合、テロップを正確に抽
出することができない課題があった。
However, there is a problem that a telop cannot be accurately extracted when an image having similar luminance levels and sharp edges is included in the background.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、例えば、テロップを正確に抽出することが
できるようにするものである。
[0005] The present invention has been made in view of such a situation, and for example, it is an object of the present invention to accurately extract a telop.

【0006】[0006]

【課題を解決するための手段】本発明の画像処理装置
は、入力画像を記憶する記憶手段と、記憶手段に記憶さ
れた入力画像から特定の特徴を有する特徴画像を抽出す
る抽出手段と、抽出手段により抽出された特徴画像と、
入力画像に基づいて、特徴画像の動きを検出する検出手
段と、特徴画像の動きに基づいて、特徴画像と入力画像
を、位置を合わせて合成する合成手段とを備えることを
特徴とする。
According to the present invention, there is provided an image processing apparatus comprising: storage means for storing an input image; extraction means for extracting a characteristic image having a specific feature from the input image stored in the storage means; A feature image extracted by the means,
It is characterized by comprising a detecting means for detecting the movement of the characteristic image based on the input image, and a synthesizing means for synthesizing the characteristic image and the input image based on the movement of the characteristic image by adjusting the positions.

【0007】記憶手段は、合成手段により合成された画
像を記憶することができる。
[0007] The storage means can store the image synthesized by the synthesis means.

【0008】合成手段は、特徴画像の動きに応じて、特
徴画像と入力画像の間で位置合わせを行う位置合わせ手
段とを備え、位置合わせ手段による位置合わせ結果に基
づいて、入力画像と特徴画像を合成することができる。
The synthesizing means includes positioning means for performing positioning between the characteristic image and the input image in accordance with the movement of the characteristic image, and the input image and the characteristic image based on the positioning result by the positioning means. Can be synthesized.

【0009】合成手段は、画素毎に、入力画像と特徴画
像との重み付け加算を行うことができる。
The combining means can perform weighted addition of the input image and the characteristic image for each pixel.

【0010】特徴画像は、特徴画像の周辺の画像と異な
る動きをすることができる。
[0010] The characteristic image can move differently from the image around the characteristic image.

【0011】特徴画像の画素密度は、入力画像の画素密
度より高くすることができる。
[0011] The pixel density of the characteristic image can be higher than the pixel density of the input image.

【0012】特徴画像の画素密度は、入力画像の画素密
度と同じくすることができる。
The pixel density of the feature image can be the same as the pixel density of the input image.

【0013】検出手段は、抽出手段により抽出された特
徴画像を基準として、動きベクトルを検出することがで
きる。
[0013] The detecting means can detect the motion vector based on the characteristic image extracted by the extracting means.

【0014】位置合わせ手段は、特徴画像の位相をシフ
トさせることにより、特徴画像と入力画像の位置合わせ
を行うことができる。
The positioning means can perform positioning of the characteristic image and the input image by shifting the phase of the characteristic image.

【0015】位置合わせ手段は、入力画像の位相をシフ
トさせることにより、特徴画像と入力画像の位置合わせ
を行うことができる。
The positioning means can perform positioning of the characteristic image and the input image by shifting the phase of the input image.

【0016】位置合わせ手段は、特徴画像の画素密度
が、入力画像の画素密度より高くなるように、特徴画像
と入力画像の位置合わせを行うことができる。
[0016] The positioning means can perform positioning between the characteristic image and the input image such that the pixel density of the characteristic image is higher than the pixel density of the input image.

【0017】抽出手段は、抽出した特徴画像を出力する
ことができる。
The extracting means can output the extracted characteristic image.

【0018】検出手段は、検出した動きを、特徴画像の
動きとして出力することができる。
The detecting means can output the detected motion as the motion of the characteristic image.

【0019】本発明の画像処理方法は、入力画像を記憶
する記憶ステップと、記憶ステップの処理で記憶された
入力画像から特定の特徴を有する特徴画像を抽出する抽
出ステップと、抽出ステップの処理で抽出された特徴画
像と、入力画像に基づいて、特徴画像の動きを検出する
検出ステップと、特徴画像の動きに基づいて、特徴画像
と入力画像を、位置を合わせて合成する合成ステップと
を含むことを特徴とする。
An image processing method according to the present invention includes a storage step of storing an input image, an extraction step of extracting a characteristic image having a specific feature from the input image stored in the processing of the storage step, and a processing of the extraction step. A detecting step of detecting a movement of the feature image based on the extracted feature image and the input image; and a combining step of aligning and combining the feature image and the input image based on the movement of the feature image. It is characterized by the following.

【0020】本発明の記録媒体のプログラムは、入力画
像を記憶する記憶ステップと、記憶ステップの処理で記
憶された入力画像から特定の特徴を有する特徴画像を抽
出する抽出ステップと、抽出ステップの処理で抽出され
た特徴画像と、入力画像に基づいて、特徴画像の動きを
検出する検出ステップと、特徴画像の動きに基づいて、
特徴画像と入力画像を、位置を合わせて合成する合成ス
テップとを含むことを特徴とする。
The program of the recording medium according to the present invention includes a storage step of storing an input image, an extraction step of extracting a characteristic image having a specific feature from the input image stored in the processing of the storage step, and a processing of the extraction step. Based on the feature image extracted in the above, based on the input image, a detection step of detecting the motion of the feature image,
A synthesizing step of synthesizing the characteristic image and the input image at the same position.

【0021】本発明の画像処理装置および方法、並びに
記録媒体のプログラムにおいては、入力画像が記憶さ
れ、記憶された入力画像から特定の特徴を有する特徴画
像が抽出され、抽出された特徴画像と、入力画像に基づ
いて、特徴画像の動きが検出され、特徴画像の動きに基
づいて、特徴画像と入力画像が、位置が合わされて合成
される。
According to the image processing apparatus and method of the present invention, and a program for a recording medium, an input image is stored, a characteristic image having a specific characteristic is extracted from the stored input image, and the extracted characteristic image is The motion of the feature image is detected based on the input image, and based on the motion of the feature image, the feature image and the input image are aligned and combined.

【0022】[0022]

【発明の実施の形態】図1は、本発明を適用した画像処
理装置の構成例を示している。この画像処理装置は、入
力された入力画像から、例えば、テロップなどの、背景
と異なる動きをするという特徴がある画像(以下、特徴
画像と称する)を抽出することができる。
FIG. 1 shows an example of the configuration of an image processing apparatus to which the present invention is applied. This image processing apparatus can extract, from an input image that has been input, an image having a feature that moves differently from the background, such as a telop (hereinafter, referred to as a feature image).

【0023】画像処理装置に入力された入力画像は、デ
ィレイ回路11および動きベクトル検出回路15に供給
される。ディレイ回路11は、供給された入力画像を、
後述する合成回路12乃至位相シフト回路16での処理
に要する時間分だけ遅延させ、合成回路12に供給す
る。これにより、後述する合成回路12において、入力
画像と、それに対応する画像が合成されるようになる。
The input image input to the image processing device is supplied to a delay circuit 11 and a motion vector detection circuit 15. The delay circuit 11 converts the supplied input image into
The signal is supplied to the synthesizing circuit 12 after being delayed by the time required for processing in the synthesizing circuit 12 to the phase shift circuit 16 to be described later. As a result, the input image and the corresponding image are synthesized in the synthesis circuit 12 described later.

【0024】合成回路12は、ディレイ回路11から供
給される入力画像と、位相シフト回路16から供給され
る、位相がシフトされた、蓄積メモリ13に蓄積されて
いる蓄積画像とを合成するとともに、合成した画像を、
蓄積メモリ13に供給する。
The synthesizing circuit 12 synthesizes the input image supplied from the delay circuit 11 and the accumulated image supplied from the phase shift circuit 16 and shifted in phase and stored in the accumulation memory 13. Combined image
The data is supplied to the storage memory 13.

【0025】蓄積メモリ13は、合成回路12から供給
された画像を蓄積して、蓄積画像を生成し、それを、抽
出回路14および位相シフト回路16に供給する。
The storage memory 13 stores the image supplied from the synthesizing circuit 12, generates a stored image, and supplies the generated image to the extraction circuit 14 and the phase shift circuit 16.

【0026】抽出回路14は、蓄積メモリ13から供給
される蓄積画像上の特徴画像(正確には、特徴画像であ
ると判定した画像領域)を抽出し、抽出した画像領域の
画像データとその表示位置を動きベクトル検出回路15
および外部の装置に供給する。
The extraction circuit 14 extracts a characteristic image (more precisely, an image area determined to be a characteristic image) on the stored image supplied from the storage memory 13, and outputs image data of the extracted image area and its display. Move the position to motion vector detection circuit 15
And supply to external equipment.

【0027】動きベクトル検出回路15には、入力画像
と、抽出回路14から、蓄積画像上の特徴画像であると
判定された画像領域の画像データとその表示位置が入力
される。動きベクトル検出回路15は、抽出回路14か
ら供給された画像データと表示位置を利用して、抽出回
路14で抽出された蓄積画像上の画像領域(特徴画像で
あると判定された蓄積画像上の画像領域)と、その画像
領域に対応する入力画像上の画像領域の間での動きベク
トルを検出し、その検出結果を位相シフト回路16に供
給する。
The motion vector detecting circuit 15 receives the input image and the image data of the image area determined to be the characteristic image on the stored image and the display position thereof from the extracting circuit 14. The motion vector detection circuit 15 uses the image data and the display position supplied from the extraction circuit 14 to store an image area on the storage image extracted by the extraction circuit 14 (on the storage image determined to be a feature image). A motion vector between the image area) and an image area on the input image corresponding to the image area is detected, and the detection result is supplied to the phase shift circuit 16.

【0028】位相シフト回路16は、動きベクトル検出
回路15からの動きベクトルに基づいて、蓄積メモリ1
3からの蓄積画像の位相をシフトさせ、合成回路12に
供給する。
The phase shift circuit 16 stores the storage memory 1 based on the motion vector from the motion vector detection circuit 15.
3 is supplied to the synthesizing circuit 12 after shifting the phase of the stored image.

【0029】図2は、特徴画像としてテロップが抽出さ
れる場合の抽出回路14の構成例を示している。
FIG. 2 shows a configuration example of the extraction circuit 14 when a telop is extracted as a feature image.

【0030】蓄積メモリ13から供給された蓄積画像
は、エッジ検出回路31、レベル検出回路32、および
テロップ判定回路33のそれぞれに供給される。
The stored image supplied from the storage memory 13 is supplied to each of the edge detection circuit 31, the level detection circuit 32, and the telop determination circuit 33.

【0031】エッジ検出回路31は、蓄積画像の所定の
エリア(画像領域)毎に、エッジ処理を施してエッジの
急峻度を検出し、その検出結果を、テロップ判定回路3
3に供給する。
The edge detection circuit 31 performs edge processing for each predetermined area (image area) of the stored image to detect the steepness of the edge, and outputs the detection result to the telop determination circuit 3.
Supply 3

【0032】レベル検出回路32は、入力画像の所定の
画像領域(エッジ検出回路31でのエッジ検出処理が施
される画像領域)毎に、例えば、輝度のレベルを検出
し、その検出結果を、テロップ判定回路33に供給す
る。
The level detection circuit 32 detects, for example, a luminance level for each predetermined image area of the input image (an image area on which the edge detection processing is performed by the edge detection circuit 31), and outputs the detection result. This is supplied to the telop determination circuit 33.

【0033】テロップ判定回路33は、エッジ検出回路
31からのエッジの急峻度、およびレベル検出回路32
からのレベル値に対して、閾値判定を行い、それらの両
方が所定の閾値より高いと判定した蓄積画像上の画像領
域をテロップであると判定する。テロップは、通常、高
い急峻度また高いレベル値を有するので、このようにそ
れぞれの値を閾値判定することにより、テロップを検出
することができる。
The telop judging circuit 33 detects the steepness of the edge from the edge detecting circuit 31 and the level detecting circuit 32
The threshold value determination is performed on the level value from, and the image area on the accumulated image for which both of them have been determined to be higher than the predetermined threshold value is determined to be a telop. Since a telop usually has a high steepness and a high level value, a telop can be detected by determining a threshold value of each value in this way.

【0034】テロップ判定回路33は、テロップである
と判定した画像領域の画像データと、その画像領域の表
示位置を蓄積画像から取得し、動きベクトル検出回路1
5と外部の装置に出力する。
The telop determination circuit 33 acquires the image data of the image area determined to be a telop and the display position of the image area from the accumulated image, and
5 and output to an external device.

【0035】なお、以上においては、テロップを抽出す
る場合の抽出回路14の構成例を示したが、抽出回路1
4は、特徴画像としてのオブジェクトを抽出する他の構
成を有することもできる。
Although the configuration example of the extraction circuit 14 for extracting a telop has been described above, the extraction circuit 1
4 may have another configuration for extracting an object as a feature image.

【0036】次に、画像処理装置の動作を、図3のフロ
ーチャートを参照して説明する。なお、ここでは、特徴
画像としてテロップを抽出する場合を例として説明す
る。
Next, the operation of the image processing apparatus will be described with reference to the flowchart of FIG. Here, a case where a telop is extracted as a characteristic image will be described as an example.

【0037】ステップS1において、動きベクトル検出
回路15は、抽出回路14で抽出された、蓄積画像上の
テロップであると判定された画像領域と、その画像領域
の表示位置に対応する位置の入力画像(以下、フィール
ドAと称する)上の画像領域の間での動きベクトルを検
出し、その検出結果を、位相シフト回路16に供給す
る。
In step S1, the motion vector detection circuit 15 extracts the image area determined by the extraction circuit 14 as a telop on the stored image and the input image at the position corresponding to the display position of the image area. A motion vector between image areas on the upper (hereinafter referred to as field A) is detected, and the detection result is supplied to the phase shift circuit 16.

【0038】なお、ここでは入力画像の入力はすでに開
始されており、蓄積メモリ13には、蓄積画像が蓄積さ
れているものとし、新たな入力画像(フィールドA)の
画像データが入力されたとき、抽出回路14は、蓄積メ
モリ13に蓄積されている蓄積画像から、図2を参照し
て説明した方法で、テロップであると判定した画像領域
の画像データとその表示位置を取得して、動きベクトル
検出回路15に供給するものとする。
Here, it is assumed that the input of the input image has already been started, the stored image is stored in the storage memory 13, and the image data of the new input image (field A) is input. The extraction circuit 14 obtains the image data of the image area determined to be a telop and the display position thereof from the stored image stored in the storage memory 13 by the method described with reference to FIG. It is supplied to the vector detection circuit 15.

【0039】次に、ステップS2において、位相シフト
回路16は、図4(A)に示すように、テロップである
と判定された蓄積画像上の画像領域の画素の位相と、そ
の画像領域の表示位置に対応する位置のフィールドA上
の画像領域の画素の位相とが一致するように、動きベク
トル検出回路15からの動きベクトルに基づいて、蓄積
メモリ13から供給された蓄積画像の位相をシフトさせ
る。
Next, in step S2, as shown in FIG. 4A, the phase shift circuit 16 determines the phase of the pixel of the image area on the stored image determined to be a telop and the display of the image area. The phase of the stored image supplied from the storage memory 13 is shifted based on the motion vector from the motion vector detection circuit 15 so that the phase of the pixel in the image area on the field A at the position corresponding to the position matches. .

【0040】ところでこれにより、蓄積画像上の、テロ
ップであると判定されなかった画像領域(例えば、背景
の部分)の画素の位相と、その画像領域に対応するフィ
ールドA上の画像領域の画素の位相は、例えば、図5
(A)に示すように、反転する。
By the way, the phase of the pixel of the image area (for example, the background portion) which is not determined to be a telop on the accumulated image and the pixel of the image area on the field A corresponding to the image area are obtained. The phase is, for example, as shown in FIG.
Invert as shown in FIG.

【0041】位相シフト回路16は、位相がシフトされ
た蓄積画像を合成回路12に供給する。
The phase shift circuit 16 supplies the stored image whose phase has been shifted to the synthesizing circuit 12.

【0042】ステップS3において、合成回路12は、
ディレイ回路11からのフィールドAと、位相シフト回
路16からの位相がシフトされた蓄積画像を、下記の式
に従って合成し、蓄積メモリ13に供給する。 合成値=(入力画像の画素値×N+蓄積画像の画素値×
N+M) N,Mは、係数である。
In step S3, the synthesizing circuit 12
The field A from the delay circuit 11 and the stored image whose phase has been shifted from the phase shift circuit 16 are combined according to the following equation and supplied to the storage memory 13. Composite value = (pixel value of input image × N + pixel value of accumulated image ×
N + M) N and M are coefficients.

【0043】すなわち、入力画像と蓄積画像は、画素単
位で重み付け加算され、ここで得られた合成値は、蓄積
メモリ13に供給される画像の画素値となる。
That is, the input image and the accumulated image are weighted and added in pixel units, and the resultant value obtained here becomes the pixel value of the image supplied to the accumulation memory 13.

【0044】図4,5の例の場合、蓄積画像上の、テロ
ップであると判定された画像領域の画素の位相と、その
画像領域に対応するフィールドA上の画像領域の画素の
位相とが、図4(A)に示したように、一致した状態
で、また、蓄積画像上の、テロップであると判定されな
かった画像領域の画素の位相と、その画像領域に対応す
るフィールドA上の画像領域の画素の位相とが、例え
ば、図5(A)に示したように、反転した状態で入力画
像と蓄積画像が合成される。
In the case of the examples of FIGS. 4 and 5, the phase of the pixel of the image area determined to be a telop on the stored image and the phase of the pixel of the image area on the field A corresponding to the image area are different. As shown in FIG. 4A, the phase of the pixel in the image area that is not determined to be a telop in the matched state and in the field A corresponding to the image area is determined. The input image and the accumulated image are combined in a state where the phases of the pixels in the image area are inverted, for example, as shown in FIG.

【0045】蓄積メモリ13は、合成回路12から供給
された画像を蓄積する。
The storage memory 13 stores the image supplied from the synthesizing circuit 12.

【0046】次に、ステップS4において、抽出回路1
4は、蓄積メモリ13から蓄積画像を読み出し、ステッ
プS5において、その蓄積画像から、テロップであると
判定した画像領域を抽出し、動きベクトル検出回路15
および外部の装置に供給する。その後処理は、ステップ
S1に戻り、それ以降の処理が繰り返し実行される。
Next, in step S4, the extraction circuit 1
4 reads out the stored image from the storage memory 13, extracts the image area determined to be a telop from the stored image in step S5,
And supply to external equipment. Thereafter, the process returns to step S1, and the subsequent processes are repeatedly executed.

【0047】以上のように、蓄積画像上の、テロップ
(特徴画像)であると判定された画像領域の画素の位相
と、その画像領域に対応するフィールドA(入力画像)
上の画像領域の画素の位相とが、図4(A)に示したよ
うに、一致するようにして入力画像と蓄積画像が合成さ
れるので、合成後においても、蓄積画像上のテロップの
レベル分布(凹凸)は、図4(B)に示すように保持さ
れる。しかしながら、入力画像および蓄積画像上のテロ
ップ以外の画像領域の画素の位相が、例えば、図5
(A)に示したように、反転した状態で合成されるの
で、合成後において、蓄積画像上のテロップ以外の画像
領域のレベル分布は、図5(B)に示すように平坦にな
る。
As described above, the phase of the pixel of the image area determined to be a telop (characteristic image) on the accumulated image and the field A (input image) corresponding to the image area
As shown in FIG. 4A, the input image and the stored image are combined so that the phases of the pixels in the upper image region match each other. The distribution (unevenness) is maintained as shown in FIG. However, the phase of the pixel in the image area other than the telop on the input image and the accumulated image is, for example, as shown in FIG.
As shown in FIG. 5A, since the images are combined in an inverted state, after the combination, the level distribution of the image area other than the telop on the accumulated image becomes flat as shown in FIG.

【0048】すなわち、その結果、テロップからは、テ
ロップ以外の画像領域に比べ、より高い急峻度およびよ
り高いレベル値が検出されるので、抽出回路14は、正
確にテロップを抽出することができる。
That is, as a result, a higher steepness and a higher level value are detected from the telop as compared with the image area other than the telop, so that the extraction circuit 14 can accurately extract the telop.

【0049】なお、以上においては、テロップ部分にお
いて、入力画像と蓄積画像の画素の位相が一致するよう
にして、入力画像と蓄積画像を合成する場合を例として
説明したが、図6(A)に示すように、テロップ部分に
おいて、入力画像と蓄積画像の画素の位相が、所定の位
相分だけずれるようにして、合成することもできる。こ
の場合、テロップ部分の画素は、図6(B)に示すよう
に、高密度化される。一方、テロップ以外の画像領域の
画素値は、同様に、平均化されるので、上述した場合と
同様に、テロップを正確に抽出することができる。
In the above description, the case where the input image and the accumulated image are combined so that the phases of the pixels of the input image and the accumulated image match in the telop portion has been described as an example. As shown in (5), in the telop portion, the synthesis can be performed such that the phases of the pixels of the input image and the accumulated image are shifted by a predetermined phase. In this case, the density of the pixels in the telop portion is increased as shown in FIG. On the other hand, the pixel values of the image area other than the telop are averaged similarly, so that the telop can be accurately extracted as in the case described above.

【0050】また、この例の場合、特徴画像の画素は、
高密度化されているので、入力画像の画素の密度と異な
る。このため、動きベクトル検出回路15は、以下に説
明する方法で動きベクトルを検出することになる。
In this example, the pixels of the characteristic image are
Since the density is increased, the density differs from the pixel density of the input image. Therefore, the motion vector detection circuit 15 detects a motion vector by the method described below.

【0051】ここでは、図7(A)に示す、1枚の画像
(入力画像に相当する画像)Paと、図7(C)に示
す、画像Paに対して高密度(垂直方向に4倍の画素
数)の画像(特徴画像に相当する画像)Pbとの間で動
きベクトルを検出する場合を例として説明する。なお、
図7において実線は、いわゆるラインを表し、そこには
図示せぬ画素が配置されている。一方、図中、点線は、
ライン間隔を4等分するものであり、そこには画素は存
在しない。
Here, one image (the image corresponding to the input image) Pa shown in FIG. 7A and the image Pa shown in FIG. The following describes an example in which a motion vector is detected between an image (an image corresponding to a feature image) Pb and the image number (pixel number). In addition,
In FIG. 7, a solid line represents a so-called line, in which pixels (not shown) are arranged. On the other hand, in the figure, the dotted line
It divides the line interval into four equal parts, and there are no pixels there.

【0052】はじめに、高密度の画像Pb(図7
(C))は、図7(B)に示すように、ライン位置が画
像Paと一致する画像Pb1、その画像Pb1に対してライ
ン位置が1ライン分下側にずれた画像Pb2、その画像P
b2に対してライン位置が1ライン分下側にずれた画像P
b3、およびその画像Pb3に対してライン位置が1ライン
分下側にずれた画像Pb4に分解される。
First, a high-density image Pb (FIG. 7)
(C)) shows an image Pb1 whose line position matches the image Pa, an image Pb2 whose line position is shifted downward by one line with respect to the image Pb1, and the image P
Image P whose line position is shifted down by one line with respect to b2
The image is decomposed into b3 and an image Pb4 whose line position is shifted downward by one line with respect to the image Pb3.

【0053】次に、図8(A)に示すような、基準ブロ
ックBa(5×5)が、画像Paの所定の位置(例えば、
特徴画像の表示位置に対応する位置)に設定される。ま
た、図8(B)に示すような、基準ブロックBaと同一
の大きさでかつ同一の形状の参照ブロックBbが、画像
Pb1乃至画像Pb4のうちの、例えば、画像Pb1上に、画
像Pa上に設定された基準ブロックBaと同じ位置(以
下、基準位置と称する)に設定される。
Next, a reference block Ba (5 × 5) as shown in FIG.
(A position corresponding to the display position of the characteristic image). Further, as shown in FIG. 8B, a reference block Bb having the same size and the same shape as the reference block Ba is, for example, on the image Pb1 or the image Pab among the images Pb1 to Pb4. Is set at the same position as the reference block Ba set to (hereinafter referred to as reference position).

【0054】次に、基準ブロックBa内の画像Paの画素
の画素値と、基準位置に設定された参照ブロックBb内
の画像Pb1の画素の画素値との差分(絶対値)が算出さ
れ、その絶対値和(合計値)が算出される。そして、参
照ブロックBbは、図9に示すように、画像Pb1上にお
いて、基準位置を中心に、左右方向および上下方向に、
それぞれ1画素毎に順次移動され、その移動位置での参
照ブロックBb内の画像Pb1の画素の画素値と、基準ブ
ロックBa内の画像Paの画素の画素値との差分の絶対値
和が算出される。そして、算出された各絶対値和が参照
ブロックBbの移動位置に対応する位置に配置されたテ
ーブルが生成される。
Next, the difference (absolute value) between the pixel value of the pixel of the image Pa in the reference block Ba and the pixel value of the pixel of the image Pb1 in the reference block Bb set at the reference position is calculated. An absolute value sum (total value) is calculated. Then, as shown in FIG. 9, the reference block Bb is arranged on the image Pb1 in the left-right direction and the up-down direction around the reference position.
Each pixel is sequentially moved, and the absolute value sum of the difference between the pixel value of the pixel of the image Pb1 in the reference block Bb and the pixel value of the pixel of the image Pa in the reference block Ba at the moving position is calculated. You. Then, a table is generated in which the calculated absolute value sums are arranged at positions corresponding to the movement positions of the reference block Bb.

【0055】例えば、参照ブロックBbが、基準位置に
対して左右方向に2画素毎、そして上下方向に1画素毎
ずれて移動する場合、5×3個の絶対値和が算出され、
図10(A)示すようなテーブルT1が生成される。例
えば、テーブルT1の絶対値和X0は、参照ブロックBb
が、基準位置(基準ブロックBaと同じ位置)に設定さ
れたときに算出された絶対値和である。すなわち、絶対
値和X0の配置位置は、基準ブロックBaの中心画素に対
応する位置である。
For example, when the reference block Bb is shifted from the reference position by two pixels in the left-right direction and by one pixel in the vertical direction, 5 × 3 sums of absolute values are calculated.
A table T1 as shown in FIG. 10A is generated. For example, the absolute value sum X0 of the table T1 is obtained by referring to the reference block Bb.
Is the sum of absolute values calculated when the reference position is set at the reference position (the same position as the reference block Ba). That is, the arrangement position of the absolute value sum X0 is a position corresponding to the center pixel of the reference block Ba.

【0056】以上のように、画像Pb1に参照ブロックB
bが設定されて、テーブルT1が生成されると、参照ブロ
ックBbは、この度は、画像Pb2乃至画像Pb4にそれぞ
れ設定され、それぞれの場合におけるテーブルT2乃至
T4が生成される。
As described above, the reference block B is added to the image Pb1.
When b is set and the table T1 is generated, the reference block Bb is set to the images Pb2 to Pb4, respectively, and the tables T2 to T4 in each case are generated.

【0057】テーブルT2には、参照ブロックBbが画像
Pb2に設定された場合に算出された各絶対値和が、テー
ブルT1に配列されている絶対値和の位置に対して、1
列分下側に配列されている。
In the table T2, each sum of absolute values calculated when the reference block Bb is set in the image Pb2 is calculated by adding 1 to the position of the sum of absolute values arranged in the table T1.
They are arranged at the bottom of the column.

【0058】テーブルT3には、参照ブロックBbが画像
Pb3に設定された場合に算出された各絶対値和が、テー
ブルT2に配列されている絶対値和の位置に対して、1
列分下側に配列されている。テーブルT4には、参照ブ
ロックBbが画像Pb4に設定された場合に算出された各
絶対値和が、テーブルT3に配列されている絶対値和の
位置に対して、1列分下側に配列されている。
In the table T3, each sum of absolute values calculated when the reference block Bb is set in the image Pb3 is calculated by adding 1 to the position of the sum of absolute values arranged in the table T2.
They are arranged at the bottom of the column. In the table T4, the sums of absolute values calculated when the reference block Bb is set in the image Pb4 are arranged one column below the positions of the sums of absolute values arranged in the table T3. ing.

【0059】次に、以上のように生成されたテーブルT
1乃至テーブルT4が合成され、図10(B)に示すよう
なテーブルT0が生成される。すなわち、テーブルT0に
は、5×3×4個の絶対値和が配置されている。
Next, the table T generated as described above
1 to T4 are combined to generate a table T0 as shown in FIG. That is, 5 × 3 × 4 absolute value sums are arranged in the table T0.

【0060】次に、テーブルT0を構成する絶対値和の
最小値が検出され、その絶対値和を与えた参照ブロック
Bbが検出される。そして、基準ブロックBaの中心画素
(画像Paの画素)の位置から、その絶対値和を与えた
参照ブロックBbの中心画素(画像Pb1乃至画像Pb4の
いずれかの画像の中心画素)の位置へのベクトルが動き
ベクトルとして検出される。
Next, the minimum value of the sum of absolute values constituting the table T0 is detected, and the reference block Bb to which the sum of absolute values is given is detected. Then, from the position of the center pixel of the reference block Ba (the pixel of the image Pa) to the position of the center pixel (the center pixel of any of the images Pb1 to Pb4) of the reference block Bb to which the absolute value sum is given. The vector is detected as a motion vector.

【0061】以上のような方法により、画像の情報密度
が異なる場合においても動きベクトルを検出することが
できる。なお、この方法については、本出願人が先に出
願した特開平11−034814号に開示されている。
According to the method described above, a motion vector can be detected even when the information densities of images are different. This method is disclosed in Japanese Patent Application Laid-Open No. H11-034814 filed earlier by the present applicant.

【0062】また、図1の例では、蓄積画像の位相がシ
フトされたが、入力画像の位相をシフトさせることもで
きる。図11は、蓄積画像に代えて、入力画像の位相を
シフトさせる場合の画像処理装置の構成例を示してい
る。
Although the phase of the stored image is shifted in the example of FIG. 1, the phase of the input image can be shifted. FIG. 11 shows an example of the configuration of an image processing apparatus in a case where the phase of an input image is shifted instead of an accumulated image.

【0063】この画像処理装置においては、図1のディ
レイ回路11が取り除かれ、入力画像は、動きベクトル
検出回路15の他、位相シフト回路16に供給される。
また、蓄積メモリ13は、蓄積画像を、位相シフト回路
16に代えて、合成回路12に供給する。
In this image processing apparatus, the delay circuit 11 shown in FIG. 1 is removed, and the input image is supplied to the motion vector detection circuit 15 and the phase shift circuit 16.
The storage memory 13 supplies the stored image to the synthesizing circuit 12 instead of the phase shift circuit 16.

【0064】図11の画像処理装置の動作を、図12の
フローチャートを参照して説明する。なお、ここでも、
特徴画像としてテロップを抽出する場合を例として説明
する。
The operation of the image processing apparatus shown in FIG. 11 will be described with reference to the flowchart shown in FIG. Also here,
A case where a telop is extracted as a characteristic image will be described as an example.

【0065】ステップS11において、動きベクトル検
出回路15は、抽出回路14で抽出された、テロップで
あると判定された蓄積画像上の画像領域と、その画像領
域に対応する入力画像上の画像領域の間での動きベクト
ルを検出し、その検出結果を、位相シフト回路16に供
給する。
In step S 11, the motion vector detection circuit 15 extracts the image area on the stored image extracted as the telop extracted by the extraction circuit 14 and the image area on the input image corresponding to the image area. A motion vector between them is detected, and the detection result is supplied to the phase shift circuit 16.

【0066】次に、ステップS12において、位相シフ
ト回路16は、動きベクトル検出回路15からの動きベ
クトルに基づいて、入力画像の位相をシフトさせる。
Next, in step S12, the phase shift circuit 16 shifts the phase of the input image based on the motion vector from the motion vector detection circuit 15.

【0067】その結果、テロップであると判定された蓄
積画像上の画像領域の画素の位相と、その画像領域に対
応する入力画像上の画像領域の画素の位相とが、図4
(A)に示したように一致し、また蓄積画像上の、テロ
ップであると判定されなかった画像領域(例えば、背景
の部分)の画素の位相と、その画像領域に対応する入力
画像上の画像領域の画素の位相とが、例えば、図5
(A)に示すように、反転する。
As a result, the phase of the pixel of the image area on the stored image determined to be a telop and the phase of the pixel of the image area on the input image corresponding to the image area are shown in FIG.
As shown in (A), the phase of a pixel of an image area (for example, a background portion) on the accumulated image that is not determined to be a telop on the accumulated image and the input image corresponding to that image area The phase of the pixel in the image area is, for example, as shown in FIG.
Invert as shown in FIG.

【0068】ステップS13において、合成回路12
は、位相シフト回路16から供給された、位相がシフト
された入力画像と、蓄積メモリ13からの蓄積画像を合
成して、蓄積メモリ13に供給する。蓄積メモリ13
は、合成回路12から供給された画像を蓄積する。
In step S13, the combining circuit 12
Synthesizes the input image supplied from the phase shift circuit 16 and shifted in phase with the stored image from the storage memory 13 and supplies the synthesized image to the storage memory 13. Storage memory 13
Accumulates the image supplied from the synthesizing circuit 12.

【0069】ステップS14およびステップS15にお
いては、図3のステップS4およびステップS5におけ
る場合と同様の処理が実行されるので、その説明は省略
する。
In steps S14 and S15, the same processes as those in steps S4 and S5 in FIG. 3 are performed, so that the description will be omitted.

【0070】この例の場合においても、画素の画素値の
レベル分布が保持され、または高密度化された特徴画像
と、画素の画素値が平坦化された、例えば、背景部分の
画像とからなる蓄積画像が抽出回路14に供給されるの
で、抽出回路14は、特徴画像を正確に抽出することが
できる。
Also in the case of this example, the level distribution of the pixel values of the pixels is maintained or the density of the feature image is increased, and the pixel values of the pixels are flattened, for example, an image of the background portion. Since the stored image is supplied to the extraction circuit 14, the extraction circuit 14 can accurately extract the characteristic image.

【0071】また、図1の例では、抽出回路14が、蓄
積メモリ13の後段に1つだけ設けられていたが、図1
3に示すように、図1のディレイ回路11に代えて、も
う1つの抽出回路21を設けることができる。
Further, in the example of FIG. 1, only one extraction circuit 14 is provided at the subsequent stage of the storage memory 13.
As shown in FIG. 3, another extraction circuit 21 can be provided in place of the delay circuit 11 of FIG.

【0072】抽出回路21は、抽出回路14と同様の構
成を有し、入力画像から、例えば、テロップと判定した
画像領域を合成回路12に供給する。
The extraction circuit 21 has the same configuration as the extraction circuit 14 and supplies, for example, an image area determined as a telop from the input image to the synthesis circuit 12.

【0073】図13の画像処理装置の動作を、図14の
フローチャートを参照して説明する。なお、ここでも、
特徴画像としてテロップを抽出する場合を例として説明
する。
The operation of the image processing apparatus of FIG. 13 will be described with reference to the flowchart of FIG. Also here,
A case where a telop is extracted as a characteristic image will be described as an example.

【0074】ステップS21においては、図3のステッ
プS1における場合と同様の処理が行われるので、その
説明は省略する。
In step S21, the same processing as in step S1 of FIG. 3 is performed, and a description thereof will be omitted.

【0075】ステップS22において、位相シフト回路
16は、動きベクトル検出回路15からの動きベクトル
に基づいて、蓄積画像の位相をシフトさせる。
In step S22, the phase shift circuit 16 shifts the phase of the stored image based on the motion vector from the motion vector detection circuit 15.

【0076】その結果、抽出回路14でテロップである
と判定された蓄積画像上の画像領域の画素の位相と、抽
出回路21でテロップであると判定された入力画像上の
画像領域の画素の位相は、図4(A)に示すように一致
する。
As a result, the phase of the pixel in the image area on the stored image determined to be a telop by the extraction circuit 14 and the phase of the pixel in the image area on the input image determined to be a telop by the extraction circuit 21 Match as shown in FIG.

【0077】ステップS23において、合成回路12
は、抽出回路21により抽出された、テロップと判定さ
れた入力画像上の画像領域を、位相シフト回路16から
供給された、位相がシフトされた蓄積画像に合成し、そ
の結果得られた画像を蓄積メモリ13に供給する。蓄積
メモリ13は、合成回路12から供給された画像を蓄積
する。
In step S23, the synthesizing circuit 12
Synthesizes the image area on the input image determined as the telop extracted by the extraction circuit 21 with the accumulated image whose phase has been shifted, supplied from the phase shift circuit 16, and The data is supplied to the storage memory 13. The storage memory 13 stores the image supplied from the synthesizing circuit 12.

【0078】ステップS24およびステップS25にお
いては、図3のステップS4およびステップS5におけ
る場合と同様の処理が行われるので、その説明は省略す
る。
In steps S24 and S25, the same processes as those in steps S4 and S5 in FIG. 3 are performed, and the description thereof will be omitted.

【0079】なお、以上においては、特徴画像としてテ
ロップを抽出する場合を例として説明したが、背景と動
きが異なるオブジェクトでもよい。
In the above, the case where a telop is extracted as a characteristic image has been described as an example. However, an object having a different motion from the background may be used.

【0080】上述した一連の処理は、ハードウエアによ
り実現させることもできるが、ソフトウエアにより実現
させることもできる。一連の処理をソフトウエアにより
実現する場合には、そのソフトウエアを構成するプログ
ラムがコンピュータにインストールされ、そのプログラ
ムがコンピュータで実行されることより、上述した画像
処理装置が機能的に実現される。
The series of processes described above can be realized by hardware, but can also be realized by software. When a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, so that the above-described image processing apparatus is functionally realized.

【0081】図15は、上述のような画像処理装置とし
て機能するコンピュータ101の一実施の形態の構成を
示すブロック図である。CPU(Central Processing Uni
t)111にはバス115を介して入出力インタフェー
ス116が接続されており、CPU111は、入出力イン
タフェース116を介して、ユーザから、キーボード、
マウスなどよりなる入力部118から指令が入力される
と、例えば、ROM(ReadOnly Memory)112、ハードデ
ィスク114、またはドライブ120に装着される磁気
ディスク131、光ディスク132、光磁気ディスク1
33、若しくは半導体メモリ134などの記録媒体に格
納されているプログラムを、RAM(Random Access Memor
y)113にロードして実行する。これにより、上述し
た各種の処理(例えば、図3,12,14のフローチャ
ートにより示される処理)が行われる。さらに、CPU1
11は、その処理結果を、例えば、入出力インタフェー
ス116を介して、LCD(Liquid Crystal Display)な
どよりなる出力部117に必要に応じて出力する。な
お、プログラムは、ハードディスク114やROM112
に予め記憶しておき、コンピュータ101と一体的にユ
ーザに提供したり、磁気ディスク131、光ディスク1
32、光磁気ディスク133、半導体メモリ134等の
パッケージメディアとして提供したり、衛星、ネットワ
ーク等から通信部119を介してハードディスク114
に提供することができる。
FIG. 15 is a block diagram showing the configuration of an embodiment of the computer 101 functioning as the above-described image processing apparatus. CPU (Central Processing Uni
t) 111 is connected to an input / output interface 116 via a bus 115, and the CPU 111 allows the user to input a keyboard,
When a command is input from an input unit 118 composed of a mouse or the like, for example, a magnetic disk 131, an optical disk 132, or a magneto-optical disk 1 mounted on a ROM (Read Only Memory) 112, a hard disk 114 or a drive 120.
33 or a program stored in a recording medium such as the semiconductor memory 134 is stored in a random access memory (RAM).
y) Load into 113 and execute. Thus, the various processes described above (for example, the processes shown by the flowcharts in FIGS. 3, 12, and 14) are performed. In addition, CPU1
The output unit 11 outputs the processing result to an output unit 117 such as an LCD (Liquid Crystal Display) via the input / output interface 116 as necessary. The program is stored on the hard disk 114 or the ROM 112.
In advance, and can be provided to the user integrally with the computer 101, or can be stored in the magnetic disk 131 and the optical disk 1.
32, a magneto-optical disk 133, a semiconductor memory 134, or the like, or a hard disk 114 via a communication unit 119 from a satellite, a network, or the like.
Can be provided.

【0082】なお、本明細書において、記録媒体により
提供されるプログラムを記述するステップは、記載され
た順序に沿って時系列的に行われる処理はもちろん、必
ずしも時系列的に処理されなくとも、並列的あるいは個
別に実行される処理をも含むものである。
In the present specification, the steps of describing a program provided by a recording medium may be performed not only in chronological order but also in chronological order according to the described order. This also includes processing executed in parallel or individually.

【0083】[0083]

【発明の効果】本発明の画像処理装置および方法、並び
に記録媒体のプログラムによれば、入力画像を記憶し、
記憶した入力画像から特定の特徴を有する特徴画像を抽
出し、抽出した特徴画像と、入力画像に基づいて、特徴
画像の動きを検出し、特徴画像の動きに基づいて、特徴
画像と入力画像を、位置を合わせて合成するようにした
ので、精度良く特徴画像を抽出することができる。
According to the image processing apparatus and method of the present invention and the program of the recording medium, the input image is stored,
A feature image having a specific feature is extracted from the stored input image, a movement of the feature image is detected based on the extracted feature image and the input image, and a feature image and an input image are detected based on the movement of the feature image. Since the positions are combined and synthesized, the characteristic image can be extracted with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理装置の構成例を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus to which the present invention has been applied.

【図2】図1の抽出回路14を示すブロック図である。FIG. 2 is a block diagram showing an extraction circuit 14 of FIG.

【図3】図1の画像処理装置の動作を説明するフローチ
ャートである。
FIG. 3 is a flowchart illustrating an operation of the image processing apparatus of FIG. 1;

【図4】図1の位相シフト回路16および合成回路12
の動作を説明する図である。
FIG. 4 is a diagram showing a phase shift circuit 16 and a synthesis circuit 12 shown in FIG. 1;
It is a figure explaining operation of.

【図5】図1の位相シフト回路16および合成回路12
の動作を説明する他の図である。
5 is a phase shift circuit 16 and a synthesis circuit 12 shown in FIG.
FIG. 6 is another diagram for explaining the operation of FIG.

【図6】図1の位相シフト回路16および合成回路12
の動作を説明する他の図である。
FIG. 6 shows the phase shift circuit 16 and the synthesis circuit 12 shown in FIG.
FIG. 6 is another diagram for explaining the operation of FIG.

【図7】図1の動きベクトル検出回路15の動作を説明
する図である。
FIG. 7 is a diagram illustrating the operation of the motion vector detection circuit 15 of FIG.

【図8】基準ブロックBaおよび参照ブロックBbを説明
する図である。
FIG. 8 is a diagram illustrating a reference block Ba and a reference block Bb.

【図9】参照ブロックBbの移動を説明する図である。FIG. 9 is a diagram illustrating movement of a reference block Bb.

【図10】テーブルTを説明する図である。FIG. 10 is a diagram illustrating a table T.

【図11】本発明を適用した画像処理装置の他の構成例
を示すブロック図である。
FIG. 11 is a block diagram illustrating another configuration example of an image processing apparatus to which the present invention has been applied.

【図12】図11の画像処理装置の動作を説明するフロ
ーチャートである。
FIG. 12 is a flowchart illustrating an operation of the image processing apparatus in FIG. 11;

【図13】本発明を適用した画像処理装置の他の構成例
を示すブロック図である。
FIG. 13 is a block diagram illustrating another configuration example of an image processing apparatus to which the present invention has been applied.

【図14】図13の画像処理装置の動作を説明するフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an operation of the image processing apparatus in FIG. 13;

【図15】コンピュータ101の構成例を示すブロック
図である。
FIG. 15 is a block diagram illustrating a configuration example of a computer 101.

【符号の説明】[Explanation of symbols]

11 ディレイ回路, 12 合成回路, 13 蓄積
メモリ, 14 抽出回路, 15 動きベクトル検出
回路, 16 位相シフト回路, 21 抽出回路
11 delay circuit, 12 synthesis circuit, 13 storage memory, 14 extraction circuit, 15 motion vector detection circuit, 16 phase shift circuit, 21 extraction circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤原 孝芳 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C023 AA11 CA05 EA03 EA13 5L096 AA06 CA04 EA35 FA06 FA37 FA44 FA69 HA02 HA07 JA09 JA14  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Takayoshi Fujiwara 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5C023 AA11 CA05 EA03 EA13 5L096 AA06 CA04 EA35 FA06 FA37 FA44 FA69 HA02 HA07 JA09 JA14

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 入力画像を記憶する記憶手段と、 前記記憶手段に記憶された前記入力画像から特定の特徴
を有する特徴画像を抽出する抽出手段と、 前記抽出手段により抽出された前記特徴画像と、前記入
力画像に基づいて、前記特徴画像の動きを検出する検出
手段と、 前記特徴画像の動きに基づいて、前記特徴画像と前記入
力画像を、位置を合わせて合成する合成手段とを備える
ことを特徴とする画像処理装置。
A storage unit configured to store an input image; an extraction unit configured to extract a feature image having a specific feature from the input image stored in the storage unit; and a feature image extracted by the extraction unit. Detecting means for detecting the movement of the characteristic image based on the input image; and synthesizing means for synthesizing the characteristic image and the input image based on the movement of the characteristic image by aligning the positions. An image processing apparatus characterized by the above-mentioned.
【請求項2】 前記記憶手段は、前記合成手段により合
成された画像を記憶することを特徴とする請求項1に記
載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the storage unit stores an image synthesized by the synthesis unit.
【請求項3】 前記合成手段は、前記特徴画像の動きに
応じて、前記特徴画像と前記入力画像の間で位置合わせ
を行う位置合わせ手段とを備え、 前記位置合わせ手段による位置合わせ結果に基づいて、
前記入力画像と前記特徴画像を合成することを特徴とす
る請求項1に記載の画像処理装置。
3. The synthesizing unit includes a positioning unit that performs positioning between the characteristic image and the input image in accordance with the movement of the characteristic image, and based on a result of the positioning performed by the positioning unit. hand,
The image processing apparatus according to claim 1, wherein the input image and the feature image are combined.
【請求項4】 前記合成手段は、画素毎に、前記入力画
像と前記特徴画像との重み付け加算を行うことを特徴と
する請求項1に記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the combining unit performs weighted addition of the input image and the feature image for each pixel.
【請求項5】 前記特徴画像は、前記特徴画像の周辺の
画像と異なる動きをすることを特徴とする請求項1に記
載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the feature image moves differently from an image around the feature image.
【請求項6】 前記特徴画像の画素密度は、前記入力画
像の画素密度より高いことを特徴とする請求項1に記載
の画像処理装置。
6. The image processing apparatus according to claim 1, wherein a pixel density of the feature image is higher than a pixel density of the input image.
【請求項7】 前記特徴画像の画素密度は、前記入力画
像の画素密度と同じであることを特徴とする請求項1に
記載の画像処理装置。
7. The image processing apparatus according to claim 1, wherein the pixel density of the feature image is the same as the pixel density of the input image.
【請求項8】 前記検出手段は、前記抽出手段により抽
出された前記特徴画像を基準として、動きベクトルを検
出することを特徴とする請求項1に記載の画像処理装
置。
8. The image processing apparatus according to claim 1, wherein the detecting unit detects a motion vector based on the feature image extracted by the extracting unit.
【請求項9】 前記位置合わせ手段は、前記特徴画像の
位相をシフトさせることにより、前記特徴画像と前記入
力画像の位置合わせを行うことを特徴とする請求項3に
記載の画像処理装置。
9. The image processing apparatus according to claim 3, wherein the positioning unit performs the positioning of the characteristic image and the input image by shifting a phase of the characteristic image.
【請求項10】 前記位置合わせ手段は、前記入力画像
の位相をシフトさせることにより、前記特徴画像と前記
入力画像の位置合わせを行うことを特徴とする請求項3
に記載の画像処理装置。
10. The apparatus according to claim 3, wherein said positioning means performs positioning of said characteristic image and said input image by shifting a phase of said input image.
An image processing apparatus according to claim 1.
【請求項11】 前記位置合わせ手段は、前記特徴画像
の画素密度が、前記入力画像の画素密度より高くなるよ
うに、前記特徴画像と前記入力画像の位置合わせを行う
ことを特徴とする請求項3に記載の画像処理装置。
11. The apparatus according to claim 1, wherein the positioning unit performs positioning of the feature image and the input image such that a pixel density of the feature image is higher than a pixel density of the input image. 4. The image processing device according to 3.
【請求項12】 前記抽出手段は、抽出した前記特徴画
像を出力することを特徴とする請求項1に記載の画像処
理装置。
12. The image processing apparatus according to claim 1, wherein the extraction unit outputs the extracted characteristic image.
【請求項13】 前記検出手段は、検出した前記動き
を、前記特徴画像の動きとして出力することを特徴とす
る請求項1に記載の画像処理装置。
13. The image processing apparatus according to claim 1, wherein the detection unit outputs the detected motion as the motion of the feature image.
【請求項14】 入力画像を記憶する記憶ステップと、
前記記憶ステップの処理で記憶された前記入力画像から
特定の特徴を有する特徴画像を抽出する抽出ステップ
と、 前記抽出ステップの処理で抽出された前記特徴画像と、
前記入力画像に基づいて、前記特徴画像の動きを検出す
る検出ステップと、 前記特徴画像の動きに基づいて、前記特徴画像と前記入
力画像を、位置を合わせて合成する合成ステップとを含
むことを特徴とする画像処理方法。
14. A storage step for storing an input image;
An extracting step of extracting a feature image having a specific feature from the input image stored in the processing of the storing step, and the feature image extracted in the processing of the extracting step;
A detection step of detecting a movement of the feature image based on the input image; and a combining step of combining the feature image and the input image at the same position based on the movement of the feature image. Characteristic image processing method.
【請求項15】 入力画像を記憶する記憶ステップと、 前記記憶ステップの処理で記憶された前記入力画像から
特定の特徴を有する特徴画像を抽出する抽出ステップ
と、 前記抽出ステップの処理で抽出された前記特徴画像と、
前記入力画像に基づいて、前記特徴画像の動きを検出す
る検出ステップと、 前記特徴画像の動きに基づいて、前記特徴画像と前記入
力画像を、位置を合わせて合成する合成ステップとを含
むことを特徴とする処理をコンピュータに実行させるプ
ログラムが記録されている記録媒体。
15. A storage step of storing an input image, an extraction step of extracting a characteristic image having a specific feature from the input image stored in the processing of the storage step, and an extraction step performed in the processing of the extraction step. The feature image;
A detection step of detecting a movement of the feature image based on the input image; and a combining step of combining the feature image and the input image at the same position based on the movement of the feature image. A recording medium on which a program for causing a computer to execute a characteristic process is recorded.
JP2001191766A 2000-06-23 2001-06-25 Image processing apparatus and method, and recording medium Expired - Fee Related JP4617611B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001191766A JP4617611B2 (en) 2000-06-23 2001-06-25 Image processing apparatus and method, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-188773 2000-06-23
JP2000188773 2000-06-23
JP2001191766A JP4617611B2 (en) 2000-06-23 2001-06-25 Image processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2002084458A true JP2002084458A (en) 2002-03-22
JP4617611B2 JP4617611B2 (en) 2011-01-26

Family

ID=26594514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001191766A Expired - Fee Related JP4617611B2 (en) 2000-06-23 2001-06-25 Image processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4617611B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136527B2 (en) 2003-04-11 2006-11-14 Sony Corporation Apparatus and method for extracting artificial images and program for performing the method
WO2009078454A1 (en) 2007-12-18 2009-06-25 Sony Corporation Data processing apparatus, data processing method, and storage medium
US8213764B2 (en) 2006-12-27 2012-07-03 Sony Corporation Information processing apparatus, method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117079A (en) * 1990-09-03 1992-04-17 Canon Inc Image processing system
JPH10233994A (en) * 1997-02-19 1998-09-02 Sony Corp Specific area extract device and its method, specific area information recorder and its method, and specific area information recording medium
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
JP2000182053A (en) * 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
JP2000236554A (en) * 1999-02-12 2000-08-29 Sony Corp Image processing unit and its method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117079A (en) * 1990-09-03 1992-04-17 Canon Inc Image processing system
JPH10233994A (en) * 1997-02-19 1998-09-02 Sony Corp Specific area extract device and its method, specific area information recorder and its method, and specific area information recording medium
JPH10322595A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting video telop
JP2000182053A (en) * 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
JP2000236554A (en) * 1999-02-12 2000-08-29 Sony Corp Image processing unit and its method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136527B2 (en) 2003-04-11 2006-11-14 Sony Corporation Apparatus and method for extracting artificial images and program for performing the method
US8213764B2 (en) 2006-12-27 2012-07-03 Sony Corporation Information processing apparatus, method and program
WO2009078454A1 (en) 2007-12-18 2009-06-25 Sony Corporation Data processing apparatus, data processing method, and storage medium
US8169510B2 (en) 2007-12-18 2012-05-01 Sony Corporation Data processing device, data processing method, and storage medium

Also Published As

Publication number Publication date
JP4617611B2 (en) 2011-01-26

Similar Documents

Publication Publication Date Title
TWI352937B (en) Motion compensated frame rate conversion
EP2787723A2 (en) Image processing system and method therefor, program recording medium, and program for applying an appropriate process for an object to a captured image
US9143820B2 (en) Method for performing fluent playback control in response to decoding status, and associated apparatus
CN101796844A (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
JP4244045B2 (en) Recording apparatus and method, and program
US7050633B2 (en) Image processing apparatus and method, and storage medium therefor
JP5198543B2 (en) Image processing method, image processing apparatus, and image processing program
JP2002084458A (en) Image processing unit and method, and recording medium
JPH06150007A (en) Motion vector detector
KR100740789B1 (en) Image processing apparatus, method thereof and medium
KR101345447B1 (en) Image processing apparatus, image processing method, and program
JP3629236B2 (en) Object image tracking method and program
JP4872424B2 (en) Image processing apparatus, image processing method, and program
JP2007060192A (en) Interpolating frame generator, its method, image display system and program and recording medium
JP2007081500A (en) Image processing apparatus, method and program for deciding field order of moving image data
JP4821653B2 (en) Image processing apparatus and image processing program
KR20050039644A (en) Data processing apparatus and data processing method, program, and recording medium
JP2000134628A (en) Method and device for motion vector detection
JP4924131B2 (en) Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program
JP4902510B2 (en) Encoding apparatus and encoding method
JP4586689B2 (en) Recording apparatus and method, and program
JP4670688B2 (en) Motion vector detection method, motion vector detection device, and motion vector detection program
JPH09298751A (en) Motion prediction vector detection circuit
JPH11205816A (en) Moving vector detection device
US20100149423A1 (en) Apparatus and method of estimating motion using block division and coupling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees