JP4169842B2 - Electronic image correction device - Google Patents

Electronic image correction device Download PDF

Info

Publication number
JP4169842B2
JP4169842B2 JP32166198A JP32166198A JP4169842B2 JP 4169842 B2 JP4169842 B2 JP 4169842B2 JP 32166198 A JP32166198 A JP 32166198A JP 32166198 A JP32166198 A JP 32166198A JP 4169842 B2 JP4169842 B2 JP 4169842B2
Authority
JP
Japan
Prior art keywords
image
line
unit
width
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32166198A
Other languages
Japanese (ja)
Other versions
JP2000152077A5 (en
JP2000152077A (en
Inventor
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP32166198A priority Critical patent/JP4169842B2/en
Publication of JP2000152077A publication Critical patent/JP2000152077A/en
Publication of JP2000152077A5 publication Critical patent/JP2000152077A5/ja
Application granted granted Critical
Publication of JP4169842B2 publication Critical patent/JP4169842B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、動画像中特定の画像上被写体の特定の部位を指示し、その部位を目立たなくするような画像処理を施すことにより、不要な線や不要な点を消去する電子画像補正装置に関するものである。
【0002】
【従来の技術】
これに関する従来の手法にはほぼ3つの手法があり、その第1は撮影を行う前に処理を施す場合で、消したい被写体が周辺と同じような色、明るさになるよう着色したり照明を加減する。
第2の手法は撮影を行った後の場合で、撮影画像に対して電子描画装置を用いて手作業で目立たないように修正を行う。
第3の手法も撮影を行った後の場合で、これは消す対象の画像としての性質(例えば、空間周波数など)を利用し、画像全体に一様に2次元フィルタを掛ける。空間周波数を例に取れば、まず、消したい線や点の空間周波数成分を分析し、次に画像中の当該周波数付近の成分を除外する手法である。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した手法1では、その作業に熟練した作業員が必要な上に、周辺と同じような色、 明るさに出来ない( 例えば、 物理的に色、 明るさを調整できない) 状況のときもある。
第2の手法では、さらに熟練した作業員がその感性をよりどころに作業を行うことになり、さらに動画像の場合には莫大な労力と多大な時間を必要とする。
さらに第3の手法では、該当する線や点は少なくとも目立たなくなるが、該当周波数付近の成分を有する保存しておきたい画像成分も消える可能性があるという欠点があり、消したい線や点の空間周波数成分を分析することは該当する線や点が他の被写体と重なり合って撮影された場合などは非常に困難な上にその作業も煩雑で経験を必要とする。また、空間周波数を利用したもの以外にもイプシロンフィルタなど非線形フィルタも利用されるが、これは顔のしわなどのように画像上で低振幅な信号のみをキャンセルし、顔の輪郭などの急峻な信号は保存する特性があるため一見便利に思われるが、しわ以外の保存したい映像信号でもしわによく似た低振幅な映像信号までキャンセルしてしまうため適用できる画像が限定されてしまう。
そこで本発明の目的は従来技術のように熟練した作業員を必要とせず、操作を行う者の感性も極力必要とせず、さらに多大な労力、時間をかけることなしに動画像中の不必要な点や線も消去可能な電子画像補正装置を提供せんとするものである。
【0004】
【課題を解決するための手段】
この目的を達成するため、電子画像補正装置に係る第1の発明は、一連の連続した画像中特定画像の被写体上のある部位を点または線として指定する手段と、その特定画像に時間的に連続する画像上における前画像で指定した被写体上の同じ部位を、動きベクトル検出に基づいて追跡する手段と、前記追跡する手段によって得られる前記ある部位の特徴点の位置情報に基づいて前記ある部位を近似する回帰線を算出し、前記回帰線に対して垂直方向に所定の距離にある対向する画素情報を用いて、前記対向する画素間に位置する画素を前記所定の距離に応じた重み付け配分で置換補正することにより、それぞれの画像の被写体上の同じ部位を画像処理する手段とを備えることを特徴とするものである。
発明に係る電子画像補正装置において、前記ある部位を線として指定する場合には疎になって断裂した線を距離の近い点同士結ぶことで断裂した線を接続することができる。 また、追跡した座標上の線がある幅を有する場合、画像から微分画像を生成し、これを用いてその線の幅を推定し、該推定した幅の線をその幅より外側の画素情報で置換補正すること、さらに、前記のその幅より外側の画素情報で置換補正するに際し、これを距離に応じた画像情報の重み付け配分置換補正とすることもできる。ここで座標上の線がある幅を有するとは、線幅が複数画素で表されることを意味するものである。
また、上述の装置において、 前記ある部位を点として指定し、 追跡した座標上の点がある広がりを有する場合、画像から微分画像を生成し、これを用いてその点の広さを推定し、その点の広さより外側の画素情報で置換補正すること、 さらに前記その点の広さより外側の画素情報で置換補正するに際し、これを距離に応じた画像情報の重み付け配分置換補正することができる。 ここで座標上の点がある広がりを有するとは、 点が数画素以上で表されることを意味するものとする前記画像処理する手段が点または線そのものの画像情報および前記点または線の外側の画像情報を用い、ハイパスフィルタ処理する手段であってもよく、さらにまた第2の発明は、前記画像処理する手段が点または線そのものの画像情報および前記点または線の外側の画像情報を用い、前記ある部位で低振幅な信号のみを平滑化する非線形フィルタ処理する手段であってもよい。前記非線形フィルタは例えばイプシロンフィルタであることもできる。
【0005】
【発明の実施の形態】
以下添付図面を参照し、実施例により本発明の実施の形態を詳細に説明する。
図1にこれに限定されない本発明電子画像補正装置実施例の構成ロック線図を示す。この実施例は消去する対象を顔のしわなどを対象としているが、本発明は対象を線、あるいは点としており、顔のしわに限定されるものではない。
以下図1の構成ブロック線図について、はじめに各ブロックの内容の説明を行い、次に全体のながれについて説明を加える。
(a)画像入力部1:対象となる画像源からのNTSC画像信号(動画でも静止画でもよい)を次段の第1の画像蓄積部3で蓄積可能なディジタルデータに変換する。変換する形式については特に本発明は限定されないが、顔のしわは、照明による影によって画像上でしわとなる。つまり、明るさの変化はあるが、色の変化はない。よって、処理は輝度信号のみで色情報の信号へは修正を加える必要はない。したがって本実施例ではNTSC画像信号を輝度信号と色差信号に変換し、後段の消去処理部では輝度信号のみを修正する。
(b)入力指示部2:修正の対象となる画像の始まりのタイミングを指示し、その指示で第1の画像蓄積部が画像入力部1からの画像情報の蓄積を始める(操作者が指示する)。
(c)第1の画像蓄積部3:画像入力部1からの画像情報を入力指示部2の指示のタイミングで蓄積を始める。本実施例では蓄積終了の指示は行わないので、第1の画像蓄積部3の記録容量一杯に蓄積されたら蓄積処理を終了する(通常数百フレーム分の蓄積)。
(d)位置指示部4:消去修正の対象となる部分を操作者の指示で行う部分である。本実施例では第1の画像蓄積部3に蓄積された画像のうち時間順で最も早い最初の画像を取り出して表示し、この画像中の目的の部分をパーソナルコンピュータなどで利用されているマウスを用いて指示する。ただし、本発明はこの作業の方法を限定しない。この位置指示部4で指定された位置情報は次段の特徴点位置蓄積部7に送られる。
(e)特徴点追跡部5:特徴点位置蓄積部7から当該画像上の当該部位の位置情報を取得し、また当該画像と、時間的にそれに続く画像を第1の画像蓄積部3より読み出す。これから当該画像の当該部位が続きの画像上のどこに位置するかを求める。本実施例では一般的な方法であるブロックマッチング法を用いたが、本発明はこれを限定されるものではなく、オプティカルフローによる方法などの動きベクトル検出法全般が利用可能である。いずれにしても現在ある動きベクトル検出法は誤検出する可能性があり、これの対応が必要であるが、本実施例では当該画像から次の画像の対応する部位をブロックマッチングで求め、求まった次の画像の部位から当該画像にブロックマッチングを行い、当該画像の当該部位の位置と等しくならない場合は、誤検出とみなし排除している。以上の処理で求めた特徴点の位置情報を断片化防止部6へ送る。
(f)断片化防止部6:被写体が時間順で拡大縮小した場合、特徴点間の距離が変化する。特に拡大した場合は特徴点間に隙間が開く。また、特徴点追跡部5で誤検出とみなされた部分も隙間となる。断片化防止部6ではこの隙間を点間の距離が近いもの同士を直線で結び、 その直線上画素の位置を新たな特徴点として追加する。本実施例では直線で結んだが、本発明はこの結線方法を限定しない。たとえば特徴点追跡部5から送られてきた特徴点を通るスプライン(spline:雲形定規的)曲線を算出し、特徴点で隙間となっている部分の対策としてこのスプライン曲線を通る画素位置を新たな特徴点として追加する。ここで、断片化を防止する理由として、上記の理由で特徴点が断片化されると、例えば消したいしわの一部が後段の消去処理部で処理を行わないこととなりしわが残ってしまう。その対策として、しわなどの画像上では連続するという特徴を利用し断片化を防止している。この断片化防止部6で結線した特徴点位置情報を特徴点位置蓄積部7へ送る。
(g)特徴点位置蓄積部7:位置指示部、特徴点追跡部より送られる特徴点の位置情報を保存し、消去処理部に送る。
(h)消去処理部8:特徴点位置蓄積部7の位置情報とそれに対応する画像を第1の画像蓄積部3より引き出し、それぞれの特徴点位置での画面上前後の特徴点5点を用いて(両端の場合は前あるいは後の特徴点が5点に満たない場合があるがその場合には端までのある限りの特徴点を用いる)、例えば最小二乗法によりそれらの回帰直線21を求める。その直線21に対し垂直方向22へ両方向に約5画素分離れた位置(位置a,位置bとする)の2つの輝度情報(輝度c,輝度dとする)を用い、両端(位置a−位置b)からの距離に応じ輝度情報(輝度c,輝度d)を重み付け配分してその内側の輝度情報と置き換える(図2参照)。ここで本実施例では前後5点を用いて回帰直線21を求めているが、本発明ではこの点数を限定するものではない。また、特徴点から5画素ほどの位置の輝度情報を用いているが本発明はこの距離を限定するものでもなく、画像を2次元で微分し、その輪郭画像から線の幅を求め利用することも有効である。
(i)第2の画像蓄積部9:消去処理部で処理された画像を蓄積する部分。
(j)出力指示部10:第2の画像蓄積部に蓄積された動画像の再生のきっかけを指示する部分。
(k)画像出力部11:第2の画像蓄積部9より送られてくる動画像のディジタルデータをNTSC画像信号に変換する部分。
以上のブロックを用いて本実施例では処理を行っている。処理の手順は以下の通りである。
まず、消去処理の対象となる画像源を画像入力部1に接続し、動画像の当該時間の先頭で入力指示部2により蓄積指示を行う。これによって動画像の当該部分が第1の画像蓄積部3に蓄積される。蓄積された動画像の先頭画像を位置指示部4により引き出し、消去を希望する部分の位置を指示する。位置の指示が終わると、特徴位置として特徴点位置蓄積部7に蓄積される。その後、特徴点追跡部5が特徴点位置蓄積部7からの特徴点位置を読み出し、対応する画像(画像1とする)と、それに時間的に続く画像(画像2とする)を第1の画像蓄積部1より読み出す。これらの情報から画像1の特徴点位置に対応する特徴点位置を画像2から抽出する。ここで求めた特徴点位置は断片化防止部6で連続する曲線にされ特徴点位置蓄積部7に蓄積される。以降、第1の画像蓄積部1にある限りの画像に対し同様の処理が行われる。すべての画像に対し特徴点位置が求まれば、消去処理部8において特徴点位置蓄積部7の特徴点位置情報と第1の画像蓄積部1の画像情報から消去したい部分が消去された画像が生成され、第2の動画像蓄積部9に蓄積される。第2の画像蓄積部9に蓄えられた動画像は出力指示部10の指示をきっかけに先頭画像から再生される。
【0006】
以上実施例について本発明の実施の形態を説明してきたが、本発明はこれに限定されることなく、特許請求の範囲で規定した発明の要旨内で各種の変形、変更の可能なことは自明であろう。
【0007】
【発明の効果】
以上述べてきたように、本発明によれば従来手法で問題とされてきた諸欠点を排除し、撮影した画像中より不必要な線や点を少ない労力でしかも短期間で除去できる電子画像補正装置を提供することができる。
【図面の簡単な説明】
【図1】本発明に係る電子画像補正装置の一実施例構成ブロック線図。
【図2】本発明装置の消去処理部の動作を説明するための図。
【符号の説明】
1 画像入力部
2 入力指示部
3 第1の画像蓄積部
4 位置指示部
5 特徴点追跡部
6 断片化防止部
7 特徴点位置蓄積部
8 消去処理部
9 第2の画像蓄積部
10 出力指示部
11 画像出力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic image correction apparatus that erases unnecessary lines and unnecessary points by instructing a specific part of a subject on a specific image in a moving image and performing image processing that makes the part inconspicuous. Is.
[0002]
[Prior art]
There are almost three conventional methods related to this, and the first is when processing is performed before shooting, and the subject to be erased is colored or illuminated so that it has the same color and brightness as the surroundings. Moderate.
The second method is after shooting, and the captured image is corrected by an electronic drawing device so that it is not conspicuous manually.
The third method is also a case after taking an image, which uses a property (for example, spatial frequency) as an image to be erased and applies a two-dimensional filter uniformly to the entire image. Taking the spatial frequency as an example, it is a technique of first analyzing the spatial frequency component of the line or point to be erased, and then excluding the component near the frequency in the image.
[0003]
[Problems to be solved by the invention]
However, Method 1 described above requires a worker who is skilled in the work and cannot achieve the same color and brightness as the surroundings (for example, the color and brightness cannot be adjusted physically). There is also.
In the second method, a more skilled worker is required to work on the basis of the sensitivity, and in the case of a moving image, enormous labor and time are required.
Further, in the third method, the corresponding line or point is at least inconspicuous, but there is a drawback that an image component to be stored having a component near the corresponding frequency may also disappear, and the space of the line or point to be erased. Analyzing frequency components is very difficult when the corresponding line or point is photographed with another subject, and the work is complicated and requires experience. In addition to those using spatial frequency, non-linear filters such as epsilon filters are also used, but this cancels only low-amplitude signals on the image, such as facial wrinkles, and sharp edges such as facial contours. The signal seems to be convenient at first glance because it has a characteristic of storing, but even a video signal other than wrinkles that is to be stored cancels even a low-amplitude video signal that resembles wrinkles, so that the applicable images are limited.
Therefore, the object of the present invention does not require a skilled worker as in the prior art, and does not require the sensitivity of the person who performs the operation as much as possible, and is unnecessary in a moving image without much labor and time. An electronic image correction apparatus capable of erasing dots and lines is provided.
[0004]
[Means for Solving the Problems]
To this end, a first invention according to the electronic image correction apparatus includes a means to specify a series of consecutive images in the site of on the subject of the specific image as a point or a line, time to that particular image A means for tracking the same part on the subject designated in the previous image on the continuous image based on the motion vector detection, and the position based on the position information of the characteristic point of the certain part obtained by the tracking means A regression line that approximates a part is calculated, and pixel information that is located at a predetermined distance in the vertical direction with respect to the regression line is used to weight pixels located between the opposing pixels according to the predetermined distance And means for performing image processing on the same part on the subject of each image by performing replacement correction by distribution .
The electronic image correction apparatus according to the present invention, when specifying the a site as a line may connect a sparse since it was ruptured by connecting between a point near the torn line of distance lines. Also, if the tracked coordinate line has a certain width, a differential image is generated from the image, the width of the estimated line is estimated using this, and the line of the estimated width is represented by pixel information outside the width. substituting corrected, further, when replacing correct than its width of the outside of the pixel information may be a weighted allocation substitution correction of the image information corresponding to this distance. Here, having a certain width on the coordinates means that the line width is expressed by a plurality of pixels.
Further, in the above-described device, when the certain part is designated as a point, and the point on the tracked coordinates has a certain spread, a differential image is generated from the image, and the width of the point is estimated using this, When the pixel information outside the area of the point is replaced and corrected, and when the pixel information outside the area of the point is replaced and corrected, the weighted distribution replacement correction of the image information according to the distance can be performed. Here, a point on a coordinate having a certain spread means that the point is expressed by several pixels or more . The image processing means may be a means for performing high-pass filter processing using image information of the point or line itself and image information outside the point or line, and the second invention is the means for image processing. However, it may be a non-linear filter processing unit that uses the image information of the point or line itself and the image information outside the point or line to smooth only a low-amplitude signal at the certain part. The nonlinear filter may be an epsilon filter, for example.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
It shows a configuration block diagram of the present invention an electronic image correction apparatus non-limiting embodiment in Figure 1. In this embodiment, the target to be erased is a facial wrinkle, but the present invention uses a line or a point as the target, and is not limited to a facial wrinkle.
In the following, the contents of each block will be described first in the configuration block diagram of FIG. 1, and then the overall flow will be described.
(A) Image input unit 1: An NTSC image signal (which may be a moving image or a still image) from a target image source is converted into digital data that can be stored in the first image storage unit 3 in the next stage. Although the present invention is not particularly limited as to the format to be converted, wrinkles on the face are wrinkled on the image due to shadows due to illumination. That is, there is a change in brightness, but there is no change in color. Therefore, the processing is only a luminance signal, and it is not necessary to modify the color information signal. Therefore, in this embodiment, the NTSC image signal is converted into a luminance signal and a color difference signal, and only the luminance signal is corrected in the erasure processing unit at the subsequent stage.
(B) Input instructing unit 2: Instructs the start timing of the image to be corrected, and the first image accumulating unit starts accumulating image information from the image input unit 1 (instructed by the operator). ).
(C) First image storage unit 3: Starts storing image information from the image input unit 1 at the timing of an instruction from the input instruction unit 2. In this embodiment, since the storage end instruction is not given, the storage processing is ended when the first image storage unit 3 has been stored up to the full recording capacity (usually storage for several hundred frames).
(D) Position instruction unit 4: This is a part that performs an erasure correction target part in response to an operator instruction. In this embodiment, the first image that is the earliest in time order among the images stored in the first image storage unit 3 is taken out and displayed, and a target part in this image is displayed with a mouse that is used by a personal computer or the like. Use to indicate. However, the present invention does not limit the method of this work. The position information specified by the position instruction unit 4 is sent to the feature point position storage unit 7 at the next stage.
(E) Feature point tracking unit 5: Acquires position information of the part on the image from the feature point position storage unit 7, and reads the image and temporally subsequent image from the first image storage unit 3. . From this, it is determined where the part of the image is located on the subsequent image. In this embodiment, the block matching method, which is a general method, is used. However, the present invention is not limited to this, and general motion vector detection methods such as an optical flow method can be used. In any case, there is a possibility that the existing motion vector detection method may be erroneously detected, and it is necessary to cope with this. In this embodiment, the corresponding part of the next image is obtained from the image by block matching and obtained. Block matching is performed on the image from the part of the next image, and if it is not equal to the position of the part of the image, it is regarded as a false detection and eliminated. The feature point position information obtained by the above processing is sent to the fragmentation prevention unit 6.
(F) Fragmentation prevention unit 6: When the subject is enlarged or reduced in time order, the distance between feature points changes. Especially when enlarged, a gap is opened between the feature points. Further, a portion that is regarded as an erroneous detection by the feature point tracking unit 5 also becomes a gap. The fragmentation prevention unit 6 connects the gaps that are close to each other with a straight line, and adds the position of the pixel on the straight line as a new feature point. In the present embodiment, the connection is made with a straight line, but the present invention does not limit this connection method. For example, a spline (cloud-line ruler) curve passing through the feature point sent from the feature point tracking unit 5 is calculated, and a pixel position passing through the spline curve is newly determined as a countermeasure for a gap in the feature point. Add as a feature point. Here, as a reason for preventing fragmentation, if a feature point is fragmented for the above-described reason, for example, a part of the wrinkle to be erased is not processed in the subsequent erasure processing unit, and the wrinkle remains. As a countermeasure against this, fragmentation is prevented by utilizing the feature of being continuous on an image such as wrinkles. The feature point position information connected by the fragmentation prevention unit 6 is sent to the feature point position storage unit 7.
(G) Feature point position accumulating unit 7: Stores the position information of the feature points sent from the position instruction unit and the feature point tracking unit and sends them to the erasure processing unit.
(H) Erasing processing unit 8: Position information of the feature point position accumulating unit 7 and an image corresponding thereto are extracted from the first image accumulating unit 3, and five feature points before and after on the screen at each feature point position are used. (In the case of both ends, there may be less than 5 feature points before or after, but in that case, feature points as far as the end are used), for example, the regression line 21 is obtained by the least square method. . Two pieces of luminance information (brightness c and luminance d) at positions separated by about 5 pixels in both directions in the vertical direction 22 with respect to the straight line 21 (brightness c and luminance d) are used. In accordance with the distance from b), the luminance information (luminance c, luminance d) is weighted and replaced with the inner luminance information (see FIG. 2). Here, in this embodiment, the regression line 21 is obtained using five points before and after, but in the present invention, this score is not limited. Further, although luminance information at a position of about 5 pixels from the feature point is used, the present invention does not limit this distance, and the image is differentiated two-dimensionally, and the line width is obtained from the contour image and used. Is also effective.
(I) Second image storage unit 9: A part for storing images processed by the erasing processing unit.
(J) Output instructing unit 10: A part for instructing an opportunity to reproduce a moving image stored in the second image storage unit.
(K) Image output unit 11: A part for converting digital data of a moving image sent from the second image storage unit 9 into an NTSC image signal.
In this embodiment, processing is performed using the above blocks. The processing procedure is as follows.
First, an image source to be erased is connected to the image input unit 1, and an accumulation instruction is given by the input instruction unit 2 at the beginning of the time of the moving image. As a result, the portion of the moving image is stored in the first image storage unit 3. The head image of the accumulated moving image is pulled out by the position instructing unit 4 to instruct the position of the part desired to be deleted. When the position instruction is finished, it is stored in the feature point position storage unit 7 as a feature position. Thereafter, the feature point tracking unit 5 reads the feature point position from the feature point position accumulating unit 7, and the corresponding image (referred to as image 1) and temporally following image (referred to as image 2) are the first image. Read from the storage unit 1. A feature point position corresponding to the feature point position of image 1 is extracted from image 2 from these pieces of information. The feature point positions obtained here are converted into continuous curves by the fragmentation prevention unit 6 and stored in the feature point position storage unit 7. Thereafter, the same processing is performed on the images as long as they are in the first image storage unit 1. When the feature point positions are obtained for all the images, an image in which the part to be erased is erased from the feature point position information in the feature point position accumulation unit 7 and the image information in the first image accumulation unit 1 in the erasure processing unit 8. Is generated and stored in the second moving image storage unit 9. The moving images stored in the second image storage unit 9 are reproduced from the top image in response to an instruction from the output instruction unit 10.
[0006]
Although the embodiments of the present invention have been described above with reference to the embodiments, the present invention is not limited thereto, and it is obvious that various modifications and changes can be made within the gist of the invention defined in the claims. Will.
[0007]
【The invention's effect】
As described above, according to the present invention, the electronic image correction that eliminates the disadvantages that have been problematic in the conventional method and can remove unnecessary lines and points in the photographed image with less effort and in a short period of time. An apparatus can be provided.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an electronic image correction apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining the operation of an erasure processing unit of the apparatus of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part 2 Input instruction | indication part 3 1st image storage part 4 Position instruction | indication part 5 Feature point tracking part 6 Fragmentation prevention part 7 Feature point position storage part 8 Erasing process part 9 2nd image storage part 10 Output instruction | indication part 11 Image output unit

Claims (3)

一連の連続した画像中特定画像の被写体上のある部位を点または線として指定する手段と、その特定画像に時間的に連続する画像上における前画像で指定した被写体上の同じ部位を、動きベクトル検出に基づいて追跡する手段と、前記追跡する手段によって得られる前記ある部位の特徴点の位置情報に基づいて前記同じ部位を近似する回帰線を算出し、前記回帰線に対して垂直方向に所定の距離にある対向する画素情報を用いて、前記対向する画素間に位置する画素を前記所定の距離に応じた重み付け配分で置換補正することにより、それぞれの画像の被写体上の同じ部位を画像処理する手段とを備えることを特徴とする電子画像補正装置。A series of a means to specify the site of on the subject of successive images in specific image as a point or a line, the same site on the subject specified in the previous image on the temporally continuous images for that particular image, motion A means for tracking based on vector detection; and a regression line that approximates the same part based on positional information of the characteristic point of the certain part obtained by the means for tracking , and is perpendicular to the regression line By using the pixel information of the opposing pixels at a predetermined distance, the pixels located between the opposing pixels are replaced and corrected with a weighted distribution according to the predetermined distance, so that the same part on the subject of each image is imaged. An electronic image correction apparatus comprising: means for processing. 前記ある部位を線として指定する請求項1記載の装置において、追跡した座標上の線がある幅を有する場合、画像から微分画像を生成し、これを用いてその線の幅を推定し、該推定した幅の線をその幅より外側の画素情報で置換補正するよう構成したことを特徴とする電子画像補正装置。2. The apparatus according to claim 1, wherein the certain part is designated as a line. If the tracked line on the coordinate has a certain width, a differential image is generated from the image, and the width of the line is estimated using the differential image. An electronic image correction apparatus configured to replace and correct a line having an estimated width with pixel information outside the width. 前記ある部位を線として指定する請求項1または2記載の装置において、疎になって断裂した線を距離の近い点同士結ぶことで断裂した線を接続するよう構成したことを特徴とする電子画像補正装置。The electronic image according to claim 1 or 2, wherein the certain part is designated as a line, and the broken line is connected by connecting the sparse and broken lines to each other at a short distance. Correction device.
JP32166198A 1998-11-12 1998-11-12 Electronic image correction device Expired - Fee Related JP4169842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32166198A JP4169842B2 (en) 1998-11-12 1998-11-12 Electronic image correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32166198A JP4169842B2 (en) 1998-11-12 1998-11-12 Electronic image correction device

Publications (3)

Publication Number Publication Date
JP2000152077A JP2000152077A (en) 2000-05-30
JP2000152077A5 JP2000152077A5 (en) 2005-03-17
JP4169842B2 true JP4169842B2 (en) 2008-10-22

Family

ID=18135007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32166198A Expired - Fee Related JP4169842B2 (en) 1998-11-12 1998-11-12 Electronic image correction device

Country Status (1)

Country Link
JP (1) JP4169842B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700276B1 (en) * 2011-11-24 2017-01-31 에스케이플래닛 주식회사 Apparatus and Method for setting feature point, tracking object apparatus and method usig that

Also Published As

Publication number Publication date
JP2000152077A (en) 2000-05-30

Similar Documents

Publication Publication Date Title
JP3406313B2 (en) Method and apparatus for changing the content of a continuous image
JP3035920B2 (en) Moving object extraction device and moving object extraction method
JP2003534837A (en) Method and system for automatically correcting motion artifacts
WO2001067205A3 (en) System and method for capturing adjacent images by utilizing a panorama mode
EP1377045A3 (en) Content creation
JPS62125478A (en) Extracting method for moving object image
JP4821642B2 (en) Image processing method, image processing apparatus, digital camera, and image processing program
US6784927B1 (en) Image processing apparatus and image processing method, and storage medium
CN106709894B (en) Image real-time splicing method and system
JP4444583B2 (en) Object detection apparatus and program
WO2017199498A1 (en) Lane specification method and lane specification device
JPH11150676A (en) Image processor and tracking device
JP4169842B2 (en) Electronic image correction device
KR101733125B1 (en) Method of chroma key image synthesis without background screen
JP2001119625A (en) Image-processing method and image processor
JP4467231B2 (en) Image processing device
RU2571574C1 (en) Device to combine images into single composition with smooth contrast transition
JPH10336506A (en) Image-processing system, system and method for tracking and storage medium
JP3601951B2 (en) Moving object display method, display system using the same, and program recording medium therefor
CN103050110B (en) Method, device and system for image adjustment
JP2621806B2 (en) Background feature mask generation device and moving object feature extraction device
JP4508112B2 (en) Still image extraction system
JP3163601B2 (en) Image processing apparatus and method
JP2005217721A (en) Apparatus and method for generating still picture
JP3551332B2 (en) Target tracking device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040416

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140815

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees