JPS60225280A - Correcting system of picture - Google Patents

Correcting system of picture

Info

Publication number
JPS60225280A
JPS60225280A JP59080184A JP8018484A JPS60225280A JP S60225280 A JPS60225280 A JP S60225280A JP 59080184 A JP59080184 A JP 59080184A JP 8018484 A JP8018484 A JP 8018484A JP S60225280 A JPS60225280 A JP S60225280A
Authority
JP
Japan
Prior art keywords
image
picture
background
blurring
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59080184A
Other languages
Japanese (ja)
Other versions
JPH0614339B2 (en
Inventor
Fuminobu Furumura
文伸 古村
Yuichi Kitatsume
北爪 友一
Nobuo Hamano
浜野 亘男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59080184A priority Critical patent/JPH0614339B2/en
Publication of JPS60225280A publication Critical patent/JPS60225280A/en
Publication of JPH0614339B2 publication Critical patent/JPH0614339B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Abstract

PURPOSE:To blur the background in an optional degree by segmenting an object from an original picture in the interactive mode. CONSTITUTION:After a noticed area is segmented from an object picture, picture data of the object picture stored in a picture memory 16 is taken into a central processing unit 8, and the blurring processing is performed, and the processed picture is stored in the picture memory 16 again. In the blurring processing, a low-pass filter is used to smooth the picture. When a blurred picture having an optimum background is obtained by the blurring processing, boundary line data used for segmenting is used to synthesize one picture by the central processing unit 8, and this picture is stored in the picture memory 16. The synthesized picture is displayed on a CRT monitor 19, and parts on boundary lines and detailed parts are blurred.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は写真等画像の計算機処理に係り、特に画像中の
対象物の背景を簡単な対話処理により抽出し、背景のボ
カシを迅速かつ、ボカシ強度を対話的に調整しつつ処理
するのに好適な画像の修正方式に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to computer processing of images such as photographs, and in particular, a method for extracting the background of an object in an image through simple interactive processing and quickly blurring the background. The present invention relates to an image modification method suitable for processing while adjusting intensity interactively.

〔発明の背景〕[Background of the invention]

従来、写真等画像中の特定領域たとえば背景等のボカシ
は、第1の方法として印画紙に焼きつける段階でおこな
う方法がある。これは、ぼかしたい部分以外の領域のみ
を印画紙上で覆いをかぶせてしまい、この上からピンボ
ケにした写真を焼きつける。次に、ボカシたい部分の領
域に覆いをかぶせ、この上にピントを合わせた写真を焼
きつけるという段階を踏んだ方法である。第2の方法と
しては、印画紙に焼きつけられた後で修正をおこなう方
法である。これは、エアブラシを用いて、写真の背景の
部分のみに絵の具を吹き付けてぼかす方法である。
Conventionally, a first method for blurring a specific area, such as a background, in an image such as a photograph is performed at the stage of printing on photographic paper. This covers only the area other than the area you want to blur with photographic paper, and then prints an out-of-focus photo over this. This step-by-step method then covers the area you want to blur, and then prints the focused photo on top of it. The second method is to make corrections after printing on photographic paper. This method uses an airbrush to spray paint onto only the background of a photo to blur it.

上記2方法は、熟練を要し、しかも処理に多大の人手と
時間を必要する上、失敗の可能性も高かった。また、計
算機を用いて行う処理として、エアブラシの機能を備え
たものがあるが、この方法では、ある特定の明度レベル
を画像上の位置に対し飛び飛びにこのレベル値を代入し
て行うため、明度レベルの選定が難しく、しかも、印画
紙修正時に用いたエアブラシと同様、操作が面倒である
ため、画像のボカシにエアブラシを用いるのは不適当で
ある。
The above two methods require skill, require a large amount of manpower and time, and have a high possibility of failure. In addition, there is a process that uses a computer that has an airbrush function, but in this method, a certain brightness level is assigned to each position on the image intermittently, so the brightness It is difficult to select the level and, like the airbrush used to correct photographic paper, the operation is troublesome, so it is inappropriate to use an airbrush to blur images.

以上のごと〈従来法では、画像中の特定領域がら簡単か
つ迅速に、しかも最適なボヵシ処理画像を対話的に作成
することは、不可能であった。
As described above, with conventional methods, it is impossible to easily and quickly create an optimal blurred image interactively from a specific area in an image.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、熟練の要る写真修正を、人間の簡単な
指示に従って計算機が画像中の特定領域にボカシ処理を
的確に行なうことにより、迅速かつ最適なボカシ処理画
像を得る方式を提供することにある。
The purpose of the present invention is to provide a method for quickly and optimally blurring images by using a computer to accurately blur a specific area in an image according to simple human instructions for photo editing, which requires skill. There is a particular thing.

〔発明の概要〕[Summary of the invention]

ここで本発明で用いる画像中の特定領域ボヵシ処理の原
理について説明する。まず、第1図の原画像から対象物
(人物等)1の切り出しを行ない背景2のみの画像(第
2図参照)を得、この背景画像に平滑化を施こす空間フ
ィルタをかけて、ぼかした背景3を持つ画像(第3図参
照)を作成する。この時、空間フィルタのマスクの大き
さや、荷重のパラメータを変更さらには、フィルタを繰
り返しかけることによりボケの強さの程度を自由に設定
できる。上記処理を施した背景画像に切り取った対象物
lを組み込み所望の画像(第4図参照)を得る。ただし
、ぼかした背景画像に対象物を組み込んだだけでは切り
出しの境界線上の部分4や、対象物内部に含まれている
細部5などボカシが施されていない。このため、前者の
場合は。
Here, the principle of blurring a specific area in an image used in the present invention will be explained. First, an object (such as a person) 1 is cut out from the original image shown in Fig. 1 to obtain an image containing only the background 2 (see Fig. 2), and a spatial filter is applied to this background image to smooth it. An image with a background 3 (see Figure 3) is created. At this time, the strength of the blur can be freely set by changing the mask size and load parameters of the spatial filter, and by repeatedly applying the filter. A desired image (see FIG. 4) is obtained by incorporating the cut object l into the background image subjected to the above processing. However, simply incorporating the object into the blurred background image does not blur the portion 4 on the cutout boundary line or the details 5 contained inside the object. Therefore, in the former case.

対象物を背景に組み込む時に境界線に隣接しているいく
つかの画素にローパスフィルタをかけて平滑化を行ない
境界線をぼかす。後者の場合は、領域を小さく限定した
ローパスフィルタを、モニタを見ながら対話的にぼかす
位置を決め処理して行くことにより、細部のボカシ処理
を加えて第5図のようにめる画像が得られる。
When incorporating an object into the background, a low-pass filter is applied to some pixels adjacent to the boundary line to smooth it and blur the boundary line. In the latter case, by using a low-pass filter that limits the area to a small area and interactively determining and processing the blurring position while looking at the monitor, the image shown in Figure 5 can be obtained by adding blurring processing to the details. It will be done.

以上、本処理は、対話型式により原画像から対象物の切
り出しを行なうことにより任意の強さのボカシを背景に
施すことが可能となる。
As described above, in this process, by cutting out the object from the original image in an interactive manner, it is possible to apply a blur of arbitrary strength to the background.

〔発明の実施例〕[Embodiments of the invention]

以下本発明の一実施例を図を用いて詳細に説明する。 An embodiment of the present invention will be described in detail below using the drawings.

第6図は本発明による画像処理を行う装置の全体構成図
である。対象画像6はドラムスキャナ等の画像入力装置
7によりAD変換されたのち中央処理装M8を介し記憶
装置10に格納される。格納された画像はコンソール9
よりの指令により画像ディスプレイ11に表示される。
FIG. 6 is an overall configuration diagram of an apparatus for performing image processing according to the present invention. The target image 6 is AD converted by an image input device 7 such as a drum scanner, and then stored in the storage device 10 via the central processing unit M8. The stored image is console 9
The image is displayed on the image display 11 according to a command from the user.

操作者である人間は、この表示画像を見ながら、トラッ
クボール等の座標入力装置12を操作し対像画像中の着
目領域の輪郭線の複数の代表点を指示する。
While viewing this displayed image, a human operator operates a coordinate input device 12 such as a trackball to indicate a plurality of representative points on the outline of the region of interest in the image to be viewed.

この代表点の指示については、第7図に示す画像ディス
ブレス装置11により実現される。まず、座標入力装置
12により入力された座標に従い、カーソル発生装置1
7は、DA変換装W18を介しCRTモニタ19の指示
された座標上にカーソルを表示する。一方中央処理装置
8から送られてきた画像データは画像メモリ16に格納
され。
This indication of the representative point is realized by the image discless device 11 shown in FIG. First, according to the coordinates input by the coordinate input device 12, the cursor generator 1
7 displays a cursor on the designated coordinates of the CRT monitor 19 via the DA converter W18. On the other hand, image data sent from the central processing unit 8 is stored in the image memory 16.

DA変換装w18によりCRTモニタ19に表示される
。このときカーソルは画像上に重ねて表示される。操作
者はモニタ19上のカーソルの表示を見て座標入力装!
!12を操作し、これを所望の位置にもっていき、設定
できたならば、座標入力装置12に装着した指令スイッ
チ15より指令をディスプレイ装置11に送る。カーソ
ル発生装置17はその指令を受け取り、座標値を中央処
理装置8に送る。以上の操作を人間が次々と繰り返し輪
郭線の複数個の代表点を指定して行きこれに対応する画
素座標が中央処理装置8に与えられる。
It is displayed on the CRT monitor 19 by the DA converter w18. At this time, the cursor is displayed superimposed on the image. The operator looks at the cursor displayed on the monitor 19 and uses the coordinate input device!
! 12 to bring it to a desired position, and when the setting is completed, a command is sent to the display device 11 from a command switch 15 attached to the coordinate input device 12. The cursor generator 17 receives the command and sends the coordinate values to the central processing unit 8. A person repeats the above operations one after another to designate a plurality of representative points of the contour line, and the corresponding pixel coordinates are provided to the central processing unit 8.

次に上記指示された代表点の連続するものを直線で結び
、これを抽出領域と背景との境界線とする。
Next, consecutive representative points designated above are connected with a straight line, and this is used as a boundary line between the extraction area and the background.

次にこの境界線データを用いて中央処理装置8は対象画
像の各画素について抽出領域の内部であるか否かを判定
する。内部の画素については原画像の画素強度値をその
まま別の画像メモリ20に格納する。これにより原画像
から着目領域の切り出しが行なわれたことになる。
Next, using this boundary line data, the central processing unit 8 determines whether or not each pixel of the target image is inside the extraction area. For internal pixels, the pixel intensity values of the original image are stored as they are in another image memory 20. This means that the region of interest has been cut out from the original image.

次に、背景画像のボカシ処理について説明する。Next, background image blurring processing will be explained.

まず、対象画像から着目領域の切り出し処理を済ませた
後、画像メモリ16に格納しである対象画像の画像デー
タを中央処理装置8に取り込み、ボカシ処理を施して行
き、処理された画像は画像メモリ16に再び格納される
。また、この画像はDA変換装置18を介してCRTモ
ニタ19に表示される。この表示された画像を人間が見
て、ボカシの強弱を判断し、最適なボカシ強度となるま
で上記操作を繰り返す。
First, after cutting out a region of interest from the target image, the image data of the target image stored in the image memory 16 is loaded into the central processing unit 8, where it is subjected to blurring processing, and the processed image is stored in the image memory. 16 is stored again. Further, this image is displayed on the CRT monitor 19 via the DA converter 18. A person looks at the displayed image, determines the strength of blurring, and repeats the above operation until the optimal blurring strength is achieved.

ここで、ボカシ処理は、ローパスフィルタを用いて画像
の平滑化を行なう処理である。画像の強度をx(i* 
j)、ただしくi、j)は画素座標とする。この時求め
たい画素座標(1’lJ’)の平滑画素値マ(i’ #
 J’ )は、なるマスク処理にてまる。ただし、Mは
MXMのマスクの大ぎさを指定するパラメータであり、
W (k、 fi)は重みである。従って、マスクのサ
イズMを大きく設定することにより、平滑化の強度も強
まり、さらに、重みW(k、Q)の設定によっても平滑
化の強度を操作することが可能である。このため、空間
フィルタであるマスクの大きさMと1重みW(k、fi
)をパラメータとして、コンソール9より入力し、ボカ
シ強度を設定している。
Here, the blurring process is a process of smoothing an image using a low-pass filter. Let the intensity of the image be x(i*
j), where i and j) are pixel coordinates. At this time, the smoothed pixel value map (i'#
J') is determined by the mask processing. However, M is a parameter that specifies the size of the MXM mask,
W (k, fi) are weights. Therefore, by setting the mask size M large, the strength of smoothing is also increased, and furthermore, it is possible to manipulate the strength of smoothing by setting the weight W(k, Q). Therefore, the size M of the mask, which is a spatial filter, and the 1 weight W(k, fi
) is input from the console 9 as a parameter to set the blur strength.

以上、ボカシ処理を施し、最適な背景のボカシ画像が得
られたならば、切り出しを行なった時の境界線データを
用いて中央処理袋N8は、境界線内部であるならば、切
り出し画像データの格納しである画像メモリ20の画素
データを、外部であるならば、ボカシ処理を施した画像
の格納しである画像メモリ16の画素データを取り出す
処理を施し1枚の画像を合成し1画像メモリ16に格納
する。
After performing the blurring process and obtaining an optimal background blurred image, the central processing bag N8 uses the boundary line data at the time of cutting out, and if it is inside the boundary line, the central processing bag N8 If the pixel data is stored in the image memory 20, and if it is external, then the pixel data in the image memory 16, which is the storage area for the blurred image, is processed and combined into one image. 16.

次に、合成された画像をCRTモニタ19に表示し、境
界線上4や細部5のボカシを、CRTモニタ19を見な
がら、座標入力装置12を操作してボカス位置を選定し
、設定された座標位置の画素について(1)式と同様の
平滑化マスク処理を施こす。これより境界線や、細部の
ボカシができる。
Next, the synthesized image is displayed on the CRT monitor 19, and while looking at the CRT monitor 19, the focus position is selected by operating the coordinate input device 12, and the set coordinates are Smoothing mask processing similar to equation (1) is performed on the pixels at the position. This allows you to blur borders and details.

以上の操作を行なうことにより請求める背景ボカシ画像
が得られる。これらの操作手順のフローを第8図に示す
By performing the above operations, a desired background blurred image can be obtained. The flow of these operating procedures is shown in FIG.

以上のべた実施例では、境界線の指定を人手で行なった
が、次のようにして半自動的に境界線を抽出することも
できる。
In the embodiments described above, the boundary lines were specified manually, but the boundary lines can also be extracted semi-automatically as follows.

指定領域の切り出しは、直線近似により、オペレータが
モニタを見ながら切り出しを行なった後、上記ボカシ処
理を行うことも可能であるが、ここでは、オペレータが
、指定領域の粗輪郭上のいくつかの点を指定するだけで
あとは、計算機が自動的に領域境界を検出する方法につ
いて説明する。
It is also possible to cut out the specified area by linear approximation, and then perform the above-mentioned blurring process after the operator performs the cutting while looking at the monitor. We will explain how the computer automatically detects the area boundary by simply specifying a point.

第9図が対象とする原画像27とする。特定領域(対象
物29)を原画像27から抽出するためには、対象物2
9と背景28との境界である第10図に示す輪郭線30
が得られれば、これを用いて原画像の各画素が輪郭線3
0の内部にあるか否かの判定により、対象物29を抽出
することができる。また逆に、切り出した対象物を元の
原画像の位置に組み込む場合も、この輪郭線30の位置
データで判定して行う。従ってこの輪郭630の抽出方
法について説明する。第11図に示すごとく原画像27
の中で着目領域の輪郭上の代表点を複数個、人間が指示
する。これを31−1゜31−2.・・・・・・3l−
n(全体でn個)とする。
It is assumed that FIG. 9 is the original image 27 targeted. In order to extract the specific area (target object 29) from the original image 27, the target object 2
9 and the background 28 as shown in FIG.
If this is obtained, each pixel of the original image can be transformed into a contour line 3 using this
The target object 29 can be extracted by determining whether it is within 0 or not. Conversely, when the cut-out object is to be incorporated into the position of the original image, the position data of the contour line 30 is used for determination. Therefore, a method for extracting this contour 630 will be explained. Original image 27 as shown in FIG.
A human designates multiple representative points on the contour of the region of interest. This is 31-1°31-2. ...3l-
n (total n pieces).

この指示は、以下に述べる計算機による輪郭線自動抽出
処理の入力となるものであり、必らずしも高い指示精度
は要求されない。次に上記指示された代表点の連続する
ものの間を計算機が直線32で結ぶ。これを粗輪郭線と
呼ぶ。次にこの粗輪郭線32上の各画素について、以下
の処理を行なう。
This instruction serves as an input for automatic contour line extraction processing by a computer, which will be described below, and does not necessarily require high instruction accuracy. Next, the computer connects consecutive representative points indicated above with a straight line 32. This is called a rough contour line. Next, the following processing is performed for each pixel on this coarse contour line 32.

代表点33を例にとって説明する。This will be explained by taking the representative point 33 as an example.

点33において粗輪郭a32に直交する検査線分34を
考える。線分34の端点35,36間の画素数Ωは所定
の値をとる。この線分34の上で各画素の強度を、次の
ようにして検査し、正しい輪郭点すなわち、着目領域と
背景との境界線上にある点37を検出する。
Consider an inspection line segment 34 that is orthogonal to the rough contour a32 at a point 33. The number of pixels Ω between the end points 35 and 36 of the line segment 34 takes a predetermined value. The intensity of each pixel on this line segment 34 is inspected as follows, and a correct contour point, that is, a point 37 on the boundary line between the region of interest and the background is detected.

第(2図は線分34上の画素の強度変化を示す。FIG. 2 shows intensity changes of pixels on line segment 34.

この例では着目領域121の画素強度が大きく(すなわ
ち明るく)、背景領域122の強度が小さい(すなわち
暗い)、シたがって2領域の境界点は画素強度から点3
7であることがわかる。この点は第13図に示すごとく
、第12図の強度変化の線分34方向の微分値の絶対値
が最大となる点としてめられる。
In this example, the pixel intensity of the region of interest 121 is large (that is, bright), and the intensity of the background region 122 is small (that is, dark).
It turns out that it is 7. As shown in FIG. 13, this point is taken as the point where the absolute value of the differential value of the intensity change in the direction of line segment 34 in FIG. 12 is maximum.

以上の処理を粗輪郭線32上の各画素点33について行
なって得られた点37をつなぐことにより所望の輪郭線
が得られる。この時、粗輪郭線32上のすべての点につ
いて上記の操作を行う必要はなくある間隔ごとに輪郭点
をめていってもよい。
By performing the above processing for each pixel point 33 on the rough contour line 32 and connecting the obtained points 37, a desired contour line can be obtained. At this time, it is not necessary to perform the above operation for all points on the rough contour line 32, and contour points may be set at certain intervals.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、背景のボカシ処理の操作が簡単に、し
かも、所望しているボカシ強度をモニタを見ながら適切
に指定できるので、従来の熟練者のみが時間をかけて行
なっていたボカシ処理等の写真画像処理のコスト低減効
果がある。
According to the present invention, background blurring can be easily performed, and the desired blurring strength can be appropriately specified while looking at the monitor. It has the effect of reducing the cost of photographic image processing such as.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は処理対象画像、第2図は対象物抽出後の背景画
像、第3図は背景画像にボカシ処理を施した画像、第4
図は背景ボカシ画像に抽出領域を組込んだ画像、第5図
は完成画像、第6図は画像処理装置の全体構成図、第7
図は画像ディスプレイの構成図、第8図は背景ボカシ処
理のフローチャート、第9図は処理対象画像、第10図
は第9図の輪郭線、第11図は輪郭線の自動抽出方法を
示す図、第12図は線分34の画素強度分布図。 第13図は第12図の微分値を示す図である。 1・・・対象物、2・・・背景、3・・・ぼかした背景
、4・・・境界線、5・・・ボカシ処理が未処理の部分
、6・・・入力画像、7・・・画像入力装置、8・・・
中央処理装置、9・・・コンソール、10・・・記憶装
置、11・・・画像ディスプレイ装置、12・・・座標
入力装置、13・・・画像出力装置、14・・・出力画
像、15・・・スイッチ、16・・・画像メモリ、17
・・・カーソル発生装置、18・・・DA変換装置、1
9・・CRTモニタ、20・・・画像メモリ、27・・
・原画像、28・・・背景、29・・・対象物、30・
・・輪郭線、31・・・代表点、32・・・粗輪郭線、
33・・・粗輪郭線上の点、34・・・検査線分、37
・・・輪郭点。 Mt 口 第2図 !!It 図 に 閉 7 図 66 21 第 8 (2) YI 9 目 輩10 ロ
Figure 1 is the image to be processed, Figure 2 is the background image after object extraction, Figure 3 is the image obtained by blurring the background image, and Figure 4 is the image to be processed.
The figure shows an image in which the extraction area is incorporated into the background blurred image, Figure 5 is the completed image, Figure 6 is the overall configuration diagram of the image processing device, and Figure 7
The figure is a configuration diagram of the image display, Figure 8 is a flowchart of background blurring processing, Figure 9 is the image to be processed, Figure 10 is the outline of Figure 9, and Figure 11 is a diagram showing the automatic extraction method of the outline. , FIG. 12 is a pixel intensity distribution diagram of line segment 34. FIG. 13 is a diagram showing the differential values of FIG. 12. 1...Target, 2...Background, 3...Blurred background, 4...Border line, 5...Unprocessed portion of blurring, 6...Input image, 7...・Image input device, 8...
Central processing unit, 9... Console, 10... Storage device, 11... Image display device, 12... Coordinate input device, 13... Image output device, 14... Output image, 15. ...Switch, 16...Image memory, 17
... Cursor generator, 18... DA converter, 1
9... CRT monitor, 20... Image memory, 27...
・Original image, 28...Background, 29...Object, 30・
...Contour line, 31...Representative point, 32...Rough contour line,
33...Point on rough contour line, 34...Inspection line segment, 37
...Contour points. Mt Mouth Figure 2! ! It Close to Figure 7 Figure 66 21 No. 8 (2) YI 9 Junior 10 Ro

Claims (1)

【特許請求の範囲】 1、画像入力装置と出力装置と処理装置とから成る画像
処理システムに於て、境界線により背景領領を指定し、
指定された領域に限って空間フィルタを施こすことによ
り背景のぼかしを対話的に行なうことを特徴とする画像
の修正方式。 2、上記背景領域は粗く指定した境界線を用いて、画像
強度の変化率から背景領域の境界線を検出し、該境界線
から背景領域を精密かつ半自動的に指定することを特徴
とする第1項の画像の修正方式。
[Claims] 1. In an image processing system comprising an image input device, an output device, and a processing device, a background area is specified by a boundary line,
An image correction method characterized by interactively blurring the background by applying a spatial filter only to a specified area. 2. The background area is characterized in that the boundary line of the background area is detected from the rate of change in image intensity using a rough specified boundary line, and the background area is precisely and semi-automatically specified from the boundary line. Image correction method in Section 1.
JP59080184A 1984-04-23 1984-04-23 Image correction method Expired - Lifetime JPH0614339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59080184A JPH0614339B2 (en) 1984-04-23 1984-04-23 Image correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59080184A JPH0614339B2 (en) 1984-04-23 1984-04-23 Image correction method

Publications (2)

Publication Number Publication Date
JPS60225280A true JPS60225280A (en) 1985-11-09
JPH0614339B2 JPH0614339B2 (en) 1994-02-23

Family

ID=13711276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59080184A Expired - Lifetime JPH0614339B2 (en) 1984-04-23 1984-04-23 Image correction method

Country Status (1)

Country Link
JP (1) JPH0614339B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62182977A (en) * 1986-02-07 1987-08-11 Casio Comput Co Ltd Soft focus system for image data
JPS6488884A (en) * 1987-09-30 1989-04-03 Fujitsu Ltd System for controlling color mixing processing
JPH0581429A (en) * 1991-09-18 1993-04-02 Personal Joho Kankyo Kyokai Detection of picture segmentation position and segmenting device
CN105141858A (en) * 2015-08-13 2015-12-09 上海斐讯数据通信技术有限公司 Photo background blurring system and photo background blurring method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5814270A (en) * 1981-07-17 1983-01-27 Fuji Photo Film Co Ltd Picture scanning and recording method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5814270A (en) * 1981-07-17 1983-01-27 Fuji Photo Film Co Ltd Picture scanning and recording method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62182977A (en) * 1986-02-07 1987-08-11 Casio Comput Co Ltd Soft focus system for image data
JPS6488884A (en) * 1987-09-30 1989-04-03 Fujitsu Ltd System for controlling color mixing processing
JPH0581429A (en) * 1991-09-18 1993-04-02 Personal Joho Kankyo Kyokai Detection of picture segmentation position and segmenting device
CN105141858A (en) * 2015-08-13 2015-12-09 上海斐讯数据通信技术有限公司 Photo background blurring system and photo background blurring method

Also Published As

Publication number Publication date
JPH0614339B2 (en) 1994-02-23

Similar Documents

Publication Publication Date Title
US6094511A (en) Image filtering method and apparatus with interpolation according to mapping function to produce final image
US8380002B2 (en) Method for dynamic range editing
US5596346A (en) Method and apparatus for applying a function to a localized area of a digital image using a window
EP1412920B1 (en) A general purpose image enhancement algorithm which augments the visual perception of detail in digital images
EP0580365B1 (en) Color image processing method
US6943829B2 (en) Imaging apparatus controller and control method thereof, image processing apparatus and method thereof, and program code and storage medium
JP4443064B2 (en) Method and apparatus for performing local color correction
JP2007525770A (en) Technology to form a single image from multiple overlapping images
JP2002044473A (en) Image-processing method, image-processing device, and record medium with program for executing image- processing method stored thereon
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP2004199248A (en) Image layouting device, method and program
JPH1091761A (en) Picture processor
US20040247197A1 (en) Correction parameter determining method, correction parameter determining apparatus, computer program, and recording medium
JPS60225280A (en) Correcting system of picture
JP3492151B2 (en) Image sharpness processing method and apparatus, and storage medium storing program
JP2005038119A (en) Image processing apparatus and method
JPH08111816A (en) Medical image display device
JP3473832B2 (en) Digital image automatic correction method and system
JPH09212626A (en) Image editing method and device therefor
JP2973432B2 (en) Image processing method and apparatus
JPS63106872A (en) Image processor
JP2887255B2 (en) Image synthesis device
JPS60169977A (en) Segmenting method of picture area
JP7012457B2 (en) Image processing device, image processing method
JP2878730B2 (en) Image display device