JPH07288685A - Image processing unit - Google Patents

Image processing unit

Info

Publication number
JPH07288685A
JPH07288685A JP7067231A JP6723195A JPH07288685A JP H07288685 A JPH07288685 A JP H07288685A JP 7067231 A JP7067231 A JP 7067231A JP 6723195 A JP6723195 A JP 6723195A JP H07288685 A JPH07288685 A JP H07288685A
Authority
JP
Japan
Prior art keywords
data
image
image data
processing
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7067231A
Other languages
Japanese (ja)
Inventor
Masaru Kawase
大 川瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7067231A priority Critical patent/JPH07288685A/en
Publication of JPH07288685A publication Critical patent/JPH07288685A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To improve the image quality of a binarized image by using a digital spatial filter means in common for edge emphasis processing and noise elimination processing effects and for image processing effect selection so as to reduce the entire circuit scale. CONSTITUTION:Four-line data are given to filters 201A, 201B to extract an edge component, image area separate sections 202A, 202B discriminate whether the data are an image including binary information such as a character of an input image or an image such as a background based on edge component data from the filters and provide an output of the result to changeover switches 205A, 205B. An adder 203A adds one of the four-line data and output data from the filter 201A to apply the sum to the switch 205A as image data whose edge component is emphasized. Then a subtractor 204A subtracts the data and the output of the filter 201A to unsharpen the edge and provides the result to other input terminal of the switch 205A as data whose noise component is suppressed and the data are compared with a threshold level and binarized data are outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像取扱装置に関し、
特に高速処理を可能とするとともにメモリ容量を削減し
た画像取扱装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image handling device,
In particular, the present invention relates to an image handling device capable of high-speed processing and having a reduced memory capacity.

【0002】[0002]

【従来の技術】文書情報、黒板や白板に記載された情報
を撮影し、2値の画像情報に変換して出力したり、メモ
リに記憶させる画像取扱装置としてはファクシミリやコ
ピー機械等がある。この種の画像取扱装置では、画像情
報を取り込むため、ラインセンサとしてCCD等の光電
変換素子を用い、副走査方向に光学的または機構的に走
査している。
2. Description of the Related Art Facsimile machines, copying machines, etc. are used as image handling devices for photographing document information, information written on a blackboard or a white board, converting it into binary image information and outputting it, and storing it in a memory. In this type of image handling apparatus, in order to capture image information, a photoelectric conversion element such as a CCD is used as a line sensor to optically or mechanically scan in the sub-scanning direction.

【0003】[0003]

【発明が解決しようとする課題】上述のように、従来の
画像取扱装置は、ラインセンサを副走査方向に光学的、
機構的に走査して2次元の画像情報を取り込んでいる。
したがって、画像情報の取り込みには時間がかかり、高
速取り込み処理の面で問題がある。
As described above, in the conventional image handling apparatus, the line sensor is optically arranged in the sub-scanning direction.
It mechanically scans and captures two-dimensional image information.
Therefore, it takes time to capture image information, and there is a problem in terms of high-speed capture processing.

【0004】そこで、本発明の目的は、メモリ容量を最
小限に抑えつつ高速な画像情報の取り込みが可能な画像
取扱装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image handling apparatus capable of capturing image information at high speed while keeping the memory capacity to a minimum.

【0005】[0005]

【課題を解決するための手段】前述の課題を解決するた
めに本発明の画像取扱装置は、当該供給されたディジタ
ルコード化されてなる画像データたる第1のデータに基
づいて当該画像の空間周波数の高い度合いを表す第2の
データを得るためのディジタル空間フィルタ手段と、上
記第1のデータに対し上記第2のデータを和動的に作用
させることにより画像のエッジを強調する効果が加えら
れた画像データたる第3のデータを得るエッジ強調処理
手段と、上記第1のデータに対し上記第2のデータを差
動的に作用させることにより画像の高周波ノイズを除去
する効果が加えられた画像データたる第4のデータを得
るノイズ除去処理手段と、上記第2のデータに基づいて
上記第3のデータ又は第4のデータのいずれかを選択的
に導出するための画像処理効果選択手段とを備えた画像
取扱装置において、当該供給されたディジタルコード化
されてなる多値画像データ乃至当該この多値画像データ
に相応するデータに対し一定の閾値レベルに基づいて2
値化する処理を施してなる第1の2値コード化画像デー
タを得る第1の2値コード化画像データ形成手段と、上
記多値画像データ乃至該この多値画像データに相応する
データに基づいて疑似中間調2値コード化処理を施して
なる第2の2値コード化画像データを得る第2の2値コ
ード化画像データ形成手段と、上記ディジタルコード化
されてなる多値画像データ乃至該この多値画像データに
相応するデータに基づいて上記第1の2値コード化画像
データ又は第2の2値コード化画像データのいずれかを
適応的に選択して導出するための画像2値化処理選択手
段と、を備えて構成される。
In order to solve the above-mentioned problems, the image handling apparatus of the present invention has a spatial frequency of the image based on the supplied first data which is digital coded image data. And a digital spatial filter means for obtaining second data representing a high degree of the image data, and an effect of emphasizing an edge of an image by adding the second data to the first data in a dynamic manner. Edge enhancement processing means for obtaining third data, which is image data, and an effect of removing high frequency noise of the image by differentially acting the second data on the first data Noise removal processing means for obtaining fourth data, which is data, and for selectively deriving either the third data or the fourth data based on the second data. In the image handling device including an image processing effect selection means, on the basis of the multivalued image data to the formed by digital coded is the supplied to the data corresponding to the multivalued image data to a certain threshold level 2
Based on the first binary coded image data forming means for obtaining the first binary coded image data which has been subjected to the value conversion process, and the multivalued image data or data corresponding to the multivalued image data. Second binary coded image data forming means for obtaining second binary coded image data which has been subjected to pseudo halftone binary coding processing, and the digitally coded multi-valued image data or Image binarization for adaptively selecting and deriving either the first binary coded image data or the second binary coded image data based on data corresponding to the multi-valued image data. And a processing selection unit.

【0006】[0006]

【作用】本発明では、上述のように、デジタル空間フィ
ルタ手段をエッジ強調処理及びノイズ除去処理効果を得
るためと、画像処理効果選択(像域分離)のため、とに
共用している。
In the present invention, as described above, the digital spatial filter means is used both for obtaining the edge enhancement processing and noise removal processing effects and for selecting the image processing effect (image area separation).

【0007】[0007]

【実施例】次に、本発明の実施例について図面を参照し
ながら説明する。図1は、本発明に関連する画像取扱装
置の一例を示す構成ブロック図である。本例では、ミラ
ーをスキャンして取込画像を複数領域に分割して2枚の
イメージャー(CCD)から成る2板光学系で取り込
む。例えば、図2(A)に示すように、領域A,B,
C,Dの画像を取り込むのに、ミラー1Aをa,b,
c,dの位置にくるように、ステップ状に回転させて、
A,B,C,Dの各分割領域の画像情報をレンズ、光学
系1Bを介してイメージャに取り込む。このとき、同図
(B)に示すように、イメージャIA とIB が縦方向に
配設され(2板光学系)、各分割領域の上下2分割の画
像が取り込まれる。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a configuration block diagram showing an example of an image handling apparatus related to the present invention. In this example, the mirror is scanned and the captured image is divided into a plurality of regions and captured by a two-plate optical system including two imagers (CCD). For example, as shown in FIG. 2A, areas A, B,
To capture the images of C and D, use the mirror 1A with a, b,
Rotate in steps so that they come to positions c and d,
The image information of each divided area of A, B, C and D is taken into the imager through the lens and the optical system 1B. At this time, as shown in FIG. 7B, imagers IA and IB are arranged in the vertical direction (two-plate optical system), and the upper and lower two-divided images of each divided area are captured.

【0008】2板光学系2は、例えば、図3に示すよう
に、赤外カット、光学LPF特性をもつレンズ2Aを介
して入射される画像が、ハーフプリズム2Bを通り、透
過光がイメージャIB に上下左右対称に結像されるとと
もに、ハーフプリズム2Bで反射され、ミラーより反転
された画像がイメージャIA に結像される。
In the two-plate optical system 2, for example, as shown in FIG. 3, an image incident through a lens 2A having an infrared cutoff and an optical LPF characteristic passes through a half prism 2B, and transmitted light passes through an imager IB. The image is formed symmetrically in the vertical and horizontal directions, is reflected by the half prism 2B, and is inverted by the mirror to be imaged on the imager IA.

【0009】2板光学系2から出力されるイメージャI
A とIB の各出力信号は、それぞれモノクロプロセス部
3Aと3Bで所定の処理が施されて映像信号に変換さ
れ、フレームバッファ4に記憶される。フレームバッフ
ァ4は、メモリコントロール部14により書込/読出ア
ドレスが制御される。フレームバッファ4からは、2枚
のイメージャIA とIB からの画像データがイメージャ
の配設関係のズレが補償された合成データが出力され
る。
Imager I output from the two-plate optical system 2
The respective output signals of A and IB are subjected to predetermined processing in the monochrome process sections 3A and 3B, converted into video signals, and stored in the frame buffer 4. The write / read address of the frame buffer 4 is controlled by the memory control unit 14. The frame buffer 4 outputs composite data of the image data from the two imagers IA and IB in which the deviation in the arrangement relationship of the imagers is compensated.

【0010】補間部5は、フレームバッファ4から読み
出された画像データに基づいて補間処理を行なって1枚
の画像情報データを出力する。補間部5からの画像デー
タは、ガンマ補正部6で、ガンマ補正され、擬似中間調
処理部7で中間調処理が施されて、切換スイッチ10に
送出される。
The interpolation section 5 performs interpolation processing based on the image data read from the frame buffer 4 and outputs one piece of image information data. The image data from the interpolation unit 5 is gamma-corrected by the gamma correction unit 6, subjected to halftone processing by the pseudo halftone processing unit 7, and sent to the changeover switch 10.

【0011】エッジ強調部8は、補間部5からの出力デ
ータについて、文字や線画等の画像のような白黒部分を
明瞭化するためのエッジ強調処理を施し、エッジ強調さ
れたデータは、2値化部9において、CPU13から供
給されるスレッシュレベルと比較され、2値化処理が施
される。AF,AE情報抽出部11は、補間部5からの
画像データに基づいて、合焦制御のためのAF情報や露
光制御のためのAE情報を抽出してCPU13に送出し
て、2板光学系のレンズ系を駆動制御せしめる。
The edge emphasizing unit 8 performs an edge emphasizing process on the output data from the interpolating unit 5 in order to clarify a black and white part such as an image such as a character or a line drawing. The binarization unit 9 compares the threshold level supplied from the CPU 13 and performs binarization processing. The AF / AE information extraction unit 11 extracts AF information for focus control and AE information for exposure control based on the image data from the interpolation unit 5 and sends the AF information to the CPU 13 to output the two-plate optical system. Drive the lens system of.

【0012】像域分離部12は、CPU13の制御後、
補間部5からの画像データに基づいて取り込んだ画像
が、背景や写真のような中間調を含むものか、文字のよ
うな2値画像かを判定し、判定結果で切換スイッチ10
を制御する。すなわち、切換スイッチ10は、取込画像
が中間調を含む画像であれば、擬似中間調処理部7から
の出力を、2値画像であれば、2値化部9からの出力を
それぞれ出力する。
After the control of the CPU 13, the image area separating section 12
It is determined whether the image captured based on the image data from the interpolation unit 5 includes a halftone such as a background or a photograph, or a binary image such as a character, and the changeover switch 10 is determined based on the determination result.
To control. That is, the change-over switch 10 outputs the output from the pseudo-halftone processing unit 7 if the captured image is an image including a halftone, and the output from the binarization unit 9 if the captured image is a binary image. .

【0013】境界バッファ16は、メモリコントロール
15の制御を受け、2値化部9からの出力データを記憶
する。境界バッファ16からの、予測されるミラースキ
ャンにより取り込まれる隣り合う2つの画像(図2の例
では、画像A部とB部)の重なり部分が読み出されて相
関検出部17にて相関が検出される。ずれ算出部18
は、相関検出部17で検出された相関情報に基づいて取
り込まれる画像間のずれ量(例えば、水平方向のずれ
x、垂直方向のずれy、回転方向のずれθ)を算出し、
メモリコントロール部14に供給する。
The boundary buffer 16 receives the control of the memory control 15 and stores the output data from the binarizing unit 9. The overlapping portion of two adjacent images (images A and B in the example of FIG. 2) captured by the predicted mirror scan is read from the boundary buffer 16 and the correlation is detected by the correlation detector 17. To be done. Deviation calculation unit 18
Is the shift amount between the images captured based on the correlation information detected by the correlation detection unit 17 (for example, horizontal shift x, vertical shift y, rotational shift θ),
It is supplied to the memory control unit 14.

【0014】メモリコントロール部14は、CPU13
から供給されるイメージャのずれ量と、ずれ算出部18
からのずれ情報に基づいて、これらのずれを補償する読
出アドレスをフレームバッファ4に供給する。
The memory control unit 14 includes a CPU 13
The amount of deviation of the imager supplied from the
Based on the deviation information from, the read address that compensates for these deviations is supplied to the frame buffer 4.

【0015】切換スイッチ10から出力される画像デー
タは、CPU20の制御を受け、圧縮部19でファクシ
ミリ等で周知の圧縮処理が施され、カードインタフェー
ス(I/F)21を介してカードに記憶される。
The image data output from the change-over switch 10 is controlled by the CPU 20, subjected to a compression process well known in a facsimile or the like in the compression unit 19, and stored in the card via the card interface (I / F) 21. It

【0016】図4には、モノクロプロセス部3Aと3B
の構成ブロック図が示されている。イメージャーIA の
処理系であるイメージャー31Aからの出力は、相関二
重サンプリング(CDSI)部32Aでサンプリングさ
れ、AGCI部33Aでゲインが調整された後、クラン
プI部34Aで黒レベルがクランプされた後、A/Dコ
ンバータ(ADCI)35Aでデジタルデータに変換さ
れる。イメージャーIB の処理系であるイメージャー3
1B、相関二重サンプリング(CDSII)部32B、
AGC部33B、クランプII部34B及びA/Dコン
バータ(ADCII)35Bは、イメージャーIA の処
理系と同様機能を有する。
FIG. 4 shows the monochrome process units 3A and 3B.
The configuration block diagram of is shown. The output from the imager 31A, which is the processing system of the imager IA, is sampled by the correlated double sampling (CDSI) unit 32A, the gain is adjusted by the AGCI unit 33A, and then the black level is clamped by the clamp I unit 34A. After that, it is converted into digital data by an A / D converter (ADCI) 35A. Imager 3 which is the processing system of Imager IB
1B, correlated double sampling (CDSII) unit 32B,
The AGC unit 33B, the clamp II unit 34B, and the A / D converter (ADCII) 35B have the same functions as the processing system of the imager IA.

【0017】これら両系の各部の動作は、クロックCL
K1に応答する信号発生部(SSG)37からの同期信
号に基づいて動作するタイミングジェネレータ(TG
I)36Aと(TGII)36Bから発生されるタイミ
ング信号で規定される。
The operation of each part of these two systems is performed by the clock CL.
A timing generator (TG) that operates based on a synchronization signal from a signal generator (SSG) 37 that responds to K1.
I) 36A and (TGII) 36B.

【0018】図5には図1に示す装置の動作タイミング
チャートが示されている。図5の上部数字0〜30は、
フィールド番号を示す。フィールドは、偶数Eフィール
ドと奇数Oフィールドの交互フィールドとなる。VDは
垂直同期信号を示す。
FIG. 5 shows an operation timing chart of the apparatus shown in FIG. The upper numbers 0 to 30 in FIG.
Indicates the field number. The fields are alternating fields of even E fields and odd O fields. VD indicates a vertical synchronizing signal.

【0019】イメージャーの露光、イメージャーの奇数
フィールド、偶数フィールドの読み出し、フレームバッ
ファへの書き込み(W)、2値化処理、境界バッファへ
の書き込み(W)、相関検出及びミラースキャンの動作
が行なわれる。図2の例では、領域A部から領域D部へ
の4回のイメージャー露光が完了するフレーム番号24
で最終画面の取り込みが完了し、後処理の後、メモリカ
ードへの書き込みはフレーム番号30で開始される。そ
の結果、約0.5秒の時間で画像の取り込みが完了し、
高速化が可能となる。
The operations of imager exposure, imager odd field and even field reading, frame buffer writing (W), binarization processing, boundary buffer writing (W), correlation detection and mirror scan are performed. Done. In the example of FIG. 2, the frame number 24 for which the imager exposure from the area A to the area D is completed four times is 24.
Then, after the final screen is captured, after the post-processing, writing to the memory card is started at frame number 30. As a result, the image acquisition is completed in about 0.5 seconds,
Higher speed is possible.

【0020】図6は、本発明に関連する画像取扱装置の
構成ブロック図を示しており、この例は上述例と比較し
てメモリ容量を削減できる。本例は、図4と同様に2つ
のイメージャーの各系毎に同様な回路構成を有するが、
以下の説明はAイメージャーIA 系についてのみ説明す
る。
FIG. 6 is a block diagram showing the configuration of the image handling apparatus according to the present invention, and this example can reduce the memory capacity as compared with the above example. This example has the same circuit configuration for each system of the two imagers as in FIG.
The following description will focus on the A Imager IA system.

【0021】イメージャーIA としてのCCD101A
からの出力は、相関二重サンプリング部102Aを経
て、A/Dコンバータ103Aでデジタルデータに変換
された後、フィールドメモリ104Aに書き込まれる。
エリア積分部105Aは、当該デジタル画像データに基
づいて周知のエリア積分処理を施してAEデータを生成
してCPU113に供給する。
CCD 101A as imager IA
The output from is passed through the correlated double sampling section 102A, converted into digital data by the A / D converter 103A, and then written into the field memory 104A.
The area integration unit 105A performs well-known area integration processing based on the digital image data to generate AE data, and supplies the AE data to the CPU 113.

【0022】1H遅延部(DL)106Aと107A
は、フィールドメモリ104Aからの出力とA/Dコン
バータ103Aからの出力をそれぞれ1Hだけ時間遅延
して出力する。スレッシュレベル生成部108Aは、エ
リア積分部105Aからのデータに基づいて2値化のた
めのスレッシュレベルを生成して、2値化デイザ部10
9Aに送出する。2値化デイザ部109Aは、入力され
る前後4ラインの情報に基づいて2値化、デイザ処理を
行ない、メモリコントロール部114の制御を受けてそ
の結果をメモリ110Aに記憶させる。
1H delay units (DL) 106A and 107A
Outputs the output from the field memory 104A and the output from the A / D converter 103A with a time delay of 1H. The threshold level generation unit 108A generates a threshold level for binarization based on the data from the area integration unit 105A, and the binarization dither unit 10
9A. The binarization dither unit 109A performs binarization and dither processing based on the inputted information of four lines before and after, and stores the result in the memory 110A under the control of the memory control unit 114.

【0023】こうしてメモリ110Aと110Bから読
み出されたCCD101Aと101Bで取り込み、処理
された画像データは、切換スイッチ115で切り換え出
力されて一枚の画像を生成すべく、貼合せ、圧縮処理、
カードインタフェース機能を有する処理部116を介し
てカード117に書き込まれる。
The image data captured and processed by the CCDs 101A and 101B read out from the memories 110A and 110B in this way are combined and compressed in order to generate a single image by being output by the changeover switch 115.
It is written in the card 117 via the processing unit 116 having a card interface function.

【0024】本例を図1に示す例と比較すると、フレー
ムメモリの代わりにフィールドメモリ104A、104
Bが用いられ、メモリ110Aには2値化データが記憶
されるので、図1の構成と比較して略半分のメモリ容量
で目的が達成できる。
Comparing this example with the example shown in FIG. 1, instead of the frame memory, the field memories 104A, 104 are used.
Since B is used and the binary data is stored in the memory 110A, the purpose can be achieved with a memory capacity that is about half that of the configuration of FIG.

【0025】図7には、本例の動作タイミングチャート
が示されている。同図中、下段の番号はフレーム番号を
示している。本例では、フィールドメモリが用いられて
いるため、イメージャーへの蓄積は、奇数(O)フィー
ルド、偶数(E)フィールド毎に行なわれ、イメージャ
ーからの奇数フィールドデータと偶数フィールドデータ
の読出し、フィールドメモリへの書き込み及びエリア積
分処理は、一方のフィールドの蓄積期間中に行なわれ、
2つの画像(AとB)データの処理が終了した後に、両
画像の位置ずれ(x,y,θ)が検出される。また、2
値メモリ110Aへの書き込みとカードへの書き込み、
境界メモリ16への書き込みが図示のタイミングで行な
われる。この様に、2値化処理を2ライン同時に行なう
ことで、より高速の処理が可能となる。
FIG. 7 shows an operation timing chart of this example. In the figure, the lower numbers indicate frame numbers. In this example, since the field memory is used, the storage in the imager is performed every odd (O) field and even (E) field, and the reading of the odd field data and the even field data from the imager is performed. Writing to the field memory and area integration processing are performed during the accumulation period of one field,
After the processing of the two image (A and B) data is completed, the positional deviation (x, y, θ) between the two images is detected. Also, 2
Writing to the value memory 110A and writing to the card,
Writing to the boundary memory 16 is performed at the timing shown. By thus performing the binarization processing on two lines at the same time, higher speed processing becomes possible.

【0026】ミラースキャンは、露光(イメージャへの
蓄積)終了後に直ちに行なうことができ、図2に示すよ
うに、画像領域A〜Dの取り込みは、13フィールド目
に終了し、イメージャーへの蓄積(露光)が完了する。
更に、後処理を経て、16フィールド目にメモリへの書
き込みが開始される。その結果、図5に示すタイミング
チャートと比較しても明らかなように、第1の例の半分
の時間で画像が取り込め、高速化も実施される。
The mirror scan can be performed immediately after the end of exposure (accumulation in the imager), and as shown in FIG. 2, the capture of the image areas A to D is completed in the 13th field, and the accumulation in the imager is completed. (Exposure) is completed.
Further, after post-processing, writing to the memory is started in the 16th field. As a result, as is clear from the comparison with the timing chart shown in FIG. 5, the image can be captured in half the time of the first example, and the speedup can be achieved.

【0027】図8は本発明による画像取扱装置の一実施
例を示す構成ブロック図で、上述例における2値化処理
に特徴を有し、画像品質を改善している。図8におい
て、2つの処理系で同一番号が付されている構成部は同
様機能を有する。
FIG. 8 is a block diagram showing the construction of an embodiment of the image handling apparatus according to the present invention, which is characterized by the binarization processing in the above-mentioned example and improves the image quality. In FIG. 8, the components having the same numbers in the two processing systems have the same function.

【0028】本実施例においては、図6に示す2値化デ
イザ部109Aに供給される前後にわたる4ラインのデ
ータ(0H,1H,2H,3Hのデータ)が、エッジ成
分を抽出するフィルタ(例えば、ラプラシアンフィル
タ)201Aと201Bに入力される。
In the present embodiment, four lines of data (data of 0H, 1H, 2H, 3H) before and after being supplied to the binarization dither unit 109A shown in FIG. , Laplacian filters) 201A and 201B.

【0029】像域分離部202Aと202Bは、フィル
タ201Aと201Bからのエッジ成分データに基づい
て、入力画像が文字等の2値情報を含む画像であるか背
景等の画像であるかを判別し、判別結果を切換スイッチ
205Aと205Bに出力する。加算器203Aは、4
ラインデータのうち一のデータ(本例では、1Hデー
タ)とフィルタ201Aの出力データとを加算してエッ
ジ成分を強調した画像データとして切換スイッチ205
Aの一入力端子に供給する。減算器204Aは、上記一
のデータとフィルタ201Aの出力データとを減算して
エッジをなまらせ、ノイズ成分を抑圧した画像データと
して切換スイッチ205Aの他入力端子に供給する。
The image area separation units 202A and 202B determine whether the input image is an image including binary information such as characters or an image such as a background based on the edge component data from the filters 201A and 201B. , And outputs the determination result to the changeover switches 205A and 205B. The adder 203A is 4
One of the line data (1H data in this example) and the output data of the filter 201A are added to each other, and the changeover switch 205 is used as image data in which edge components are emphasized.
Supply to one input terminal of A. The subtractor 204A subtracts the one data and the output data of the filter 201A to round the edges, and supplies it to the other input terminal of the changeover switch 205A as image data in which a noise component is suppressed.

【0030】切換スイッチ205Aは、像域分離部20
2Aから2値画像であるとの判別信号が供給されると、
加算器203Aの出力を切り換え出力する。また、背景
画像であるとの判別信号が供給されると、減算器204
Aの出力を切り換え出力する。コンパレータ206A
は、切換スイッチ205Aからの出力データを、CPU
から供給されるスレッシュレベルと比較して2値化デー
タを出力する。
The changeover switch 205A is used for the image area separation section 20.
When a discrimination signal that the image is a binary image is supplied from 2A,
The output of the adder 203A is switched and output. Further, when the determination signal that the image is the background image is supplied, the subtractor 204
The output of A is switched and output. Comparator 206A
Output data from the changeover switch 205A to the CPU
And outputs the binarized data in comparison with the threshold level supplied from.

【0031】ガンマデイザ部207Aは、像域分離部2
02Aが中間調画像であると判定しているとき、入力さ
れた1Hデータを疑似中間調処理して出力する。切換ス
イッチ208Aは、像域分離部202Aからの判定信号
に基づいてコンパレータ206Aとガンマデイザ部20
7Aからの出力を切り換え出力する。直並列変換(S/
P)部209Aは、直列データを並列データに変換して
出力する。
The gamma dither unit 207A is the image area separation unit 2
When it is determined that 02A is a halftone image, the input 1H data is subjected to pseudo halftone processing and output. The changeover switch 208A includes a comparator 206A and a gamma dither unit 20 based on the determination signal from the image area separation unit 202A.
The output from 7A is switched and output. Serial-parallel conversion (S /
The P) unit 209A converts serial data into parallel data and outputs the parallel data.

【0032】本実施例では、フィルタ201Aと201
Bを像域分離と画像加工のために共用しているので回路
が小型化される。また、2系統の処理系の代わりに1系
統の処理系とすることもできることは勿論である。
In this embodiment, the filters 201A and 201A
Since B is shared for image area separation and image processing, the circuit can be miniaturized. Further, it goes without saying that one system can be used instead of the two system.

【0033】ところで、上述実施例では、2つのイメー
ジャーにより分割画像を取り込んでいるが、それぞれの
イメージャーが担当する分割領域間で、例えば平均の明
るさの差が生ずることがあり、その場合には、両者で露
光条件が異なり、両分割画像を合成すると両画像間の接
続部において明るさにムラが生ずることがある。
By the way, in the above embodiment, the divided images are captured by the two imagers. However, for example, an average brightness difference may occur between the divided areas in charge of the respective imagers. In some cases, the exposure conditions are different between the two, and when the two divided images are combined, unevenness may occur in the brightness at the connecting portion between the two images.

【0034】そこで、本発明に関連する次の例は、かか
る問題を解決し、イメージャー間の露光のばらつきを補
正するAEデータの生成手法に関するものである。
Therefore, the following example relating to the present invention relates to a method of generating AE data which solves such a problem and corrects the exposure variation between imagers.

【0035】図9は、AEデータによる感度補正データ
作成のタイミングチャートである。本例では、本番の露
光前、1フィールド前のフィールド(−1フィールド番
目)から露光を開始しておき、本番のイメージャー露光
時には2つのイメージャーの露光差が求められる。
FIG. 9 is a timing chart for creating sensitivity correction data based on AE data. In this example, before the actual exposure, the exposure is started from the field one field before (the first field), and the exposure difference between the two imagers is obtained during the actual imager exposure.

【0036】本例は、図10(A)に示すように2つの
イメージャーIA (CCD1)とIB (CCD2)が斜
線部の重複撮像部分がある場合に有効であるが、同図
(B)に示すように、縦方向に重複する場合にも有効で
あることは勿論である。図10の正方形分割エリアは、
明るさ情報をエリア積分により得る領域を示す。
This example is effective when the two imagers IA (CCD1) and IB (CCD2) have overlapping image pickup portions in the shaded area as shown in FIG. 10A, but FIG. Needless to say, it is also effective when overlapping in the vertical direction as shown in FIG. The square division area in FIG.
An area where brightness information is obtained by area integration is shown.

【0037】また、2値化のためのスレッシュレベル
は、上記で得られた明るさ情報に基づいて次のように定
めることができる。すなわち、B1 とB2 及びy1 とy
2 が、イメージャーIA とIB で得られる画像データの
黒レベル及びエリアの明るさデータとすると、係数kと
明るさの差△Bを k=(Y2 −B2 )/(Y1 −B1 ) △B=B2 −B1 で求め、スレッシュレベルT1 とT2 を T2 =k(T1 −B1 )+B2 として定める(図10(C)参照)。
The threshold level for binarization can be determined as follows based on the brightness information obtained above. That is, B1 and B2 and y1 and y
2 is the brightness data of the black level and the area of the image data obtained by the imagers IA and IB, the difference ΔB between the coefficient k and the brightness is k = (Y2-B2) / (Y1-B1) ΔB = B2-B1 and the threshold levels T1 and T2 are defined as T2 = k (T1-B1) + B2 (see FIG. 10C).

【0038】中間調処理を行なうデイザは、例えば、図
11に示すように構成できる。図11において、デイザ
ROM301から読み出されたデータが乗算器302で
振幅乗算された後、加算器303でオフセット値と加算
される。この加算結果は、コンパレータ304で基準信
号となり、入力信号と比較されデイザ出力が得られる。
ここで、上記振幅を広げれば、階調再現域が広がり、オ
フセット値を上げれば黒っぽくなるので、振幅とオフセ
ット値を任意に変化させることによりデイザ出力をコン
トロールすることができる。
The dither for carrying out the halftone processing can be constructed, for example, as shown in FIG. In FIG. 11, the data read from the dither ROM 301 is amplitude-multiplied by the multiplier 302 and then added with the offset value by the adder 303. The result of this addition serves as a reference signal in the comparator 304 and is compared with the input signal to obtain a dither output.
Here, if the amplitude is widened, the gradation reproduction range is widened, and if the offset value is increased, it becomes dark, so that the dither output can be controlled by arbitrarily changing the amplitude and the offset value.

【0039】[0039]

【発明の効果】以上説明したように、本発明による画像
取扱装置では、デジタル空間フィルタ手段がエッジ強調
処理及びノイズ除去処理効果を得るためと、画像処理効
果選択(像域分離)のため、とに共用されるため、全体
として回路規模の縮小化が図られるだけでなく、原画像
の状態に応じて(像域分離)、通常の2値コード化画像
データまたは疑似中間調2値コード化画像データが適応
的に選択され導出されるため、全体として2値化画像の
画質向上が図られる。
As described above, in the image handling apparatus according to the present invention, the digital spatial filter means obtains the edge enhancement processing and the noise removal processing effect and the image processing effect selection (image area separation). Since it is commonly used for image processing, the circuit scale can be reduced as a whole, and the normal binary coded image data or the pseudo halftone binary coded image can be obtained depending on the state of the original image (image area separation). Since the data is adaptively selected and derived, the quality of the binarized image is improved as a whole.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に関連する画像取扱装置の一例を示す構
成ブロック図である。
FIG. 1 is a configuration block diagram showing an example of an image handling apparatus related to the present invention.

【図2】図1の例を説明するための図である。FIG. 2 is a diagram for explaining the example of FIG.

【図3】図1の例を説明するための図である。FIG. 3 is a diagram for explaining the example of FIG. 1.

【図4】図1におけるモノクロプロセス部3Aと3Bの
構成ブロック図である。
FIG. 4 is a configuration block diagram of monochrome process units 3A and 3B in FIG.

【図5】図1に示す例の動作タイミングチャートであ
る。
5 is an operation timing chart of the example shown in FIG. 1. FIG.

【図6】本発明に関連する画像取扱装置の他の構成ブロ
ック図である。
FIG. 6 is another block diagram of the configuration of the image handling apparatus related to the present invention.

【図7】図6に示す例の動作タイミングチャートを示す
図である。
7 is a diagram showing an operation timing chart of the example shown in FIG.

【図8】本発明による画像取扱装置の一実施例を示す構
成ブロック図である。
FIG. 8 is a configuration block diagram showing an embodiment of an image handling apparatus according to the present invention.

【図9】図8に示す実施例の動作タイミングチャートで
ある。
9 is an operation timing chart of the embodiment shown in FIG.

【図10】本発明に関連する画像取扱装置の更に他の構
成ブロック図である。
FIG. 10 is a block diagram of still another configuration of the image handling apparatus related to the present invention.

【図11】図10に示す例を説明する図である。11 is a diagram illustrating the example shown in FIG.

【符号の説明】[Explanation of symbols]

1 ミラースキャン 2 2板光学系 3A,3B モノクロプロセス部 4 フレームバッファ 5 補間部 6 ガンマ補正部 7 疑似中間調処理部 8 エッジ強調部 9 2値化部 10 切換スイッチ 11 AE,AE情報抽出部 12 像域分離部 13,20 CPU 14,15 メモリコントロール部 16 バッファ 17 相関検出部 18 ずれ算出部 19 圧縮部 21 カードインタフェース(I/F) 1 Mirror Scan 2 2 Plate Optical System 3A, 3B Monochrome Process Section 4 Frame Buffer 5 Interpolation Section 6 Gamma Correction Section 7 Pseudo Halftone Processing Section 8 Edge Enhancement Section 9 Binarization Section 10 Changeover Switch 11 AE, AE Information Extraction Section 12 Image area separation unit 13, 20 CPU 14, 15 Memory control unit 16 Buffer 17 Correlation detection unit 18 Deviation calculation unit 19 Compression unit 21 Card interface (I / F)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/40 101 C ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 1/40 101 C

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】当該供給されたディジタルコード化されて
なる画像データたる第1のデータに基づいて当該画像の
空間周波数の高い度合いを表す第2のデータを得るため
のディジタル空間フィルタ手段と、上記第1のデータに
対し上記第2のデータを和動的に作用させることにより
画像のエッジを強調する効果が加えられた画像データた
る第3のデータを得るエッジ強調処理手段と、上記第1
のデータに対し上記第2のデータを差動的に作用させる
ことにより画像の高周波ノイズを除去する効果が加えら
れた画像データたる第4のデータを得るノイズ除去処理
手段と、上記第2のデータに基づいて上記第3のデータ
又は第4のデータのいずれかを選択的に導出するための
画像処理効果選択手段とを備えた画像取扱装置におい
て、 当該供給されたディジタルコード化されてなる多値画像
データ乃至当該この多値画像データに相応するデータに
対し一定の閾値レベルに基づいて2値化する処理を施し
てなる第1の2値コード化画像データを得る第1の2値
コード化画像データ形成手段と、上記多値画像データ乃
至該この多値画像データに相応するデータに基づいて疑
似中間調2値コード化処理を施してなる第2の2値コー
ド化画像データを得る第2の2値コード化画像データ形
成手段と、上記ディジタルコード化されてなる多値画像
データ乃至該この多値画像データに相応するデータに基
づいて上記第1の2値コード化画像データ又は第2の2
値コード化画像データのいずれかを適応的に選択して導
出するための画像2値化処理選択手段と、を備えたこと
を特徴とする画像取扱装置。
1. Digital spatial filter means for obtaining second data representing a high degree of spatial frequency of the image based on the supplied first data which is digitally coded image data, and Edge enhancement processing means for obtaining third data, which is image data, to which the effect of enhancing the edge of the image is added by dynamically acting the second data on the first data, and the first data.
Noise removal processing means for obtaining fourth data which is image data to which the effect of removing high frequency noise of the image is added by differentially acting the second data on the data of And an image processing effect selecting means for selectively deriving either the third data or the fourth data on the basis of the above, the supplied multi-valued digital code. A first binary coded image for obtaining first binary coded image data by subjecting image data or data corresponding to the multi-valued image data to binarization processing based on a constant threshold level Data forming means and second binary coded image data obtained by performing pseudo halftone binary coding processing based on the multivalued image data or data corresponding to the multivalued image data. The second binary coded image data forming means, and the digitally coded multi-valued image data or data corresponding to the multi-valued image data. Or the second 2
An image handling device, comprising: an image binarization processing selecting means for adaptively selecting and deriving any one of the value coded image data.
JP7067231A 1995-03-27 1995-03-27 Image processing unit Withdrawn JPH07288685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7067231A JPH07288685A (en) 1995-03-27 1995-03-27 Image processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7067231A JPH07288685A (en) 1995-03-27 1995-03-27 Image processing unit

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35245993A Division JPH07200788A (en) 1993-12-29 1993-12-29 Image treating device

Publications (1)

Publication Number Publication Date
JPH07288685A true JPH07288685A (en) 1995-10-31

Family

ID=13338944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7067231A Withdrawn JPH07288685A (en) 1995-03-27 1995-03-27 Image processing unit

Country Status (1)

Country Link
JP (1) JPH07288685A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057267A1 (en) * 2015-09-30 2017-04-06 株式会社ニコン Imaging device and focus detection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057267A1 (en) * 2015-09-30 2017-04-06 株式会社ニコン Imaging device and focus detection device
JPWO2017057267A1 (en) * 2015-09-30 2018-08-16 株式会社ニコン Imaging device and focus detection device

Similar Documents

Publication Publication Date Title
EP0529903B1 (en) Pixel Interpolation Circuit and its Applications
JP3088010B2 (en) Line drawing separation method and apparatus
JPS62118676A (en) Picture processing system
JPS58220563A (en) Character and pattern picture image extracting system
GB2269510A (en) Enhancing the resolution of video cameras
JP2616386B2 (en) Image processing device
JPH07288685A (en) Image processing unit
JP3118469B2 (en) Image area separation device
JPH07288684A (en) Image processing unit
JPH07200788A (en) Image treating device
JPH07271965A (en) Image handling device
JPH07288683A (en) Image processing unit
US6661932B2 (en) Image input apparatus
JPH10164363A (en) Image reader
JPH07170372A (en) Image reader and facsimile equipment using the same
JP3226580B2 (en) Image processing device
JP3036244B2 (en) Image signal processing device
JPH04270561A (en) Picture processor
JP3459586B2 (en) Scanner device
JPS636969A (en) Picture data input system
JPH09247521A (en) Shading correcting method and image pickup device dealing with successive scanning system provided with shading correcting function
KR100264336B1 (en) All applicable scanner for pixel unit color scanning method and line unit scannong method
JP3943221B2 (en) Signal processing device
JP3003183B2 (en) Image reading device
JPH05304585A (en) Picture reader

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010306