JPS6174453A - Picture display device - Google Patents

Picture display device

Info

Publication number
JPS6174453A
JPS6174453A JP59197226A JP19722684A JPS6174453A JP S6174453 A JPS6174453 A JP S6174453A JP 59197226 A JP59197226 A JP 59197226A JP 19722684 A JP19722684 A JP 19722684A JP S6174453 A JPS6174453 A JP S6174453A
Authority
JP
Japan
Prior art keywords
information
content area
image
information content
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59197226A
Other languages
Japanese (ja)
Other versions
JPH0523537B2 (en
Inventor
Hidekazu Sekizawa
秀和 関沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP59197226A priority Critical patent/JPS6174453A/en
Publication of JPS6174453A publication Critical patent/JPS6174453A/en
Publication of JPH0523537B2 publication Critical patent/JPH0523537B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Digital Computer Display Output (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To attain ease to see picture display by detecting an information content area displayed in an input picture from a change in the picture data of accumulated value in each direction so as to suppress the picture display output for unnecessary information of a peripheral section. CONSTITUTION:Original picture information inputted to a picture display device while being scanned by one line each to a color image sensor 1 is subject to A/D conversion 2, the result is fed to a matrix circuit 3, and its picture element signal is separated into a luminance signal component I and color difference signal components C1, C2. The signal components I, C1, C2 are processed by a color conversion circuit 4 and a binary-coding circuit 5 and the binary coding information of the picture element of the information content area to be outputted and displayed in the input picture is written in a frame memory 6. Further, the signal component I is inputted to an area detection circuit 8, and the signal component I is processed in an X direction memory 11, a Y direction memory 12 and adders 13-15, 19 and a CPU 17. Then output information of the memory 6 is controlled at the information content area detected by the circuit 8 to suppress the display output of unnecessary information and an easy to see picture is inputted to a color printer 7.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は入力画像中の表示すべき情報内容領域以外の無
駄な情報を効果的に整理して画像表示することのできる
画像表示装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to an image display device that can effectively organize useless information other than the information content area to be displayed in an input image and display the image.

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

近時、画m複写機の発達が目覚ましく、カラー複写機も
多く開発されている。
BACKGROUND ART In recent years, the development of multi-color copying machines has been remarkable, and many color copying machines have also been developed.

しかして、この種の複写機を用いて本等の立体物の複写
を行う場合、一般にその立体物の周縁エツジや外側の部
分が、黒く表示されると云う不具合がある。特に、カラ
ー複写機の場合には、光源の微妙な色合い等によって上
記立体物の周縁エツジや外側の部分が赤紫や青紫等の極
めて不自然な色合いに着色されて画像表示され、非常に
見苦しくなる。
However, when copying a three-dimensional object such as a book using this type of copying machine, there is a problem in that the peripheral edges and outer parts of the three-dimensional object are generally displayed in black. In particular, in the case of a color copying machine, the peripheral edges and outer parts of the three-dimensional objects are colored in extremely unnatural hues such as reddish-purple or bluish-purple due to the subtle hues of the light source, resulting in an extremely unsightly image. Become.

そこで従来では、このような不具合を解消するべく、白
色の外枠を準備して前記立体物の周縁部をマスキングし
て、その複写を行うようにしている。然し乍ら、このよ
うな外枠を前記立体物の種々の大きさに合せて準備する
ことは非常に大変であり、相当な手間を必要とした。
Conventionally, in order to solve this problem, a white outer frame is prepared and the peripheral edge of the three-dimensional object is masked, and then the three-dimensional object is copied. However, preparing such outer frames to suit various sizes of the three-dimensional objects is extremely difficult and requires considerable effort.

〔発明の目的〕[Purpose of the invention]

本発明はこのような事情′を考慮してなされたもので、
その目的とするところは、立体物の複写を行う場合のよ
うに、入力された画像中に情報内容を示す領域以外の領
域が存在するとき、この不要領域を自動検出し、且つそ
の不要領域の画像情報を整理することによって見易い画
像表示を簡易に行ない得る実用性の高い画像表示装置を
提供するごとにある。
The present invention has been made in consideration of these circumstances.
The purpose of this is to automatically detect areas other than areas indicating information content in the input image, such as when copying a three-dimensional object, and to automatically detect the unnecessary areas. The object of the present invention is to provide a highly practical image display device that can easily display images that are easy to view by organizing image information.

〔発明の概要〕[Summary of the invention]

本発明は、本等の立体物の画像情報を複写するべく、そ
の撮像入力した入力画像を形成する画素情報の、互いに
直交した2方向における累積値をそれぞれ求め、これら
の各方向における累積値のデータから、具体的には上記
累積値の各方向における分布データを平均化してなるデ
ータの変化から前記入力画像中の画像表示すべき情報内
容領域を検出し、この検出結果に従って上記情報内容領
域以外の領域部分の画素情報を所定の情報、例えば白画
素情報に変換して画像表示するようにしたものである。
In order to copy image information of a three-dimensional object such as a book, the present invention calculates the cumulative values of pixel information forming the input image captured and input in two mutually orthogonal directions, and calculates the cumulative values in each of these directions. The information content area to be displayed in the input image is detected from the data, specifically, from the change in data obtained by averaging the distribution data in each direction of the cumulative value, and according to the detection result, the information content area other than the above information content area is detected. The pixel information of the area is converted into predetermined information, for example white pixel information, and the image is displayed.

〔発明の効果〕〔Effect of the invention〕

かくして本発明によれば、本等の立体物を複写するに際
しても、その周縁エツジ部分や外側部分が不自然に着色
されて画像表示されることがなくなる。従って、従来の
ように、立体物の大きさに合せた種々の外枠を準備する
必要がなくなり、非常に簡単に見易い表示画像を得るこ
とが可能となる。しかも、このような表示画像に対する
処理を比較的簡易に行うことが可能である。また装置の
取扱いの簡略化を図ることも可能となり、実用上多大な
る効果が奏せられる。
Thus, according to the present invention, even when copying a three-dimensional object such as a book, the peripheral edges and outer portions of the object will not be unnaturally colored and displayed as an image. Therefore, there is no need to prepare various outer frames to match the size of the three-dimensional object, as in the past, and it becomes possible to obtain a display image that is very easy to see. Moreover, it is possible to perform processing on such a display image relatively easily. Furthermore, it becomes possible to simplify the handling of the device, which has a great practical effect.

(発明の実施例〕 以下、図面を参照して本発明の実施例につき説明する。(Example of the invention) Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明をカラー複写機に適用した実施例装置の
概略構成図である。
FIG. 1 is a schematic diagram of an embodiment of an apparatus in which the present invention is applied to a color copying machine.

カラーセンサ1は、光源により照明された本等の原稿情
報を画像として読取り入力するもので、例えばC0D1
次元カラーイメージセンサによって構成される。このカ
ラーセンサ1によって、上記原稿画像情報が1ライン分
づつ走査されて入力される。A/D変換器2は上記カラ
ーセンサ1によって入力される画像情報の各画素情報の
時系ケ1を順次ディジタル信号に変換しており、この信
号を入力してマトリックス回路3は各画素信号の輝度信
号成分Iと色差信号成分CI、C2とを分離抽出してい
る。
The color sensor 1 reads and inputs document information such as a book illuminated by a light source as an image, and for example, C0D1.
It is composed of a dimensional color image sensor. The color sensor 1 scans and inputs the document image information line by line. The A/D converter 2 sequentially converts the time series information of each pixel of the image information inputted by the color sensor 1 into a digital signal, and the matrix circuit 3 inputs this signal and converts each pixel signal into a digital signal. The luminance signal component I and the color difference signal components CI and C2 are extracted separately.

色変換回路4は、上記の如く色分離された各信号を入力
して、後述するカラープリンタの出力特性に応じた色信
号変換を、例えばノイケバウワ一方程式やマスキング方
程式等に従って実行している。この色変換回路4を介し
て得られた信号が2値化回路5を介して、例えば組織的
ディザ法等の階調表現を有する2値データに変換された
後、フレームメモリ6に順次格納されるようになってい
る。このフレームメモリ6に格納された画像情報がカラ
ープリンタ7に読出されてカラー画像表示出力される。
The color conversion circuit 4 inputs each color-separated signal as described above, and executes color signal conversion according to the output characteristics of the color printer, which will be described later, in accordance with, for example, the Neukebauer equation or the masking equation. The signal obtained via the color conversion circuit 4 is converted via the binarization circuit 5 into binary data having gradation expression such as a systematic dither method, and then sequentially stored in the frame memory 6. It has become so. The image information stored in the frame memory 6 is read out to a color printer 7 and output as a color image.

ところで、上記フレームメモリ6への2値データの書込
みは、領域検出回路8により制御されるようになってい
る。この領域検出回路8は、例えば第2図に示すように
前記色分離された輝度信号Iの情報から、入力画像中の
出力表示すべき情報内容領域を検出するものである。そ
して、この検出結果に従って上記情報内容領域以外の入
力画像領域の画素について、前記2値化回路5が求めた
画素情報を、例えば白色を示す画素情報に置換して前記
フレームメモリ6の書込む等の制御を行っている。即ち
、前記入力画像中の出力表示すべき情報内容領域の入力
画素について求めた2値化情報のみをフレームメモリ6
の該当画素位置に書込み、その他の領域の画素位置には
画像表示に直接関係のない白色画素情報を書込んでいる
。このようなフレームメモリ6への画素情報書込み制御
によって、カラープリンタ7は前記情報内容領域の情報
のみを表示出力するようになっている。
By the way, the writing of binary data into the frame memory 6 is controlled by the area detection circuit 8. The area detection circuit 8 detects an information content area to be output and displayed in the input image from the information of the color-separated luminance signal I, as shown in FIG. 2, for example. Then, in accordance with this detection result, for pixels in the input image area other than the information content area, the pixel information obtained by the binarization circuit 5 is replaced with pixel information indicating white, for example, and written in the frame memory 6. is under control. That is, only the binarized information obtained for the input pixels of the information content area to be output and displayed in the input image is stored in the frame memory 6.
white pixel information that is not directly related to image display is written to pixel positions in other areas. By controlling the writing of pixel information into the frame memory 6 in this manner, the color printer 7 displays and outputs only the information in the information content area.

さて、第2図に示される領域検出回路8は次のように構
成されている。この領域検出回路8には前記入力画像の
相互に直交する2つの方向、例えば前記ラインセンサ1
による画像の主走査方向Xと、この主走査方向Xに直交
する副走査方向Yに前記輝度信号Iをそれぞれ累積加算
して記憶するラインメモリ11.12が設けられている
。これらの各ラインメモリ11.12は1画素(ライン
)について16ピツトのデータエリアを有し、且つX方
向に配列される画素数に対応したメモリ領域、およびY
方向の走査ライン数に対応したメモリ領域を備えて構成
される。そして前記輝度信号Iの、例えば上位4ビツト
で示されるデータを加算器13.14を各別に介して入
力するようになっている。これによって、例えば12(
本/ m )の粗さで4096画素(ライン)に屋っで
読取られるA4版程度の画像情報に対する、後述する処
理が十分に余裕を以て行われるようになっている。
Now, the area detection circuit 8 shown in FIG. 2 is configured as follows. The area detection circuit 8 detects two directions perpendicular to each other of the input image, for example, the line sensor 1.
Line memories 11 and 12 are provided for cumulatively adding and storing the luminance signals I in the main scanning direction X of the image and the sub-scanning direction Y perpendicular to the main scanning direction X. Each of these line memories 11 and 12 has a data area of 16 pits for one pixel (line), and a memory area corresponding to the number of pixels arranged in the X direction, and a memory area corresponding to the number of pixels arranged in the Y direction.
It is configured with a memory area corresponding to the number of scanning lines in the direction. Data indicated by, for example, the upper four bits of the luminance signal I are inputted through adders 13 and 14 separately. By this, for example, 12 (
The processing to be described later can be carried out with sufficient margin for image information of approximately A4 size, which is scanned at 4,096 pixels (lines) with a roughness of 4,096 pixels (line/m).

前記加算器13は、上記の如く入力される輝度信号Iの
データと、前記X方向ラインメモリ11のライン走査の
画素位置に対応したアドレスから読出されるデータとを
加算し、その加算データを前記X方向ラインメモリ11
の該当走査画素位置のアドレスに書込んでいる。このラ
インメモリ11と加算器13とによって、入力画像の各
走査ラインにおけるX方向の画素位置を同じくする画素
間の輝度信号Iがそれぞれ累積加算されてX方向ライン
メモリ11に格納されるようになっている。つまり、X
方向ラインメモリ11には、入力画像の輝度信号Iに関
するY方向射影情報がX方向画素位置に対応して格納さ
れるようになっている。
The adder 13 adds the data of the luminance signal I input as described above and the data read from the address corresponding to the pixel position of the line scan of the X direction line memory 11, and uses the added data as the X direction line memory 11
is written to the address of the corresponding scan pixel position. By the line memory 11 and the adder 13, the luminance signals I between pixels having the same pixel position in the X direction in each scanning line of the input image are cumulatively added and stored in the X direction line memory 11. ing. In other words, X
The direction line memory 11 stores Y-direction projection information regarding the luminance signal I of the input image in correspondence with the X-direction pixel position.

しかして、このX方向ラインメモリ11から順に読出さ
れる累積情報の上位8ビツトのデータは、加算器15と
、この加算器15の出力を1タイミング遅延して上記加
算器15に帰還するバッファ16により順次移動加算平
均処理された後、CP U 17に入力されている。こ
の移動加算平均処理によって、前記X方向ラインメモリ
11に格納されたY方向射影情報のX方向分布パターン
がフィルタリングされている。
The upper 8 bits of accumulated information sequentially read out from the X-direction line memory 11 are transferred to the adder 15 and the buffer 16 which delays the output of the adder 15 by one timing and returns it to the adder 15. After being subjected to sequential moving averaging processing, the signals are input to the CPU 17. By this moving averaging process, the X-direction distribution pattern of the Y-direction projection information stored in the X-direction line memory 11 is filtered.

一方、Y方向ラインメモリ12の前段に設けられた加算
器14は、入力輝度信号Iのデータと、バッファ18を
介して1タイミング遅延されて帰還される加算器14の
出力とを順次加算している。この加算器14とバッファ
18とによって、X方向1ラインに亙る輝度信号Iの累
積値が求められている。そして、この累積値がその走査
ラインに対応してY方向ラインメモリ12の該当アドレ
スに順次格納されるようになっている。この処理によっ
て、Y方向ラインメモリ12には、前記入力画像の各走
査ラインにおける輝度信号の累積値が、つまりX方向射
影情報がY方向の分布パターンとして格納されるように
なっている。そして、この輝度信号のY方向の分布パタ
ーンの情報は、加算器19と、その出力を1タイミング
遅延して帰還するバッファ’20とによってフィルタリ
ングされた後、前記CPU17に入力されるようになっ
ている。
On the other hand, an adder 14 provided before the Y-direction line memory 12 sequentially adds the data of the input luminance signal I and the output of the adder 14 which is delayed by one timing and fed back via the buffer 18. There is. The adder 14 and the buffer 18 determine the cumulative value of the luminance signal I over one line in the X direction. Then, this cumulative value is sequentially stored in the corresponding address of the Y-direction line memory 12 corresponding to the scanning line. Through this processing, the Y-direction line memory 12 stores the cumulative value of the luminance signal in each scanning line of the input image, that is, the X-direction projection information, as a distribution pattern in the Y-direction. Information on the Y-direction distribution pattern of this luminance signal is input to the CPU 17 after being filtered by the adder 19 and a buffer '20 that returns its output with a one-timing delay. There is.

第3図は上記CP U 17の作用を示すもので、21
は前記カラーセンサ1による入力画像情報を、また22
は入力画像情報21中の複写対象とする情報内容領域を
示している。この情報内容領域22は、ここでは複写対
象とする立体物である本の見開き頁の情報を示している
FIG. 3 shows the operation of the CPU 17, and 21
is input image information from the color sensor 1, and 22
indicates an information content area to be copied in the input image information 21. This information content area 22 shows information about a double-page spread of a book, which is a three-dimensional object to be copied.

しかして第3図中、aは上記入力画像21に対して求め
られ、前記X方向ラインメモリ11に格納されたY方向
射影情報のX方向分布パターンを示しており、bはその
X方向分布パターンをフィルタリングしてCP IJ 
17に入力されるX方向の平均化分布パターンを示して
いる。また同様に、Cは上記入力画像21に対して求め
られ、前記Y方向ラインメモリ12に格納されたX方向
射影情報のY方向分布パターンを示しており、dはその
Y方向分布パターンをフィルタリングしてCP IJ 
17に入力されるY方向の平均化分布パターンを示して
いる。
In FIG. 3, a indicates the X-direction distribution pattern of the Y-direction projection information obtained for the input image 21 and stored in the X-direction line memory 11, and b indicates the X-direction distribution pattern. CP IJ by filtering
17 shows an averaged distribution pattern in the X direction that is inputted to 17. Similarly, C indicates the Y-direction distribution pattern of the X-direction projection information obtained for the input image 21 and stored in the Y-direction line memory 12, and d represents the filtering of the Y-direction distribution pattern. TeCP IJ
17 shows an averaged distribution pattern in the Y direction that is inputted to FIG.

尚、同図中Bは白地に対する輝度信号レベルを、またW
は黒地に対する輝度信号レベルを示している。
In the figure, B indicates the luminance signal level for a white background, and W
indicates the luminance signal level for a black background.

CP U 17は、このように入力される入力画像の射
影分布パターン情報c、dから、前記入力画象情011
21中の表示出力対象とする情報内容領域22を検出し
ている。この領域検出処理は、例えばX方向に関しては
、前記平均化分布パターンCの情報の中からその最大値
X maxと最小匝X minとを求め、これらの多値
から (Xa+ax +Xm1n ) 15 なる閾値を設定し、最初に上記閾値を越えて急激に値の
変化を呈する前記分布パターンC中の位置を、前記入力
画像領域の周辺部(XOまたは×1の位置)から調べる
ことによって行われる。この処理によって、X方向にお
ける前記情報内容領域22の境界位置><aが検出され
る。尚、画像領域の中央部まで調べても、上記境界位置
Xaが検出されない場合には、入力画像21中のX方向
の全てが情報内容領域22を形成しているとして、その
検出処理を中止する。
The CPU 17 calculates the input image information 011 from the projective distribution pattern information c and d of the input image input in this way.
The information content area 22 to be displayed and output in 21 is detected. In this area detection process, for example, in the X direction, the maximum value X max and minimum value X min are determined from the information of the averaged distribution pattern C, and a threshold value of (Xa+ax +Xm1n) 15 is determined from these multivalues. This is done by first checking the position in the distribution pattern C where the value exceeds the threshold value and shows a sudden change in value from the periphery of the input image area (XO or x1 position). Through this process, the boundary position><a of the information content area 22 in the X direction is detected. Note that if the boundary position Xa is not detected even if the central part of the image area is examined, it is assumed that the entire area in the X direction in the input image 21 forms the information content area 22, and the detection process is stopped. .

また、同様にしてY方向に対する入力画像21中の情報
内容領域22の境界線位置の検出が行われる。
Similarly, the position of the boundary line of the information content area 22 in the input image 21 in the Y direction is detected.

この場合、前記Y方向の平均化分布パターンdの情報中
から、その最大値Y maxと最小値”y’ minと
を求め、これらの多値から (Ymax +Ymin ) /2 なる閾値を設定して、最初に上記閾値を越えて急激に値
の変化を呈する前記分布パターンd中の位置を、前記入
力画像領域の周辺部(YoまたはYlの位置)から調べ
ることによって行われる。
In this case, from the information of the averaged distribution pattern d in the Y direction, find its maximum value Y max and minimum value "y' min, and set a threshold value of (Ymax + Ymin) /2 from these multivalues. , is performed by first checking the position in the distribution pattern d where the value exceeds the threshold value and shows a sudden change in value from the peripheral part of the input image area (position of Yo or Yl).

この検出処理によって、Y方向の境界位置YaおよびY
bがそれぞれ検出される。この場合にも、画像領域の中
央部まで調べても、上記境界位置Ya、Ybが検出され
ない場合には、入力画像21中のY方向に情報内容領域
22の境界が存在しないとして、その検出処理を中止す
る。
Through this detection process, the boundary positions Ya and Y in the Y direction are
b are respectively detected. In this case as well, if the boundary positions Ya and Yb are not detected even if the center of the image area is searched, it is assumed that the boundary of the information content area 22 does not exist in the Y direction in the input image 21, and the detection process is performed. cancel.

尚、上記X方向およびY方向において、境界検出のff
fl 1fflを異ならせた理由は、入力画像が本の情
報である場合、その頁の開きとその本の厚みによって、
頁縁部が撮像面に対して斜めになり、この結果入力画像
の情報内容領域22の境界部分が明確に現れないことを
配慮したことによる。
In addition, in the X direction and Y direction, the boundary detection ff
The reason why fl and 1ffl are different is that when the input image is book information, depending on the page opening and the thickness of the book,
This is because the edge of the page is oblique to the imaging surface, and as a result, the border of the information content area 22 of the input image does not appear clearly.

以上のようにして、入力画&21中の情報内容領域22
に関する境界位置情報(Xa 、 Ya 、 Yb )
を得たc p u ’uは、これらの情報に従って前記
情報内容領域22の入力画@21に対する位置情報を、
4つの座標点 (Xo、Ya ) 、  (Xa、Ya ) 。
As described above, the information content area 22 in the input image &21
Boundary position information regarding (Xa, Ya, Yb)
The obtained c p u 'u calculates the position information of the information content area 22 with respect to the input image @21 according to this information,
Four coordinate points (Xo, Ya), (Xa, Ya).

(Xo、Yb ) 、  (Xa、Yb )として得る
。尚、この例では被複写物としての本は、第3図に示す
ようにX方向に対して1つの境界しか有していない。従
って、X方向の境界の一方は上述したように入力画像の
端部(XO)として検出されている。そして、これらの
座標点で囲まれる領14(情報内容類[22)について
のみ、前記2値化回路5を介して求められる画素情報を
フレームメモリ6に書込むべく、フレームメモリ6のア
ドレス制御を行う。この結果、フレームメモリ6の上記
指定された領域以外には、入力画素情報が書込まれない
ことになる。
(Xo, Yb), (Xa, Yb). In this example, the book as the object to be copied has only one boundary in the X direction, as shown in FIG. Therefore, one of the boundaries in the X direction is detected as the end (XO) of the input image as described above. Address control of the frame memory 6 is then performed to write the pixel information obtained through the binarization circuit 5 into the frame memory 6 only for the area 14 (information content class [22)] surrounded by these coordinate points. conduct. As a result, the input pixel information will not be written to any area other than the above-specified area of the frame memory 6.

かくして、このように入力画像情報の書込み制御がなさ
れたフレームメモリ6から、その情報を読出してカラー
プリンタ7により画像出力すれば、その出力表示される
画像は前記情報内容領域22の情報のみを効果的に表し
たものとなる。そして、上記情報内容領域22以外の領
域については、フレームメモリ6への情報書込みが行わ
れていないことから、例えば白状前が維持される。従っ
て、情報内容領域22の周辺部のノイズ等を除去して情
報整理した、所謂美しい出力画像を(qることが可能と
なる。
Thus, when the input image information is read out from the frame memory 6 whose writing is controlled in this way and outputted as an image by the color printer 7, the output and displayed image will only be affected by the information in the information content area 22. It is expressed as follows. For areas other than the information content area 22, information is not written to the frame memory 6, so that, for example, a blank state is maintained. Therefore, it is possible to produce a so-called beautiful output image in which noise and the like in the periphery of the information content area 22 are removed and information is organized.

尚、フレームメモリ6の上記情報内容領域22の周辺部
領域に占込む画素情報として所定の色情報を与えるよう
にすれば、上記周辺部に所定の色を付して画像表示出力
することが可能となる。またこのような表示画像制御は
、モノクロの複写別に対しても適用可能である。第4図
はその例を示すもので、センサ1aを介して入力された
画像情報をA/D変換器2aにてディジタル変換し、し
かる後、この信号を2fii化回路5aにて所定のディ
ザパターンに従って2値化し、これをプリンタ7aにて
画像出力表示するようにしたものである。この場合にあ
っても、その画像情報であるA/D変換器2aの出力信
号を領域検出回路8に入力して前述した実施例と同様な
処理を施せば、情報内容領域22以外の情報出力を阻止
して、表示出力画像の整理を図ることが可能である。こ
の場合、領域検出回路8の検出結果を用いてプリンタ7
aのプリント動作を直接制御可能であり、装置構成の複
雑化をjG来する虞れが殆んどない。
Note that if predetermined color information is given as pixel information occupying the peripheral area of the information content area 22 of the frame memory 6, it is possible to output an image with a predetermined color attached to the peripheral area. becomes. Further, such display image control can also be applied to each monochrome copy. FIG. 4 shows an example of this, in which image information input via the sensor 1a is digitally converted by the A/D converter 2a, and then this signal is converted into a predetermined dither pattern by the 2fii conversion circuit 5a. The image is binarized in accordance with the above, and the image is output and displayed on the printer 7a. Even in this case, if the output signal of the A/D converter 2a, which is the image information, is input to the area detection circuit 8 and subjected to the same processing as in the above-described embodiment, information other than the information content area 22 can be output. It is possible to prevent this and organize the displayed output image. In this case, the printer 7 uses the detection result of the area detection circuit 8.
The printing operation of a can be directly controlled, and there is almost no risk of complicating the device configuration.

ところで複写対象とする立体物、例えば本の見開き頁が
、装置の画像入力走査方向Xに対して必ず平行にセット
されると云う保証はない。例えば第5図に示すように、
前記カラーセンサ1による入力画像領域21に対して、
情報内容領域22が斜めにセットされることがある。こ
の場合には、入力画像情報の前述した射影情報のX方向
およびY方向の分布パターンから、前述した如く設定し
た閾値を横切る位置の情報を検出するだけでは、上記情
報内容領域22を特定するには不十分である。
However, there is no guarantee that a three-dimensional object to be copied, such as a double-page spread of a book, will always be set parallel to the image input scanning direction X of the apparatus. For example, as shown in Figure 5,
For the input image area 21 by the color sensor 1,
The information content area 22 may be set diagonally. In this case, it is not possible to specify the information content area 22 by simply detecting information at a position that crosses the threshold set as described above from the distribution pattern in the X direction and Y direction of the projection information of the input image information. is insufficient.

このような場合、情報内容領域22が入力画像21の走
査方向X、Yに対して斜めになっていることから、その
X方向およびY方向の累積値の分布パターンは、上記情
報内容類[22の各縁部で徐々にレベル変化を呈するこ
とになる。従って、各分布パターンに対して、その上限
値側の閾値と下限値側の閾値とを設定し これらの各閾
値をよぎる点(Xa、Xb、Xc、Xd )と、(Ya
、Yb、”y’c、Yd )とをそれぞれ求める。そし
て、これらの各位置情報(Xa、Xb、Xc、Xd、Y
a、Yb、Yc、Yd ) カラ前記情報内容領域22
を検出するようにする。
In such a case, since the information content area 22 is oblique with respect to the scanning directions X and Y of the input image 21, the distribution pattern of the cumulative values in the will exhibit a gradual level change at each edge. Therefore, for each distribution pattern, a threshold on the upper limit side and a threshold on the lower limit side are set, and the points (Xa, Xb, Xc, Xd) that cross these thresholds, and (Ya
, Yb, "y'c, Yd). Then, each of these positional information (Xa, Xb, Xc, Xd, Y
a, Yb, Yc, Yd) Color information content area 22
to be detected.

然し乍ら、これらの各位置情報によって特定される前記
入力画@21上の座標点は、その組合わせとして第6図
に示すように16点出現する。これ故、これらの16の
座標点からだけでは、前記情報内容領域22を正確に特
定することができない。
However, 16 coordinate points on the input image @21 specified by each of these positional information appear as a combination thereof, as shown in FIG. Therefore, the information content area 22 cannot be accurately specified only from these 16 coordinate points.

そこで入力画像情報を前記フレームメモリらに一旦書込
み、しかるのち、上記各座標点の近傍領域の画素情報を
調べてみる。この場合、前記情報内容領域22以外の領
域部分では、上記座標点近傍の画素情報が殆んど等しい
黒レベルとして検出されることから、情報内容領域22
の検出に利用できる座標点情報から除くことができる。
Therefore, input image information is once written into the frame memory, etc., and then pixel information in the vicinity of each of the coordinate points is examined. In this case, in areas other than the information content area 22, pixel information near the coordinate point is detected as having almost the same black level.
can be excluded from the coordinate point information that can be used for detection.

具体的には、フレームメモリ6内の黒レベルの個数を計
数し、その直が所定値以上であるか否かを判定すること
によって上記情報内容類IJ!22を規定する座標点情
報を識別するようにすれば良い。また、前記情報内容領
域22内に存在する座標点についても、その近傍画素の
情報が殆んど白レベルであるか、或いは情報内容によっ
て画素情報の大きな変化を呈しているので、同様に検出
対象から除くことができる。このようにしてセレクトし
た座標点の情報を用い、且つその座標点を構成する前記
検出点の性質(上限値側の閾値で検出された点であるか
、或いは下限値側の閾値で検出された検出点であるかの
情報)を参照することによって、前記情報内容領域22
を特定する座標点を検出することが可能となる。そして
、これらの各境界座標点を結ぶ線分を前記情報内容領域
22を規定する境界線とすれば良い。
Specifically, the information content class IJ! is determined by counting the number of black levels in the frame memory 6 and determining whether the number is equal to or greater than a predetermined value. What is necessary is to identify the coordinate point information that defines 22. Furthermore, regarding the coordinate points existing within the information content area 22, the information of the neighboring pixels is mostly at the white level, or the pixel information changes greatly depending on the information content, so the detection target is similarly can be excluded from Using the information of the coordinate points selected in this way, the characteristics of the detection points constituting the coordinate points (whether the points were detected with the threshold on the upper limit side or the points detected with the threshold on the lower limit side) The information content area 22 is
It becomes possible to detect the coordinate point that specifies the . Then, a line segment connecting each of these boundary coordinate points may be used as a boundary line defining the information content area 22.

そこで、この検出結果に従って、前記フレームメモリ6
に書込まれた画像情報の内、上記境界線で示される前記
情報内容領域22以外の領域に書込まれた画素情報を、
例えば白画素情報に置換することによって、前述した実
施例と同様にフレームメモリ6には入力画像情報中の情
報内容領域22の情報のみを格納することが可能となる
Therefore, according to this detection result, the frame memory 6
Among the image information written in the image information, pixel information written in an area other than the information content area 22 indicated by the boundary line is
For example, by replacing the white pixel information with white pixel information, it becomes possible to store only the information in the information content area 22 in the input image information in the frame memory 6, similar to the embodiment described above.

このように本発明によれば、本等の厚みを有する立体物
からの画像情報を複写する場合、上記厚みに起因して生
じる情報内容領域22以外の周辺部の不要な情報の画像
表示出力を効果的に抑制することができる。従って、上
記周辺部の見苦しい色付きや、黒色の所謂汚れを効果的
に防ぐことができる。そして、表示画像整理された美し
い表示出力画像を簡易に得ることが可能となる。
As described above, according to the present invention, when copying image information from a thick three-dimensional object such as a book, the image display output of unnecessary information in the peripheral area other than the information content area 22 that occurs due to the thickness is suppressed. can be effectively suppressed. Therefore, it is possible to effectively prevent unsightly coloring and so-called black staining in the peripheral area. Then, it becomes possible to easily obtain a beautiful display output image in which the display image is organized.

尚、本発明は上述した実施例に限定されるものではない
。例えばX方向、およびY方向の分布パターンの平均化
処理を、c p U 17にて実行するように装置を構
成することもできる。また、領域検出の処理アルゴリズ
ムも適宜変更可能である。要するに本発明はその要旨を
逸脱しない範囲で種々変形して実施することができる。
Note that the present invention is not limited to the embodiments described above. For example, the apparatus may be configured to perform averaging processing of the distribution patterns in the X direction and the Y direction at c p U 17. Furthermore, the processing algorithm for area detection can also be changed as appropriate. In short, the present invention can be implemented with various modifications without departing from the gist thereof.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例装置の概略構成図、第2図は
実施例装置の領域検出回路の構成図、第3図は実施例装
置の作用を示す図、第4図は本発明の他の実施例装置の
概略構成図、第5図および第6図は領域検出の他の例を
示す図である。 1・・・カラーセンサ、1a・・・センサ、2.2a・
・・A/D変換器、3・・・マトリックス回路、4・・
・色変換回路、5.5a・・・2値回路、6・・・フレ
ームメモリ、7・・・カラープリンタ、7a・・・プリ
ンタ、8・・・領域検出回路、11、12・・・ライン
メモリ、13.14.15.19・・・加算器、16、
18.20・・・バッファ、17・・・cpu。 出願人代理人 弁理士 鈴江武彦 第1図 第3図
FIG. 1 is a schematic configuration diagram of a device according to an embodiment of the present invention, FIG. 2 is a configuration diagram of an area detection circuit of the device according to the embodiment, FIG. 3 is a diagram showing the operation of the device according to the embodiment, and FIG. 5 and 6 are diagrams showing other examples of area detection. 1... Color sensor, 1a... Sensor, 2.2a.
... A/D converter, 3... Matrix circuit, 4...
・Color conversion circuit, 5.5a... Binary circuit, 6... Frame memory, 7... Color printer, 7a... Printer, 8... Area detection circuit, 11, 12... Line Memory, 13.14.15.19... Adder, 16,
18.20...buffer, 17...cpu. Applicant's agent Patent attorney Takehiko Suzue Figure 1 Figure 3

Claims (4)

【特許請求の範囲】[Claims] (1)入力画像を構成する各画素情報の、互いに直交し
た2方向における累積値をそれぞれ求める手段と、前記
画素情報の上記各方向における累積値のデータから前記
入力画像中の画像表示すべき情報内容領域を検出する手
段と、前記入力画像中の上記情報内容領域以外の領域部
分の画素情報を所定の情報に変換して画像表示する手段
とを具備したことを特徴とする画像表示装置。
(1) Means for calculating the cumulative value of each pixel information constituting the input image in two mutually orthogonal directions, and information to be displayed as an image in the input image from data of the cumulative value of the pixel information in each direction. An image display device comprising: means for detecting a content area; and means for converting pixel information in an area other than the information content area in the input image into predetermined information and displaying the image.
(2)画素情報の互いに直交した2方向における累積値
のデータから入力画像中の画像表示すべき情報内容領域
を検出する手段は、上記累積値のデータを平均化処理し
た前記各方向の平均値データの分布から情報内容領域を
求めるものである特許請求の範囲第1項記載の画像表示
装置。
(2) The means for detecting the information content area to be displayed in the input image from cumulative value data in two mutually orthogonal directions of pixel information is the average value in each direction obtained by averaging the cumulative value data. The image display device according to claim 1, wherein the information content area is determined from the distribution of data.
(3)互いに直交した2方向における累積値のデータを
平均化処理した平均値データの分布から情報内容領域を
求める手段は、上記各方向の平均値データの分布パター
ンにおける最大値および最小値に従つて定められる閾値
を横切って変化する、上記分布パターン中の平均値デー
タ位置を検出して行われるものである特許請求の範囲第
1項記載の画像表示装置。
(3) The means for determining the information content area from the distribution of average value data obtained by averaging cumulative value data in two directions perpendicular to each other is based on the maximum and minimum values in the distribution pattern of average value data in each direction. 2. The image display device according to claim 1, wherein the image display device detects the position of the average value data in the distribution pattern, which changes across a threshold value determined by the distribution pattern.
(4)画素情報の互いに直交した2方向における累積値
のデータから入力画像中の画像表示すべき情報内容領域
を検出する手段は、上記各方向の平均値データの分布パ
ターンにおける最大値および最小値に従つて定められる
閾値を横切って変化する、上記分布パターン中の平均値
データ位置を検出し、平均値データ位置の組合せとして
示される検出位置座標の周囲画素情報を判定して情報内
容領域を規定する境界座標点を特定して行われるもので
ある特許請求の範囲第1項記載の画像表示装置。
(4) The means for detecting the information content area to be displayed in the input image from cumulative value data in two mutually orthogonal directions of pixel information is based on the maximum and minimum values in the distribution pattern of the average value data in each direction. detecting the average value data position in the distribution pattern that changes across a threshold value determined according to the above, and determining information on surrounding pixels of the detected position coordinates represented as a combination of the average value data positions to define an information content area. 2. The image display device according to claim 1, wherein the image display device is configured to perform the image display by specifying a boundary coordinate point.
JP59197226A 1984-09-20 1984-09-20 Picture display device Granted JPS6174453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59197226A JPS6174453A (en) 1984-09-20 1984-09-20 Picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59197226A JPS6174453A (en) 1984-09-20 1984-09-20 Picture display device

Publications (2)

Publication Number Publication Date
JPS6174453A true JPS6174453A (en) 1986-04-16
JPH0523537B2 JPH0523537B2 (en) 1993-04-05

Family

ID=16370935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59197226A Granted JPS6174453A (en) 1984-09-20 1984-09-20 Picture display device

Country Status (1)

Country Link
JP (1) JPS6174453A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01225284A (en) * 1988-03-04 1989-09-08 Fuji Photo Film Co Ltd Picture processor
JP2006163821A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Photographing device, image processor, image processing method, and program
US7321687B2 (en) 2002-03-07 2008-01-22 Canon Kabushiki Kaisha Apparatus and method for image processing to label an object in a binary image
JP2009251902A (en) * 2008-04-04 2009-10-29 Sony Corp Imaging processing apparatus, image processing method, and imaging device
US8144241B2 (en) 2008-04-04 2012-03-27 Sony Corporation Imaging apparatus, image processing apparatus, and exposure control method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01225284A (en) * 1988-03-04 1989-09-08 Fuji Photo Film Co Ltd Picture processor
US7321687B2 (en) 2002-03-07 2008-01-22 Canon Kabushiki Kaisha Apparatus and method for image processing to label an object in a binary image
US7567708B2 (en) 2002-03-07 2009-07-28 Canon Kabushiki Kaisha Apparatus and method for image processing
JP2006163821A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Photographing device, image processor, image processing method, and program
JP4600019B2 (en) * 2004-12-07 2010-12-15 カシオ計算機株式会社 Imaging apparatus, image processing method, and program
JP2009251902A (en) * 2008-04-04 2009-10-29 Sony Corp Imaging processing apparatus, image processing method, and imaging device
US8144241B2 (en) 2008-04-04 2012-03-27 Sony Corporation Imaging apparatus, image processing apparatus, and exposure control method

Also Published As

Publication number Publication date
JPH0523537B2 (en) 1993-04-05

Similar Documents

Publication Publication Date Title
US5363212A (en) Marker dot detecting device for color image recording apparatus
US7298380B2 (en) Image processing method and apparatus for white eye correction
JPH0262671A (en) Color editing processor
JP3262326B2 (en) Image processing apparatus and image processing method
JPS6174453A (en) Picture display device
JPH0666884B2 (en) Halftone photo area identification method
JPH03110974A (en) False picture eliminating method
JP2648030B2 (en) Image editing method and image editing device
JP3023374B2 (en) Image processing device for each image area of copier
JPH01133470A (en) Digital picture processing method
JPH0550187B2 (en)
JPH05219354A (en) Synthesized picture output device
JP6794901B2 (en) Image processing equipment and computer programs
JP6834701B2 (en) Image processing equipment and computer programs
JP3023375B2 (en) Image processing device for each image area of copier
JP2957050B2 (en) Image data enlarger
JP3230286B2 (en) Image processing device
JP2926710B2 (en) Image processing device
JPS6166473A (en) Picture processing device
JPH043656A (en) Picture processor
JP2985303B2 (en) Recording device area recognition method
JP2903175B2 (en) Image processing device
JPH0364268A (en) Color copying device
JP2634399B2 (en) Color image processing method
JPH08251385A (en) Image processing unit

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term