JPH03142572A - Picture information processor - Google Patents

Picture information processor

Info

Publication number
JPH03142572A
JPH03142572A JP1280788A JP28078889A JPH03142572A JP H03142572 A JPH03142572 A JP H03142572A JP 1280788 A JP1280788 A JP 1280788A JP 28078889 A JP28078889 A JP 28078889A JP H03142572 A JPH03142572 A JP H03142572A
Authority
JP
Japan
Prior art keywords
data
density
image
address
density data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1280788A
Other languages
Japanese (ja)
Inventor
Hiromochi Shimoyama
下山 浩以
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Tokyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Co Ltd filed Critical Tokyo Electric Co Ltd
Priority to JP1280788A priority Critical patent/JPH03142572A/en
Publication of JPH03142572A publication Critical patent/JPH03142572A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To economize a memory and to shorten time required for access by providing a processed result memory area to store the result of a processing, which is executed to density data, at the same address as each address to store the density data. CONSTITUTION:At the same address as each address to store the density data at each sampling point, a first flag F1 is provided to store contour data to be obtained from the density data, and a second flag F2 is provided to store area recognition data. Accordingly, at the same address to store the density data of each picture element, the contour data and the area recognition data can be stored and an arithmetic processing is easily executed.

Description

【発明の詳細な説明】 [産業上の利用分野コ ー1本発明は、画像情報処理装置に関する。例えは、衣
料広告デザインやX線解析など画(象処理技術を応用し
た装置に利用できる。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application (1) The present invention relates to an image information processing device. For example, it can be used in devices that apply image processing technology, such as clothing advertising design and X-ray analysis.

[従来の技術] 例えば、ビデオカメラなどから入力された画像情報を2
次元マトリックス状にサンプリングし、各サンプリング
点における画像濃度を数十〜数百階調で量子化すると、
デジタル表現の濃度データか得られる。この濃度データ
は、メモリICやディスク装置に記憶できるとともに、
CPUやDSP(デジタル・シグナル・プロセッサ)素
子がらの操作によって簡単に加工できる。
[Prior art] For example, image information input from a video camera, etc.
If you sample in a dimensional matrix and quantize the image density at each sampling point in tens to hundreds of gradations,
Digital representation of density data can be obtained. This concentration data can be stored in a memory IC or disk device, and
It can be easily processed by operating the CPU and DSP (digital signal processor) elements.

第14図に画像出力装置としてCRTを用いた一般的な
画像情報処理装置を示す、同図において、ビデオカメラ
1などから画像信号が画像入力回路2に入力されると、
画像入力回路2は、その画f象信号をA/D変換してデ
ジタル表現の濃度データとして画像データ格納メモリ3
に格納する4画像データ格納メモリ3に格納された濃度
データは、画像処理回路4と表示制御回路5との双方か
らアクセスされる。
FIG. 14 shows a general image information processing device using a CRT as an image output device. In the same figure, when an image signal is input to the image input circuit 2 from a video camera 1 or the like,
The image input circuit 2 A/D converts the image signal and stores it in an image data storage memory 3 as digitally expressed density data.
The density data stored in the four-image data storage memory 3 is accessed by both the image processing circuit 4 and the display control circuit 5.

画像処理回路4は、CPUやDSP素子などから構成さ
れ、画像データ格納メモリ3に格納された濃度データを
種々加工することかできる。表示制御回路5は、画像デ
ータ格納メモリ3から表示データを取出し、D/A変換
回路6へ入力させる。
The image processing circuit 4 is composed of a CPU, a DSP element, etc., and can process the density data stored in the image data storage memory 3 in various ways. The display control circuit 5 takes out display data from the image data storage memory 3 and inputs it to the D/A conversion circuit 6.

D/A変換回路6に入力された表示データは、そこでD
/A変換された後、表示制御回路5から出力される画(
象同期信号とともにC’RT7へ入力され、そこで画像
として表示される。
The display data input to the D/A conversion circuit 6 is converted into D/A converter 6.
After /A conversion, the image output from the display control circuit 5 (
The image synchronization signal is input to C'RT7, where it is displayed as an image.

第15図に画像情報を2次元マトリックス状にサンプリ
ングする方法を示す。各サンプリング点は画素と呼ばれ
る。ここでは、nXm(例えは、256X256>点で
サンプリングし、各画素(1,1)〜(256,256
>の濃度データが8ビツト(=25611調)で量子化
されている。
FIG. 15 shows a method of sampling image information in a two-dimensional matrix. Each sampling point is called a pixel. Here, sampling is performed at nXm (for example, 256X256> points, and each pixel (1,1) to (256,256
The density data of > is quantized with 8 bits (=25611 tones).

従来、各画素の濃度データを画像データ格納メモリ3に
割付ける場合、第16図に示す如く、1アドレスに1画
素の濃度データ(8ビツト)を割付けるようにしている
。つまり、画像データ格納メモリ3の4001H番地か
ら連続して、1アドレスに1画素の濃度データ(8ビツ
ト)を割付けるようにしている。
Conventionally, when the density data of each pixel is allocated to the image data storage memory 3, one pixel's density data (8 bits) is allocated to one address, as shown in FIG. That is, one pixel's density data (8 bits) is allocated to one address consecutively from address 4001H of the image data storage memory 3.

[発明が解決しようとする課題] ところで、画像データ格納メモリ3に格納された濃度デ
ータから例えば物体の領域を認識し、その領域内の濃度
値を変更する場合、各画素の濃度データから■輪郭を抽
出し、■輪郭の内側の領域を認識し、■上記■で認識し
た領域の内側の濃度を変更する、手順が一般的に採られ
ている。
[Problems to be Solved by the Invention] By the way, when, for example, a region of an object is recognized from the density data stored in the image data storage memory 3 and the density value within that region is changed, the outline is determined from the density data of each pixel. The following procedure is generally adopted: 1) Recognize the area inside the contour, and 2) Change the density inside the area recognized in (2) above.

しかしながら、従来の方法では、■で輪郭を抽出したと
きの輪郭データおよび■で輪郭の内側の領域を認識した
ときの領域認識データを別のメモリ領域に格納しなけれ
ばならない。このことは、メモリ領域を増やさなければ
ならない上、アクセスに要する時間がかかるという欠点
がある。
However, in the conventional method, the contour data obtained when the contour is extracted in (1) and the area recognition data obtained when the area inside the contour is recognized in (2) must be stored in separate memory areas. This has the disadvantage that the memory area must be increased and access takes time.

ここに、本発明の目的は、このような従来の欠点を解決
し、メモリの節約ができるとともに、アクセスに要する
時間も短縮できる画像情報処理装置を提供することにあ
る。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide an image information processing apparatus that can solve these conventional drawbacks, save memory, and shorten the time required for access.

[課題を解決するための手段] そのため、本発明では、画像情報を2次元マトリックス
状にサンプリングし、各サンプリング点における画@濃
度を量子化して得た濃度データを各アドレスごとに格納
する画像データ格納メモリを備え、この画像データ格納
メモリに格納された濃度データに対して演算処理を施す
画1象情報処理装置において、前記画像データ格納メモ
リの各サンプリング点における濃度データを格納する各
アドレスと同一アドレスに、その濃度データに対して施
された処理の結果を記憶する処理結果記憶エリアを設け
た、ことを特徴とする。
[Means for Solving the Problems] Therefore, the present invention provides image data in which image information is sampled in a two-dimensional matrix, and density data obtained by quantizing the image@density at each sampling point is stored for each address. In an image information processing device that includes a storage memory and performs arithmetic processing on the density data stored in the image data storage memory, each address is the same as each address for storing the density data at each sampling point of the image data storage memory. The present invention is characterized in that the address is provided with a processing result storage area for storing the results of processing performed on the density data.

[作 用] 各サンプリング点における濃度データを格納する各アド
レスと同一アドレスに、その濃度データに対して施され
た処理の結果を記憶する処理結果記憶エリアを設けであ
るから、各濃度データ゛に対して施された処理の結果を
その濃度データと同一のアドレスに記憶させることかで
きる。よって、メモリを節約することができるとともに
、アクセスに要する時間も短縮できる。
[Function] A processing result storage area for storing the results of processing performed on the density data is provided at the same address as each address for storing the density data at each sampling point. The results of the processing performed can be stored at the same address as the density data. Therefore, memory can be saved and the time required for access can also be shortened.

[実施例] 以下、本発明の一実施例を第1図〜第13図に基づいて
説明する。
[Example] Hereinafter, an example of the present invention will be described based on FIGS. 1 to 13.

第1図に本実施例の画像データ格納メモリ3のビット構
成を、第2図に画像情報処理装置の要部を示す。なお、
第2図では、前述した第14図における画像入力回路2
や表示制御回路5についての記載を省略しである。
FIG. 1 shows the bit configuration of the image data storage memory 3 of this embodiment, and FIG. 2 shows the main parts of the image information processing apparatus. In addition,
In FIG. 2, the image input circuit 2 in FIG.
The description of the display control circuit 5 and the display control circuit 5 is omitted.

これらの図に示す如く、本実施例では、前述した各サン
プリング点における濃度データ(ここでは、6ビツト)
を格納する各アドレス4001F。
As shown in these figures, in this example, the concentration data (here, 6 bits) at each sampling point mentioned above is
Each address 4001F stores .

4002H〜と同一アドレスに、その濃度データに対し
て施された処理の結果を記憶する処理結果記憶エリアが
割付けられている。
A processing result storage area for storing the results of processing performed on the density data is allocated to the same address as 4002H~.

ここでは、濃度データから得られる輪郭データを格納す
る第1のフラグF1と、領域認識データを格納する第2
のフラグF2とがそれぞれ割付けられている。
Here, the first flag F1 stores contour data obtained from density data, and the second flag F1 stores area recognition data.
The flag F2 is assigned to each flag.

そこで、これを利用する画像処理について、従来と対比
しながら説明する。
Therefore, image processing using this will be explained in comparison with the conventional method.

ここで、第3図に示すモデルを設定する。このモデルは
人間が視覚によって捕えられる状態を示している。ここ
では、斜線を施した゛′物体′°の部分Aを高濃度、周
辺の地の部分Bを低濃度とする。
Here, the model shown in FIG. 3 is set. This model shows the state in which humans are captured by vision. Here, the shaded portion A of the object is assumed to have a high density, and the surrounding ground portion B has a low density.

第4図は第3図のモデルのテジタル画像データ表現、つ
まり各サンプリング点における画1象凛度を量子化して
得た濃度データである。
FIG. 4 shows a digital image data representation of the model shown in FIG. 3, that is, density data obtained by quantizing the image quality at each sampling point.

そこで、第4図のデータから“′物体′″の部分Aを抽
出し、濃度値を変更する処理を行う場合を考える。この
処理の実現のために、ここでは、物体抽出で一般的に用
いられている次のアルゴリズムを用いる。
Therefore, let us consider a case in which a portion A of "'object'" is extracted from the data in FIG. 4 and the density value is changed. To implement this process, the following algorithm, which is commonly used in object extraction, is used here.

■物体の輪郭の抽出 ■輪郭の内側の領域の認識 ■上記■で認識した領域の濃度変更 以後、これらを順に説明する。■Extraction of object outline ■Recognition of the area inside the contour ■Change the density of the area recognized in ■ above Hereinafter, these will be explained in order.

1物体の輪郭の抽出 デジタル画像データから物体の輪郭を抽出する場合、第
5図に示す空間差分フィルタ11を用いて画像上を走査
する方法が一般的に用いられる。
1. Extracting the outline of an object When extracting the outline of an object from digital image data, a method of scanning the image using a spatial difference filter 11 shown in FIG. 5 is generally used.

これは、隣接する4つの画素の濃度データをa。This converts the density data of four adjacent pixels to a.

b、c、dとすると、la  dl+1b−cl −a
となる。
If b, c, d, la dl+1b-cl -a
becomes.

第6図は第4図のデジタル画像データを第5図の空間差
分フィルタ11で走査して得られた結果である。第7図
は“15”″をしきい値として第6図のデータを2値化
したものである。ここで、1”が立っている画素が物体
の輪郭である。
FIG. 6 shows the results obtained by scanning the digital image data of FIG. 4 with the spatial difference filter 11 of FIG. FIG. 7 shows the binarized data of FIG. 6 using "15" as a threshold value. Here, the pixels marked with "1" are the outline of the object.

今回の処理の最終目的は、第4図の画像中の“物体”の
部分Aの濃度変換であるから、第4図のデータを消して
しまうことはできない。そのため、従来の方法では、輪
郭データ格納用に別のメモリ領域を取り、そこに第6図
または第7図の輪郭データを格納しなくてはならない。
Since the final purpose of this processing is to convert the density of part A of the "object" in the image of FIG. 4, the data of FIG. 4 cannot be erased. Therefore, in the conventional method, a separate memory area must be provided for storing contour data, and the contour data of FIG. 6 or 7 must be stored there.

本実施例では、第1図のような構成であるから、第7図
に示す輪郭データを前記第1のフラグF1に格納するこ
とかできる。つまり、各画素の濃度データ(6ビツト)
が格納されている各アドレスと同一アドレスに、その各
画素が輪郭であるかを識別する輪郭データを格納するこ
とかできる。
In this embodiment, since the configuration is as shown in FIG. 1, the contour data shown in FIG. 7 can be stored in the first flag F1. In other words, each pixel's density data (6 bits)
It is possible to store contour data for identifying whether each pixel is a contour at the same address where the pixel is stored.

■輪郭の内側の領域の認識 第7図のデータから輪郭の内側を認識する方法としては
、いく通りか考えられる。ここでは、第8図に示す原理
に基づく方法を用いる。物体の外側から輪郭を横切って
物体の内側に入るとき、1本の輪郭を横切る。外側へ出
るには、もう1本の輪郭を横切らなくてはならない。第
8図に示すような曲がった物体では、更にもう一度物体
の内側を通過することらある。
■Recognition of the area inside the contour There are several ways to recognize the inside of the contour from the data shown in FIG. Here, a method based on the principle shown in FIG. 8 is used. When you cross an outline from the outside of an object and enter the inside of the object, you cross one outline. To get out, you have to cross another contour. In the case of a curved object as shown in FIG. 8, the object may pass through the inside of the object one more time.

このとき、横切った輪郭の本数と、その位置が物体の内
側か外側かの判定との間には、次の関係かある。即ち、
第9図に示すように、横切った輪郭の本数が奇数なら内
側、偶数なら外測である。
At this time, the following relationship exists between the number of crossed contours and the determination of whether the position is inside or outside the object. That is,
As shown in FIG. 9, if the number of crossed contours is odd, it is inside, and if it is even, it is outside.

そこで、第10図を用いて第7図の輪郭の内側を認識す
る方法を説明する。ます、第10図の(1,1)画素よ
り1行目を横方向へ走査する。
Therefore, a method for recognizing the inside of the outline in FIG. 7 will be explained using FIG. 10. First, the first row from the (1,1) pixel in FIG. 10 is scanned in the horizontal direction.

このとき、横切った輪郭の本数をカウントし、奇数のと
きは物体の内側として第11図に示す領域認識用メモリ
に゛lパを格納する。1行目の右端に達したらカウント
数を“0パにクリアし、次の行の走査を行う、■行目の
走査では、横切った輪郭の本数は常に“0“であるがら
、第11図の対応する画素列には全て“0”を格納する
At this time, the number of crossed contours is counted, and if it is an odd number, it is stored in the area recognition memory shown in FIG. 11 as being inside the object. When the right end of the first row is reached, the count number is cleared to "0" and the next row is scanned. All "0"s are stored in the corresponding pixel columns.

次に、2行目の走査では、第10図のイ点で輪郭を認め
“1″とカウントし、第11図の対応する画素に“1″
を格納する。続いて、質点も輪郭上の画素であるが、こ
のように隣接している場合はカウント数を増やさない、
従って、ここでのカウント数は“1″であるから、第1
1図の対応する画素には“1″を格納する。同様に、へ
点まではカウント数を増やさないがら、カウント数は“
1″のままである。よって、第11図の対応する画素に
は“内側“どの判定から゛1パを格納する。ハ点通過後
は実際は“外測″であるが、カウント数は“INのまま
なので“内側パとl!IJ定し、第11図の、2行目に
示すように右端まで全て“1″を格納する。しかし、第
10図の右端の二点まで達したとき、2行目走査終了時
のカウント数が“1″であるので、この行で横切った輪
郭は接線であったとして判定し、今度は逆方向へ走査を
開始する。へ点に達し最初の輪郭を検出するまで第11
図に°゛0′°を再格納する。
Next, in the second line of scanning, the outline is recognized at point A in Figure 10 and counted as "1", and the corresponding pixel in Figure 11 is counted as "1".
Store. Next, mass points are also pixels on the contour, but if they are adjacent like this, the count number will not be increased.
Therefore, since the count number here is "1", the first
“1” is stored in the corresponding pixel in FIG. Similarly, the count number does not increase up to the point, but the count number is “
Therefore, the corresponding pixel in FIG. Since it remains as it is, we set it as "inner P" and store "1" all the way to the right end as shown in the second line of Fig. 11. However, when it reaches the two points on the right end of Fig. 10, Since the count number at the end of the second line scan is "1", it is determined that the contour crossed in this line is a tangent line, and scanning starts in the opposite direction this time. 11th until detection
Restore °゛0′° in the diagram.

次に、3行目の走査では、ホ点で輪郭を検出してカウン
ト数か“1”になり、゛″内1tll+ ”と判定し、
へ点で2本目の輪郭を検出するまで第11図の対応する
画素に“1°″を格納する。以下、同様にして、第10
図の最終行まで走査し、物体の内側のR?l 識を終了
する。その時点で領域認識用メモリは、第12図のよう
になる。
Next, in the third line of scanning, the contour is detected at the point and the count becomes "1", and it is determined that "1tll+ in ""
"1°" is stored in the corresponding pixel in FIG. 11 until the second contour is detected at the point B. Below, in the same way, the 10th
Scan to the last line of the diagram and check the R inside the object? l End knowledge. At that point, the area recognition memory becomes as shown in FIG.

従来の方法では、領域認識データ格納用に別のメモリ領
域を取り、そこに第12図の領域認識データを格納しな
ければならない。
In the conventional method, a separate memory area must be provided for storing area recognition data, and the area recognition data shown in FIG. 12 must be stored there.

本実施例では、第1図に示す構成であるから、第12図
に示す領域認識データを前記第2のフラグF2に記憶さ
せることかできる。つまり、第2のフラグF2を領域認
識用メモリとして使用することができるので、別にメモ
リ領域を用意する必要がない。
In this embodiment, since the configuration is shown in FIG. 1, the area recognition data shown in FIG. 12 can be stored in the second flag F2. In other words, since the second flag F2 can be used as a memory for area recognition, there is no need to prepare a separate memory area.

■上記■で認識した領域の 度 換 上記■の処理を行うと、第2のフラグF2には、第12
図に示すデータが格納される。第12図で“1″が立っ
ている画素が物体の内的と考えられる。つまり、画素デ
ータ自身が自分が物体の内側であるか外測であるかの判
定結果を記憶していることになる。
■Conversion of the area recognized in above ■When the above process ■ is performed, the second flag F2 contains the 12th flag.
The data shown in the figure is stored. In FIG. 12, pixels with a value of "1" are considered to be internal to the object. In other words, the pixel data itself stores the determination result of whether it is inside or outside the object.

さて、第12図から第4図の原画像の濃度変換をする処
理を考える。ここでは、第4図の画像の物体の濃度に一
律に“10”を加算する処理を行う。これには、第12
図で“1″か立っている画素に対応する第4図の画素の
データに一律に10″を加算すれば、それが実現できる
。このようにして得られた結果か第13図である。
Now, let us consider the process of converting the density of the original images shown in FIGS. 12 to 4. Here, a process is performed in which "10" is uniformly added to the density of the object in the image of FIG. This includes the 12th
This can be achieved by uniformly adding 10'' to the pixel data in FIG. 4 that correspond to the pixels with a value of 1 in the figure. The result obtained in this way is shown in FIG. 13.

従って、本実施例によれば、各サンプリング点における
濃度データを格納する各アドレスと同一アドレスに、そ
の濃度データから得られる輪郭データを格納する第1の
フラグF1と、領域認識データを格納する第2のフラグ
F2とを設けたので、各画素の濃度データを格納する同
一アドレスに輪郭データと領域認識データとを格納する
ことかできる。
Therefore, according to this embodiment, the first flag F1 for storing the contour data obtained from the density data and the first flag F1 for storing the area recognition data are placed at the same address as each address for storing the density data at each sampling point. Since two flags F2 are provided, the contour data and area recognition data can be stored at the same address where the density data of each pixel is stored.

このことは、従来のように、別にメモリ領域を設けなく
てもよいので、メモリを節約することができる。また、
これらのデータが同一アドレスに格納されているので、
演算処理がしやすく、アクセスに要する時間も短縮でき
る。
This means that there is no need to provide a separate memory area as in the conventional case, and therefore memory can be saved. Also,
Since these data are stored at the same address,
It is easy to perform arithmetic processing, and the time required for access can be shortened.

また、これらの輪郭データおよび領域認識データを2値
データとして記憶しであるので、以後の処理についても
容易である。
Further, since these contour data and area recognition data are stored as binary data, subsequent processing is also easy.

なお、上記実施例では、各画素の濃度データを格納した
各アドレスと同一アドレスに、輪郭データを格納する第
1のフラグF1と、領域認識データを格納する第2のフ
ラグF2とを設けたか、いずれか一方のみでもよい。
In the above embodiment, the first flag F1 for storing contour data and the second flag F2 for storing area recognition data are provided at the same address as each address storing the density data of each pixel. Only one of them may be used.

また、格納するデータとしては、上述した輪郭データや
領域認識データに限られるものでなく、処理した結果で
あればいずれでもよい。
Further, the data to be stored is not limited to the above-mentioned contour data and area recognition data, but any processed results may be used.

[発明の効果コ 以上の通り、本発明によれば、各サンプリング点におけ
る濃度データを格納する各アドレスと同一アドレスに、
その濃度データに対して施された処理の結果を記憶する
処理結果記憶エリアを設けたので、処理結果を記憶する
ために、従来のように別にメモリ領域を設けなくてもよ
いので、メモリを節約することかできる。′!!、た、
処理結果が各濃度データと同一アドレスに格納されてい
るので、演算処理がしやすく、ア、クセスに要する時間
も短縮できる。
[Effects of the Invention] As described above, according to the present invention, at the same address as each address storing concentration data at each sampling point,
A processing result storage area is provided to store the results of the processing performed on the density data, so there is no need to provide a separate memory area to store the processing results, which saves memory. I can do something. ′! ! ,Ta,
Since the processing results are stored at the same address as each density data, calculation processing is easy and the time required for access can be shortened.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図〜第13図は本発明の一実施例を示すもので、第
1図は画像データ格納メモリのビット構成を示す図、第
2図は画像情@処理装置の要部を示す図、第3図は画像
データモデルを示す図、第4図は第3図のモデルをデジ
タル化した状態を示す図、第5図は空間差分フィルタを
示す図、第6図は第4図のデジタル画像データを空間差
分フィルタで走査したときに得られる結果を示す図、第
7図は第6図のデータから輪郭データを求めた結果を示
す図、第8図および第9図は物体の内側を認識する原理
を示す図、第10図および第11図は物体の内側の認識
方法を説明するための図、第12図は物体の内側を認識
した結果を示す図、第13図は濃度変換処理の結果を示
す図である。 第14図は一般的な画像情報処理装置を示すブロック図
、第15図は画@trt@のサンプリング方法を示す図
および第16図は従来の画像データ格納メモリを示す図
である。 3・・・画像データ格納メモリ、 Fl・・・第1のフラグ (処理結果記憶エリア)、 F2・・・第2のフラグ (処理結果記憶エリア)。
1 to 13 show an embodiment of the present invention, in which FIG. 1 shows a bit configuration of an image data storage memory, FIG. 2 shows a main part of an image information processing device, Figure 3 is a diagram showing an image data model, Figure 4 is a diagram showing a digitalized state of the model in Figure 3, Figure 5 is a diagram showing a spatial difference filter, and Figure 6 is a digital image of Figure 4. Figure 7 shows the results obtained when data is scanned with a spatial difference filter, Figure 7 shows the results of contour data obtained from the data in Figure 6, Figures 8 and 9 recognize the inside of the object. Figures 10 and 11 are diagrams explaining the method for recognizing the inside of an object, Figure 12 is a diagram showing the results of recognizing the inside of an object, and Figure 13 is a diagram showing the density conversion process. It is a figure showing a result. FIG. 14 is a block diagram showing a general image information processing device, FIG. 15 is a diagram showing a sampling method of an image @trt@, and FIG. 16 is a diagram showing a conventional image data storage memory. 3... Image data storage memory, Fl... First flag (processing result storage area), F2... Second flag (processing result storage area).

Claims (1)

【特許請求の範囲】[Claims] (1)画像情報を2次元マトリックス状にサンプリング
し、各サンプリング点における画像濃度を量子化して得
た濃度データを各アドレスごとに格納する画像データ格
納メモリを備え、この画像データ格納メモリに格納され
た濃度データに対して演算処理を施す画像情報処理装置
において、前記画像データ格納メモリの各サンプリング
点における濃度データを格納する各アドレスと同一アド
レスに、その濃度データに対して施された処理の結果を
記憶する処理結果記憶エリアを設けた、ことを特徴とす
る画像情報処理装置。
(1) An image data storage memory is provided that stores density data obtained by sampling image information in a two-dimensional matrix and quantizing the image density at each sampling point for each address. In an image information processing device that performs arithmetic processing on the density data, the result of the processing performed on the density data is stored at the same address as the address where the density data at each sampling point of the image data storage memory is stored. An image information processing device characterized by comprising a processing result storage area for storing.
JP1280788A 1989-10-27 1989-10-27 Picture information processor Pending JPH03142572A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1280788A JPH03142572A (en) 1989-10-27 1989-10-27 Picture information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1280788A JPH03142572A (en) 1989-10-27 1989-10-27 Picture information processor

Publications (1)

Publication Number Publication Date
JPH03142572A true JPH03142572A (en) 1991-06-18

Family

ID=17629968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1280788A Pending JPH03142572A (en) 1989-10-27 1989-10-27 Picture information processor

Country Status (1)

Country Link
JP (1) JPH03142572A (en)

Similar Documents

Publication Publication Date Title
JP2702928B2 (en) Image input device
US7949157B2 (en) Interpreting sign language gestures
US5625709A (en) Method and apparatus for identifying characteristics of an object in a field of view
JP2010525486A (en) Image segmentation and image enhancement
JPH0749927A (en) Pattern recognizing method
JP2010102584A (en) Image processor and image processing method
JPH041866A (en) Method and device for image processing
JPH07287753A (en) Article discrimination system
JPS6119077B2 (en)
US6904179B2 (en) Method for minimal-logic non-linear filter implementation
JPH03142572A (en) Picture information processor
WO2003063082A1 (en) Moving picture search apparatus
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
JP2621868B2 (en) Image feature extraction device
JP3045555B2 (en) Binarization processing method for multi-tone image information
JPH09245166A (en) Pattern matching device
JP2956151B2 (en) Image processing method and apparatus
JPH0760462B2 (en) Image area dividing device
JP2007287024A (en) Region detector
JP2784059B2 (en) Method and apparatus for removing noise from binary image
JPH064670A (en) Pattern matching device for gradation picture
JPH07160858A (en) Moving object detecting method and device
JPS6145690A (en) Processor of binary picture
JPS60162379A (en) Control method for picture memory access
JPH01187678A (en) Contour line display device