JPH01175083A - Image processor and method of image processing - Google Patents
Image processor and method of image processingInfo
- Publication number
- JPH01175083A JPH01175083A JP62334978A JP33497887A JPH01175083A JP H01175083 A JPH01175083 A JP H01175083A JP 62334978 A JP62334978 A JP 62334978A JP 33497887 A JP33497887 A JP 33497887A JP H01175083 A JPH01175083 A JP H01175083A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge extraction
- memory
- edge
- image memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 11
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims abstract description 19
- 238000003672 processing method Methods 0.000 claims description 4
- 230000015654 memory Effects 0.000 abstract description 44
- 230000000694 effects Effects 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000497429 Obus Species 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理装置に関するものである。[Detailed description of the invention] [Industrial application field] The present invention relates to an image processing device.
従来、エツジ抽出を利用した画像処理装置及び方法にお
いては、カラー画像をメモリ上に読み込み、そのまま微
分オペレータを用いてエツジ抽出を行うという方法が一
般的であった。Conventionally, in image processing apparatuses and methods using edge extraction, it has been common to read a color image into a memory and directly perform edge extraction using a differential operator.
〔発明が解決しようとしている問題点〕しかしながら、
上記従来例では、フレームメモリ上に取り込んだ原画像
、そのままのデータに対して、エツジ抽出を行っている
ため、エツジを得るための閾値の操作だけでは、エツジ
部以外にもノイズを拾ったり、エツジとして必要な部分
であるのに、エツジを検出しに(いという欠点があった
。[Problem that the invention is trying to solve] However,
In the conventional example above, edge extraction is performed on the original image imported into the frame memory, the data as it is, so if you only operate the threshold value to obtain the edges, noise may be picked up in areas other than the edges. Although it is necessary as an edge, it has the disadvantage of not being able to detect edges.
本発明はかかる欠点に鑑みてエツジ部以外のノイズを拾
うことな(良好にエツジ抽出を行うことが出来る画像処
理方法及び装置を提供することを目的とする。In view of this drawback, it is an object of the present invention to provide an image processing method and apparatus that can perform edge extraction without picking up noise other than edge portions.
〔問題点を解決するための手段(及び作用)〕上記目的
を達成するため、本発明に依れば、エツジ抽出の前にエ
ツジ抽出用の階調変換が行われる。[Means for Solving the Problems (and Effects)] To achieve the above object, according to the present invention, gradation conversion for edge extraction is performed before edge extraction.
以下説明する本発明の実施例によれば、エツジ抽出を行
う前に、エツジ抽出に適した階調変換を行うための階調
変換手段を設けることにより、階調変換を行ってからエ
ツジ抽出を行うことが出来、ノイズが少なく、連続性の
よいエツジ抽出を行い、またエツジ抽出の後に、自然な
階調へ戻すための階調変換手段を設けることにより、前
述の階調変換された画像を利用目的に応じた階調へ変換
しなおすようにした、画像処理装置が説明される。According to the embodiment of the present invention described below, by providing a gradation conversion means for performing gradation conversion suitable for edge extraction before performing edge extraction, edge extraction is performed after performing gradation conversion. By performing edge extraction with low noise and good continuity, and by providing a gradation conversion means to return to the natural gradation after edge extraction, the gradation-converted image described above can be An image processing device that converts the gradation back to a gradation according to the purpose of use will be described.
以下、本発明の一つの実施例について図面を用いて詳細
に説明する。第1図は本発明の一実施例におけるイラス
ト作製装置の全体を示すものである。Hereinafter, one embodiment of the present invention will be described in detail using the drawings. FIG. 1 shows the entire illustration production apparatus in one embodiment of the present invention.
第1図において1はイラストの原画となる画像や物体、
2は物体撮像装置であり、例えばTVカメラが用いられ
る。3は前記撮像した画像を処理する画像処理部であり
、その処理内容については後述する。In Figure 1, 1 is the image or object that is the original image of the illustration,
2 is an object imaging device, for example, a TV camera is used. Reference numeral 3 denotes an image processing section that processes the captured image, and the details of the processing will be described later.
4は前記画像処理部で処理した結果を、例えばCRTモ
ニタや、ハードコピーとして出力する出力装置である。Reference numeral 4 denotes an output device that outputs the results processed by the image processing section, for example, as a CRT monitor or a hard copy.
以上のように構成されたイラスト作製装置について、以
下、データの流れに従って説明する。第1図においてイ
ラストを作製しようとする物体lを、例えば人物を撮像
装置2、たとえば、TVカメラで撮像する。その撮像信
号はA/D変換され、画像処理部3に取り込まれる。The illustration production apparatus configured as described above will be explained below according to the flow of data. In FIG. 1, an image of an object l, for example a person, on which an illustration is to be made is captured by an imaging device 2, for example a TV camera. The image signal is A/D converted and taken into the image processing section 3.
画像処理部3で処理された結果は、カラービデオプリン
ターなどの出力装置4でハードコピーとして出力される
。The results processed by the image processing unit 3 are output as a hard copy by an output device 4 such as a color video printer.
第2図は画像処理部3をより詳細に示したブロック図で
ある。CPU5はコントロールプロセッサでCPUメモ
リ6とともに第1図面像処理部3全体のコントロールを
行う。パラメータ設定用l108にはタブレットが接続
され、座標情報をCPU5に送ることが可能となってい
る。イメージプロセッサ9は画像処理部の中核となる部
分で、CPU5の命令に従い、その結果を選択した任意
のイメージメモリ10〜15や画像データ用l1016
へ送る。イメージメモリlO〜14は512X512X
8ビツトの大きさを有する。また、ワーク用16ビツト
メモリ15は、深さ方向が16ビツト構成のメモリであ
り、累積加算、乗算、除算等8ビツトを超える画像演算
に用いられる。イメージメモリ10〜15はCPUBU
Sで接続されているので、CPU5からの命令で任意の
イメージメモリ10〜15に読み書きすることも、任意
のメモリ間でリアルタイム演算することも可能である。FIG. 2 is a block diagram showing the image processing section 3 in more detail. The CPU 5 is a control processor that controls the entire first drawing image processing section 3 together with the CPU memory 6. A tablet is connected to the parameter setting unit 1108, and coordinate information can be sent to the CPU 5. The image processor 9 is the core part of the image processing unit, and according to the instructions of the CPU 5, the results are stored in any selected image memory 10 to 15 or image data l1016.
send to Image memory lO~14 is 512X512X
It has a size of 8 bits. The 16-bit work memory 15 has a 16-bit structure in the depth direction, and is used for image operations using more than 8 bits, such as cumulative addition, multiplication, and division. Image memory 10-15 is CPUBU
Since they are connected by S, it is possible to read and write to and from any image memories 10 to 15 by commands from the CPU 5, and it is also possible to perform real-time calculations between arbitrary memories.
イメージメモリ10〜12の出口(読み出しくIIJ)
にはルックアップテーブル17〜19という高速RAM
が接続されている。このRAMは256 X 8ビツト
の構造を持ち、RAMのアドレスライン8本(0〜25
5番地(0〜255階調)を指定できる)は各イメージ
メモリの出力に直結され、データライン8本はVIDE
OBUSに接続されている。またRAMの内容はCPU
5により自由に読み書きできる。Exit of image memory 10 to 12 (readout IIJ)
has high-speed RAM with lookup tables 17 to 19.
is connected. This RAM has a 256 x 8 bit structure, with 8 RAM address lines (0 to 25
Address 5 (0 to 255 gradations can be specified) is directly connected to the output of each image memory, and 8 data lines are VIDE
Connected to OBUS. Also, the contents of RAM are
5 allows you to read and write freely.
第9図、第10図は、ルックアップテーブル17〜19
の状態を示すグラフであり、横軸に入力階調、縦軸に出
力階調を示す。第9図は標準状態を示し、0番地には0
.1番地には1,255番地には255という値が書き
込まれているのを示し、入力出力の内容が同一となる。9 and 10 show lookup tables 17 to 19.
This is a graph showing the state of , where the horizontal axis shows the input gradation and the vertical axis shows the output gradation. Figure 9 shows the standard state, with 0 at address 0.
.. It shows that the value 255 is written in the 1st address and 1,255th address, and the input and output contents are the same.
また、第10図は、θ番地に255゜1番地に254,
255番地にOという値が書き込まれている状態を示し
、第10図に示されたルックアップテーブルを用いる場
合には入力、出力の関係は輝度データが反転された画像
となる。In addition, Fig. 10 shows 255° at address θ, 254 at address 1,
This shows a state in which a value O is written at address 255. When using the lookup table shown in FIG. 10, the relationship between input and output is an image in which the luminance data is inverted.
画像データ用I1016には、第1図TVカメラ2およ
び出力装置4が接続され、CPU5の命令に従い、画像
データの入出力を行う。The TV camera 2 and output device 4 shown in FIG. 1 are connected to the image data I1016, and input and output image data according to instructions from the CPU 5.
第3図は、第1図面像処理部3で行われる本発明の画像
処理方法のエツジ抽出方法を用いたイラスト処理(人間
の顔から似顔絵を得る処理)についてのフローチャート
を示す。以下データの流れに従い処理方法を詳細に説明
する。ここで、便宜上、デジタル画像を構成する赤、緑
、青成分のデータをR9G、Bで表わす。また、1画素
は各成分それぞれ8ビツト構成、すなわち256階調表
現可能なデータであり、最高輝度を255、最低輝度を
0とする。FIG. 3 shows a flowchart of illustration processing (processing to obtain a portrait from a human face) using the edge extraction method of the image processing method of the present invention, which is performed in the first drawing image processing unit 3. The processing method will be explained in detail below according to the data flow. Here, for convenience, data of red, green, and blue components forming a digital image are expressed as R9G and B. Furthermore, one pixel is composed of 8 bits for each component, that is, data capable of expressing 256 gradations, with the highest brightness being 255 and the lowest brightness being 0.
ステ゛ンプSlの1日
被写体に適当な照明を行い、構図が決定したなら、パラ
メータ設定用l108に接続されているタブレットから
処理開始の情報を送る。CPU5はその情報を受けとる
と、画像データI1016にTV右カメラ力の命令を送
り、その結果、8ビツトに量子化したRGBの輝度デー
タを各イメージメモリ10,11゜12へ分けて格納す
る。イメージメモリ10,11.12は順にビデオ信号
のRGBに対応しており、作業者はCRTモニタにより
イメージメモリ10,11.12の状態を確認すること
ができる。Appropriate lighting is applied to the subject of the step S1 for one day, and once the composition is determined, information to start processing is sent from the tablet connected to the parameter setting l108. When the CPU 5 receives this information, it sends a TV right camera power command to the image data I1016, and as a result, the RGB luminance data quantized to 8 bits is stored separately in each image memory 10, 11, 12. The image memories 10, 11.12 correspond to RGB video signals in order, and the operator can check the status of the image memories 10, 11.12 on the CRT monitor.
スーツ S2のfB
次にCPU5の命令によりイメージプロセッサ9はエツ
ジ抽出処理を行う。この部分が本発明の実施例の特徴と
するところである。既存の方法では、例えば3×3の微
分オペレータを用いて、エツジ抽出を行い、次にエツジ
部分をつなぎ合わせて閉領域を作製していた。ところが
、前述の方法では、フィルタリング処理後、ある閾値に
より2値化を行うだけなので、エツジが途中でと切れた
り、不必要な部分にまでエツジを検出してしまうことが
多かった。そこで、本発明の実施例では、エツジ検出の
前にあらかじめ適切なエツジが得られるように、ルック
アップテーブル17〜19を用いて、原画像データを階
調変換してから、エツジ検出を行うことで前述の問題点
を解決した。ルックアップテーブルの内容は、エツジ抽
出に用いるオペレータの特性に応じて、実験的に求めて
、CPUメモリ6に書き込んである。第7図に本実施例
で用いたルックアップテーブル17〜19の内容を示す
。このテーブルは人間の顔の様に比較的高い輝度領域に
エツジが発生している場合に用いられるテーブルであり
、高い輝度領域を引き伸ばす様な特性が選択されている
。本実施例では、ルックアップテーブル17〜19に対
して同一のテーブルを使用している。また、このルック
アップテーブルとしては例えば輝度データのO〜255
までの出現頻度のヒストグラムを作り、このヒストグラ
ムの累積ヒストグラムを作成し、この累積ヒストグラム
によって階調変換する様なテーブルとしてもよい。また
17〜!9に同一のテーブルを用いず、色毎にテーブル
を作成する様にしてもよい。イメージメモリ10〜12
のデータはリアルタイムで階調変換されて、再度イメー
ジメモリ10〜12へ書き込まれる。fB of suit S2 Next, the image processor 9 performs edge extraction processing according to a command from the CPU 5. This part is a feature of the embodiment of the present invention. In the existing method, edges are extracted using, for example, a 3×3 differential operator, and then the edge portions are connected to create a closed region. However, in the above-mentioned method, after filtering processing, only binarization is performed using a certain threshold value, so edges are often cut off in the middle or edges are detected in unnecessary parts. Therefore, in the embodiment of the present invention, edge detection is performed after converting the gradation of the original image data using lookup tables 17 to 19 so that appropriate edges can be obtained in advance before edge detection. The above-mentioned problem was solved. The contents of the lookup table are experimentally determined according to the characteristics of the operator used for edge extraction, and are written into the CPU memory 6. FIG. 7 shows the contents of lookup tables 17 to 19 used in this embodiment. This table is used when edges occur in a relatively high brightness area, such as a human face, and a characteristic that stretches the high brightness area is selected. In this embodiment, the same table is used for lookup tables 17-19. Also, as this lookup table, for example, the luminance data is O~255.
A table may also be used in which a histogram of the frequency of occurrence is created, a cumulative histogram of this histogram is created, and tone conversion is performed using this cumulative histogram. See you at 17! Instead of using the same table for each color, a table may be created for each color. Image memory 10-12
The data is gradation-converted in real time and written to the image memories 10 to 12 again.
次に、3×3の微分オペレータを用いて、エツジ抽出を
行う。Next, edge extraction is performed using a 3×3 differential operator.
第5図に代表的な微分オペレータの例を3つ示す。FIG. 5 shows three typical examples of differential operators.
始めにR成分の処理を行う。つまり、イメージメモリ1
0に対して第5図(a)の微分オペレータを用いてエツ
ジ抽出を行い、その結果をワーク用イメージメモリ14
に格納する。そして、ワーク用イメージメモリ13との
ORをとり、結果をワーク用イメージメモリ13へ格納
する。同様に第5図(a)を(b)のように左回りに回
転したオペレータを用いて同様の処理を行う。同様に第
5図(C)を用いて処理を行い、以下8方向全てに対し
て処理を施す。First, the R component is processed. In other words, image memory 1
0 using the differential operator shown in FIG. 5(a), and the results are stored in the work image memory 14.
Store in. Then, an OR is performed with the work image memory 13 and the result is stored in the work image memory 13. Similarly, the same process is performed using the operator who rotates counterclockwise from FIG. 5(a) to FIG. 5(b). Similarly, processing is performed using FIG. 5(C), and processing is performed for all eight directions below.
イメージメモリlOに対して処理が終了したら、同様に
イメージメモリ11.イメージメモリ12に対しても同
様な処理を行いすべてのORをとる。そして、所定のレ
ベルで2値化処理を行う。この結果、エツジがつながり
あい、画像はい(つかの閉領域に分割される。以後その
領域の1つ1つを等色領域と呼ぶことにする。When the processing is completed for the image memory IO, the image memory 11. Similar processing is performed on the image memory 12 and all ORs are taken. Then, binarization processing is performed at a predetermined level. As a result, the edges are connected, and the image is divided into several closed regions.Hereafter, each of these regions will be referred to as a uniform color region.
最後にイメージメモリ10〜12のデータをルックアッ
プテーブル17〜19を用いて以降の使用目的に応じて
階調変換を行う。つまり、入力時と同゛−のデータが必
要な場合は、第7図に示すテーブルの逆変換のテーブル
を使用すればよい。本実施例では、後に、閉領域の塗り
つぶし処理に適した第8図に示すテーブルを実験的に求
め使用している。Finally, the data in the image memories 10-12 are subjected to gradation conversion using look-up tables 17-19 depending on the purpose of use thereafter. In other words, if the same data as that at the time of input is required, an inverse conversion table of the table shown in FIG. 7 may be used. In this embodiment, a table shown in FIG. 8 suitable for filling in closed areas is experimentally determined and used later.
階調変換されたデータは再びイメージメモリ10〜12
へ格納される。The gradation-converted data is stored in the image memories 10 to 12 again.
is stored in
スーツプS3の曾口
第6図に人間の顔を処理してステップS2で得られた結
果の一例を示す。この場合ワーク用メモリ13、イメー
ジメモ゛す10,11.12の画像が合成される。この
図で黒い部分は、エツジ部分であり、概して空間周波数
の高域側が多(、白い部分は低周波側が多い部分である
。また、第4図にCRTモニタに表示される画面の優先
順位を示す。つまり、ワーク用イメージメモリ13がイ
メージメモリ10,11゜12よりも優先順位が高いた
め、カラー画像の上に輪郭線が描かれたように見える。Figure 6 shows an example of the results obtained in step S2 when a human face is processed. In this case, images in the work memory 13 and image memories 10, 11, and 12 are combined. In this figure, the black parts are the edge parts, which generally have a high frequency range (and the white parts have a high frequency range). Also, Figure 4 shows the priority order of the screen displayed on the CRT monitor. In other words, since the work image memory 13 has a higher priority than the image memories 10, 11 and 12, it appears as if an outline has been drawn on the color image.
イメージプロセッサ9はCPU5の命令を受け、輪郭線
で囲まれた各領域にラベル付けを行う。ラベルは髪の毛
領域と、顔の膚領域だけに付けられる。このラベル付け
の手順について説明する。まず画面上の各領域の面積の
大きい方から2つ選択し、それぞれの領域のYの最大値
の大きい方を髪の毛部分第6図の、他方を肌部分第6図
■とする。CPUメモリ6には、あらかじめ髪の毛と肌
色をぬりつぶすのに適したRGB値が記録されている。The image processor 9 receives instructions from the CPU 5 and labels each area surrounded by the outline. Labels are applied only to hair regions and facial skin regions. This labeling procedure will be explained. First, select two areas on the screen from the largest area, and select the one with the largest maximum value of Y for each area as the hair portion in FIG. 6, and the other as the skin portion in FIG. 6 (■). In the CPU memory 6, RGB values suitable for filling in hair and skin colors are recorded in advance.
ぬりつぶしを行う場合、特に人物の膚色が観察者に与え
る印象は太き(、原画像の膚色部分の平均値でぬりつぶ
しを行っても、主観的に膚色として好ましい色にはなら
ないのが普通である。そこで、実験的に、好ましいとさ
れるRGB値を求めておき、それがCPUメモリ6に記
憶されている。イメージプロセッサ9はCPU5の命令
を受け、それぞれ第6図■、■の領域を、CPUメモリ
に記録されている値で自動的にぬりつぶしを行う。ここ
でぬりつぶされるのはイメージメモリ10,11.12
の髪の毛と肌部分でなおかつ、イメージメモリ13にビ
ットの立ってない部分だけである。When filling in, the impression that a person's skin color gives to the viewer is thick (and even if you fill in using the average value of the skin color part of the original image, it is usually not a color that is subjectively desirable as a skin color.) Therefore, preferred RGB values have been determined experimentally and are stored in the CPU memory 6.The image processor 9 receives instructions from the CPU 5, and processes the areas (■) and (■) in FIG. 6, respectively. Coloring is performed automatically using the values stored in the CPU memory.The images that are filled in here are image memories 10, 11, and 12.
These are the only hair and skin parts of the image that do not have bits set in the image memory 13.
つまり第7図白抜き部分(低周波部分)だけがぬりつぶ
され、黒い輪郭線部分(高周波部分)は原画情報がその
まま残る。この結果、目、髪の毛の周辺部など高周波成
分は原画像が残り、低周波成分は均一なぬりつぶしとな
り、あたかも熟練したイラストレイターがポスターカラ
ーを用いて描いたような細密なイラストレーションのよ
うな絵ができ上がる。In other words, only the white parts (low frequency parts) in FIG. 7 are filled in, and the original image information remains as is in the black outline parts (high frequency parts). As a result, high-frequency components such as the areas around the eyes and hair remain as the original image, while low-frequency components are filled in uniformly, creating a detailed illustration that looks as if it was drawn by a skilled illustrator using poster colors. It's done.
スーツ S4の雪ロ
イメージメモリ13を消去する。この結果、CRTモニ
タ上で見られた輪郭線が消え、似顔絵のイラストレーシ
ョンが完了する。Erase the snow image memory 13 of suit S4. As a result, the outline seen on the CRT monitor disappears, and the illustration of the portrait is completed.
スーツブS5の9日
イメージメモリ10,11.12の内容をビデオプリン
タで出力して、処理が完了する。The contents of the 9th day image memory 10, 11.12 of the suite S5 are outputted by the video printer, and the process is completed.
本実施例では、TVカメラより、直接3次元の被写体を
撮影し、画像入力したが、印刷物、フィルム、写真プリ
ントから入力しても同様の効果が得られる。また、入力
装置としてTVカメラを用いたが、スチルビデオフロッ
ピーディスク、ビデオテープ、磁気ディスク、磁気テー
プ、光ディスク等の記録媒体を介して画像データを入力
しても同様の効果が得られる。In this embodiment, a three-dimensional object was directly photographed using a TV camera and the image was input, but the same effect can be obtained by inputting from a printed matter, film, or photographic print. Although a TV camera is used as the input device, the same effect can be obtained by inputting image data via a recording medium such as a still video floppy disk, video tape, magnetic disk, magnetic tape, or optical disk.
また、本実施例では、R,G、IBのデータに対して同
一のテーブルを使用したが、R,G、Hに対して別々の
テーブルを用いることも可能である。この場合、例えば
R,G、Hのデータに対して夫々前述の累積ヒストグラ
ムを作成し、これによって夫々のデータの階調変換を行
った後にエツジ検出する様になる。カラー画像の場合、
色毎のヒストグラムは大きく異なるので、この方法は大
いに有効である。またエツジ抽出用の階調変換テーブル
は実施例に示されたテーブル以外の種々のテーブルが使
用可能である。Further, in this embodiment, the same table is used for R, G, and IB data, but it is also possible to use separate tables for R, G, and H. In this case, for example, the aforementioned cumulative histograms are created for each of the R, G, and H data, and edges are detected after performing gradation conversion of each data. For color images,
This method is very effective because the histograms for each color vary greatly. Further, as the gradation conversion table for edge extraction, various tables other than the table shown in the embodiment can be used.
以上説明したように、本実施例に依れば、エツジ抽出の
前に階調変換してから、エツジ抽出を行うことにより、
連続性が良く、ノイズの少ないエツジが得られ、また、
エツジ抽出の後に階調変換することにより、後の使用目
的に適した階調再現のデータを得ることができるととも
に、入力時の原画像を保存しておく必要がなくなるので
メモリーの節約にもなるという効果がある。As explained above, according to this embodiment, by performing gradation conversion before edge extraction and then performing edge extraction,
Edges with good continuity and less noise can be obtained, and
By performing gradation conversion after edge extraction, it is possible to obtain gradation reproduction data suitable for later use, and it also saves memory because there is no need to save the original image at the time of input. There is an effect.
以上の様に本発明に依ればエツジ部分以外のノイズを拾
うことなく良好にエツジ抽出を行うことが出来る。As described above, according to the present invention, edge extraction can be performed satisfactorily without picking up noise other than edge portions.
第1図はイラスト作製装置の全体図、第2図は画像処理
部詳細図、第3図は処理のフローチャート、第4図はC
RTモニタ画面への表示優先順位、第5図は処理に用い
る微分オペレータ、第6図は領域分割の結果、第7図は
エツジ抽出前のルックアップテーブルの内容例、第8図
はエツジ抽出後のルックアップテーブルの内容例、第9
図、第10図はルックアップテーブルの説明図、Figure 1 is an overall diagram of the illustration creation device, Figure 2 is a detailed diagram of the image processing section, Figure 3 is a flowchart of the process, and Figure 4 is a C
Display priority order on the RT monitor screen, Fig. 5 shows the differential operator used for processing, Fig. 6 shows the result of region division, Fig. 7 shows an example of the lookup table contents before edge extraction, and Fig. 8 shows after edge extraction. Example of lookup table contents, No. 9
Figure 10 is an explanatory diagram of the lookup table,
Claims (2)
処理方法であって、エッジ抽出の前にエッジ抽出用の階
調変換を行うことを特徴とする画像処理方法。(1) An image processing method for extracting edges from given image data, which is characterized by performing tone conversion for edge extraction before edge extraction.
れた画像データにエッジ抽出用の階調変換を行う階調変
換手段、該変換手段によってエッジ抽出用に階調変換さ
れたデータのエッジ抽出を行う手段とを有することを特
徴とする画像処理装置。(2) Means for supplying image data, tone conversion means for performing tone conversion for edge extraction on the image data supplied by the means, edge extraction of data subjected to tone conversion for edge extraction by the conversion means An image processing device comprising means for performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62334978A JPH01175083A (en) | 1987-12-28 | 1987-12-28 | Image processor and method of image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62334978A JPH01175083A (en) | 1987-12-28 | 1987-12-28 | Image processor and method of image processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH01175083A true JPH01175083A (en) | 1989-07-11 |
Family
ID=18283352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62334978A Pending JPH01175083A (en) | 1987-12-28 | 1987-12-28 | Image processor and method of image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH01175083A (en) |
-
1987
- 1987-12-28 JP JP62334978A patent/JPH01175083A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3095818B2 (en) | Method and apparatus for mapping a color image to a black and white image | |
US20070247474A1 (en) | Method, apparatus and recording medium for image processing | |
EP0302454B1 (en) | System and method for color image enhancement | |
JPS60139080A (en) | Picture forming device | |
CA2618790A1 (en) | Hardware-accelerated color data processing | |
JP2003092690A (en) | Image data processing method, apparatus, storage medium and program | |
CN113132696A (en) | Image tone mapping method, device, electronic equipment and storage medium | |
Fairchild et al. | Image appearance modeling | |
US7212674B1 (en) | Method, apparatus and recording medium for face extraction | |
JP2001175843A (en) | Image processing method, image processor and storage medium | |
JP2000196890A (en) | Method and device for image processing and recording medium | |
US6553140B1 (en) | Method and system for spill correction | |
CN101951510B (en) | High dynamic range compression method based on multiscale DoG filter | |
JPH01175083A (en) | Image processor and method of image processing | |
KR20020084321A (en) | real-time character composition method using template | |
JP2685458B2 (en) | Image processing method | |
JP2779162B2 (en) | Image processing method | |
JP2000013622A (en) | Image processing method, device and recording medium | |
CN110708476A (en) | Real-time image processing method and device | |
JPH01109480A (en) | Image processor | |
JPS62222373A (en) | Image processor | |
JP2543857B2 (en) | Color image processing device | |
US20050047650A1 (en) | Image processing apparatus, method and program | |
JP2688811B2 (en) | How to color black and white images | |
JP2502284B2 (en) | Image processing method |