JPS59186065A - Method and apparatus for extracting picture information - Google Patents

Method and apparatus for extracting picture information

Info

Publication number
JPS59186065A
JPS59186065A JP58060863A JP6086383A JPS59186065A JP S59186065 A JPS59186065 A JP S59186065A JP 58060863 A JP58060863 A JP 58060863A JP 6086383 A JP6086383 A JP 6086383A JP S59186065 A JPS59186065 A JP S59186065A
Authority
JP
Japan
Prior art keywords
image
information
image information
picture
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58060863A
Other languages
Japanese (ja)
Other versions
JPH0559471B2 (en
Inventor
Taketo Hasegawa
長谷川 岳都
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP58060863A priority Critical patent/JPS59186065A/en
Publication of JPS59186065A publication Critical patent/JPS59186065A/en
Publication of JPH0559471B2 publication Critical patent/JPH0559471B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To extract picture information of a position designated optionally depending on the objective of application by providing a device with a picture output means outputting picture information of an image stored in a memory to a visual image and a picture information extracting means. CONSTITUTION:When a picture B desired to be extracted exists in a screen A, since the 1st designating position is a point P, line segments b, c are displayed by a straight line generating circuit 25 of a display unit DU2. Then, the circuit 25 displays line segments d, e by the information of the 2nd position designating point Q. Thus, a visual image B of the screen A is surrounded by a rectangle (f) comprising the line segments b, c, d, e. When a picture in the rectangle (f) is a desired picture, an extracting command of picture information is generated from a pointing device. Since a control section 24 receiving the said command extracts the picture information in the rectangle (f) in accordance with the command from a CPU1 and transfers it to the CPU1, because the relation of X1<X2 and Y1<Y2 is established as to the two points P and Q subject to position designation.

Description

【発明の詳細な説明】 技術分野 本発明は画像情報の抽出装置及び抽出方法に関する。さ
らに詳しく言えば、可視像の部位を指定してこれに対応
する画像情報を抽出し、よって所望の部位の画像を得る
ことの可能な画像情報の抽出装置及び抽出方法に関する
DETAILED DESCRIPTION OF THE INVENTION Technical Field The present invention relates to an image information extraction device and extraction method. More specifically, the present invention relates to an image information extraction device and extraction method capable of specifying a part of a visible image and extracting image information corresponding thereto, thereby obtaining an image of a desired part.

従来技術 近年、コンピュータによる画像処理が広く行なわれてい
る。この場合、原画像の採取にはTV右カメラを用い、
採取した画像信号の濃淡の階調を数ビットに量子化した
デジタル情報に変換し、これらデジタル情報を走査線の
順、序に従って2次元に配列したところの画像情報を得
ている。コン2ユータによる画像処理の基本的なものは
フィルタリング処理である。これらは、採取した画像情
報の雑音成分を除去するための平滑化処理であシ、また
画像の特徴抽出のだめの尖鋭化処理等である。
BACKGROUND OF THE INVENTION In recent years, image processing by computers has been widely performed. In this case, the TV right camera is used to collect the original image,
Image information is obtained by converting the gray scale of the sampled image signal into digital information quantized into several bits, and arranging this digital information two-dimensionally according to the order of the scanning lines. The basic image processing performed by a computer is filtering processing. These include smoothing processing for removing noise components of the collected image information, and sharpening processing for extracting features of the image.

次に行なわれる処理は、例えば、画質の改善された画像
出力を得るための処理、あるいは画像認識のだめの特徴
抽出処理等である。このようにして採取された原画像の
情報はコンピュータによって順次処理され、画質の改善
、あるいはコンピュータによる認識や処理がし易い形の
画像情報に変換されている。
The next processing is, for example, processing for obtaining an image output with improved image quality, or feature extraction processing for image recognition. The information on the original image collected in this way is sequentially processed by a computer to improve the image quality or convert it into image information in a form that is easy to recognize and process by the computer.

かかる画像処理は、操作者が注目するところの部位の画
像に対してのみ行なわれるのが普通である。また従来技
術によれば、画像処理はTV右カメラ情報処理装置とを
一体とした構成で、原画像の採取とその後の処理とを実
時間で行なうものが多い。従って注目すべき部位の画像
情報を得るには、専らTV右カメラ視野をほぼ目的の対
称部位に合わせて行なうか、又はその対称部位が視野の
所定位置に入ったときに同期して画像情報を抽出するも
のであった。つまシ採取した画像の任意の部位を操作者
が指定することによって所望の部位の画像情報を抽出す
るものではなかった。一般に、採取した原画像の情報は
後のコンピュータ処理のために一度メモリに格納される
。この情報を直ちに処理しないで外部の記憶装置にファ
イルし、後に必要に応じて選択呼出して使用する場合も
ある。
Such image processing is normally performed only on images of the region of interest to the operator. Furthermore, according to the prior art, image processing is often performed in a configuration in which the TV right camera information processing device is integrated, and acquisition of an original image and subsequent processing are performed in real time. Therefore, in order to obtain image information of an area of interest, either align the TV right camera field of view almost with the target symmetrical area, or synchronize the image information when the symmetrical area enters a predetermined position in the field of view. It was something to extract. The image information of a desired region is not extracted by the operator specifying an arbitrary region of the captured image. Generally, information about the acquired original image is stored once in memory for later computer processing. In some cases, this information is not processed immediately but is filed in an external storage device and later selectively recalled and used as needed.

このような装置は実時間の画像処理を目的としたもので
はないが、むしろ上述した画像処理方式を実現するだめ
の研究手段として用いられ、やはり原画像採取の対称部
位は実質的にはその処理目的に応じた視野で制限を受け
ているものであった。
Such devices are not intended for real-time image processing, but rather are used as a research tool to realize the above-mentioned image processing method; The field of view was limited depending on the purpose.

目的 本発明は上述従来技術の背影に鑑みて為されたものであ
ってその目的とする所は、画像情報の可視像出力からそ
の使用目的に応じて一任意指定された部位の画像情報を
抽出し提供することの可能な画像情報の抽出装置を提案
することにある。
Purpose The present invention has been made in view of the background of the above-mentioned prior art, and its purpose is to extract image information of an arbitrarily designated part from the visible image output of image information according to the purpose of use. The object of the present invention is to propose an extraction device for image information that can be extracted and provided.

本発明の他の目的は、簡単な操作で可視像の特定の部位
を囲み、抽出の容易な画像情報の抽出方法を提案するこ
とにある。
Another object of the present invention is to propose a method for extracting image information that is easy to extract by enclosing a specific part of a visible image with a simple operation.

実施例 以下図面に従って本発明の実施例を詳細に郷関する。第
1図は実施例のクステム構成を示すブロック図である。
Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the system configuration of the embodiment.

図において、1は主制御を掌るセントラルデロセシング
ユニット(CPU) 、2 a可i像を出力するディス
プレイユニット(DU) 、 3ii:原画像採取のた
めのイメーソリーグ(IR) 、4は可視像に対する位
置指定入力とこれに附随する7ア、ンクションコマンド
を入力するポインテイングデバイス(PD)、5はギー
ポード(KU) 、 6は採取した原画像をファイルす
るディスクユニット(DISK)、7は上述機器を接続
するCPUIのシステムパスである。
In the figure, 1 is a central deprocessing unit (CPU) that handles the main control, 2 is a display unit (DU) that outputs a visible image, 3ii is an image sensor (IR) for collecting original images, and 4 is a visible Pointing device (PD) for inputting position designation for the image and accompanying 7A/Faction commands; 5 for inputting gearpad (KU); 6 for storing the collected original image as a file for a disk unit (DISK); 7 as described above. This is the system path of the CPUI that connects the device.

以上の構成において以下にその作用を詳述する。The operation of the above configuration will be explained in detail below.

先ずIR3はイメージ画像を採取する。このとき、光の
強弱信号は走査線に従つ′*電気信号に変換され、さら
にAD変換器によって画累毎のピッ) Aラレル信号に
変換される。ピットノ’?ラレル信号ハ画素の濃淡を示
す画素情報であるが、これらを走査線に従った順序でC
PUI内のメモリに一時記憶させることによって画像情
報を形成する。この画像情報は直ちにDU2に表示して
可視像に変換しても良いが、そのままDISK 6にフ
ァイルし、後に呼び出して使用しても良い。DISK 
6にはこのようにして既に採取した複数の画像情報がフ
ァイルされている。そしてこれら一般の指示操作は肋5
を介して行なわれる。次に操作者は、必要ならばDIS
K 6から伺塾かの画像情報を選択して呼び出し、これ
をDU2の可視像に変換する。
First, IR3 collects an image. At this time, the intensity signal of the light is converted into an electric signal according to the scanning line, and further converted by an AD converter into a parallel signal for each image. Pitno'? The parallel signal C is pixel information indicating the density of the pixel, and these are C in the order according to the scanning line.
Image information is formed by temporarily storing it in a memory within the PUI. This image information may be immediately displayed on the DU 2 and converted into a visible image, but it may also be filed as is on the DISK 6 and recalled later for use. DISK
6, a plurality of pieces of image information already collected in this way are filed. And these general instruction operations are
It is done through. The operator then disables the DIS if necessary.
Select and call up the image information of Kijuku from K6 and convert it into a visible image of DU2.

ここで第2図にDU2の構成ブロック図を示す。Here, FIG. 2 shows a block diagram of the configuration of DU2.

図において、21はラスタスキャン表示方式のCRT。In the figure, 21 is a CRT of raster scan display type.

22はビデオ信号による輝度変調とラスタ走査信号を成
牛ずる表示回路で入力画素情報をビデオ信号に変換する
DA変換器を含む、23は走査順序に従ったイメージの
画像情報を記憶するV RAMである。24は表示制御
部でDU2の主制御を行なう。主制御の1つは、表示回
路22からの水垂、水平同期信号に従ってVRAM 2
3の読出アドレスを更新し、CRT21の画面に可視像
が繰返し得られるように制御する。26は画面のXY座
標軸に従った座標値を保持する位置指定レジスタで、こ
の値はPD4からの位置指定情報入力によってセットさ
れる。位置指定操作は少なくとも2点について行なうか
ら実施例のレジスタも第1及び第2の位置指定レジスタ
を有する。先ず第1の位置指定レジスタにM LM4値
(Xl、Yl)がセットされると直線発生回路25が起
動される。1■糾発生回路25は入力座標値(XI、Y
l)V?:、従ってy=Yl。
22 is a display circuit that performs brightness modulation using a video signal and a raster scanning signal, and includes a DA converter that converts input pixel information into a video signal; 23 is a VRAM that stores image information of images according to the scanning order; be. 24 is a display control unit that performs main control of DU2. One of the main controls is VRAM 2 according to the horizontal synchronization signal from the display circuit 22.
3 is updated, and control is performed so that a visible image is repeatedly obtained on the screen of the CRT 21. Reference numeral 26 denotes a position designation register that holds coordinate values according to the XY coordinate axes of the screen, and this value is set by position designation information input from the PD 4. Since the position designation operation is performed for at least two points, the register of the embodiment also has first and second position designation registers. First, when the MLM4 value (Xl, Yl) is set in the first position designation register, the straight line generation circuit 25 is activated. 1■ The judgment generation circuit 25 receives input coordinate values (XI, Y
l) V? :, therefore y=Yl.

x = X 1なる直Jsターン信号を発生する回路で
ある。さらに詳しく言えば、第3図に示す実施例の表示
画面Aにおいて、ラスタa。iJ:4点がX座標のX。
This is a circuit that generates a direct Js turn signal where x = X1. More specifically, on the display screen A of the embodiment shown in FIG. 3, raster a. iJ: 4 points are the X coordinates.

からXHに向けて走査されることによって生ずる。そし
てこのときのY座標値はy。である。このような走査を
Y軸の座標値ymまで縁シ返すことによって一画面を構
成している。よって7=Y1の直線パターン信号はY1
番目の走査線1本分を画面に光らせるパターン信号で容
易に生成される。またx = X 1なる直線のp4タ
ーン信号はY軸の座標カウンタの値が毎回X1になる毎
に一画素表示時間分だけ画面を光らせる/fターン信号
である。主制御のもう1つは、走査線に同期して動゛作
するY軸、Y軸の座標カウンタを有し、該カウンタの値
を直線発生回路25に出力することである。直線発生回
路25はカウンタ値の入力と位置指定の座標値(Xi、
Yl)を比較してその指定座標位置において直交する直
ff#パターン信号を発生する。表示制御部24はこの
直線i4ターン信号を表示回路22に出力し、そこでは
ビデオ信号に直線ノ々ターン信号がDCバイアスを与え
る如く重畳される。その表示例を第4図(ト)に示す。
This is caused by scanning from XH toward XH. And the Y coordinate value at this time is y. It is. One screen is constructed by repeating such scanning to the Y-axis coordinate value ym. Therefore, the linear pattern signal of 7=Y1 is Y1
It is easily generated using a pattern signal that lights up one scanning line on the screen. Further, the p4 turn signal of a straight line where x = Another main control is to have Y-axis and Y-axis coordinate counters that operate in synchronization with the scanning lines, and to output the values of the counters to the linear generation circuit 25. The straight line generation circuit 25 receives counter value input and position designation coordinate values (Xi,
Yl) to generate orthogonal ff# pattern signals at the specified coordinate positions. The display control section 24 outputs this linear i4 turn signal to the display circuit 22, where the linear no turn signal is superimposed on the video signal so as to give a DC bias. An example of the display is shown in FIG. 4 (G).

ここでは画面Aの中に抽出したい画像Bがある場合を示
す。第1の指定位置が点Pであることによシ夫々線分す
、cが表示されている。次に第2の位置指定情報が入力
されるとその値は第2の位置指定レジスタにセットされ
る。直線発生回路25は第2の位置指定レジスタの値と
前記座標カウンタの値を比較する第2の比較回路を有す
る。そして各比較回路から出力される直紗パターン信号
は表示制御部24において論理オロされている。第4図
(島は第2の位置指定入力が為された場合の表示・例を
示す。図において第2の指定点はQであシその上にに5
F、する線分d、eが示されている。よって画面Aの可
視像Bは各線分bjc’#d#eから成る矩形fによっ
て囲まれる。操作者はこの矩形fに囲まれる画像が所望
のものであるならPD4から画像情報の抽出コマンドを
発生させる。次に表示制御部24はこのコマンドを受け
て以下の制御を行なう。今、位置指定された2点P(X
l、Yl)、Q (X2 、Y2 )において夫々Xi
<X2.Yl<Y2が成り立つ。よって表示制御部24
はCPU 1からの指令に従って矩形fで囲まれた部位
の画像情報を抽出し、CPUIに転送する。その態様は
、先ずX1番目の走査がスタートしたときにX1番目か
らX2番目の画素情報を走査に同期してCPUIに転送
する。以下同様にしてこれをY2番目の走査が終了する
まで行なう。
Here, a case is shown in which there is an image B to be extracted in screen A. Since the first designated position is point P, line segments c and c are displayed. Next, when second position designation information is input, its value is set in the second position designation register. The straight line generation circuit 25 has a second comparison circuit that compares the value of the second position designation register and the value of the coordinate counter. The straight line pattern signals output from each comparison circuit are logically gated in the display control section 24. Figure 4 (The island shows a display/example when the second position designation input is made. In the figure, the second designation point is Q, and above it is 5.
F, line segments d and e are shown. Therefore, the visible image B of the screen A is surrounded by a rectangle f made up of line segments bjc'#d#e. If the operator desires the image surrounded by the rectangle f, the operator issues an image information extraction command from the PD 4. Next, the display control section 24 receives this command and performs the following control. Two points P(X
l, Yl) and Q (X2, Y2), respectively
<X2. Yl<Y2 holds true. Therefore, the display control section 24
extracts the image information of the area surrounded by the rectangle f according to a command from the CPU 1 and transfers it to the CPU 1. In this manner, first, when the X1-th scan starts, the X1-th to X2-th pixel information is transferred to the CPUI in synchronization with the scan. This is repeated in the same manner until the Y2nd scan is completed.

この様な2点の位置指定は任意の位置に対して行なえる
。よって画面上における2点の相対的な位置関係は表示
制御部24によって以下の如く判別、制御される。第5
図はこの判別、制御を示すフローチャートである。図に
おいて、最初の位置指定入力を(Xl、Yl)とし、次
の位置指定入力を(X2.Y2)とする。またこれら位
置指定入力の操作はPD4からの信号によってカーソル
(図示せず)を移動し、所望の位置で指定ファンクショ
ンのキーを押下することによって為される。ステップ1
ではX1=X2又はY1=Y2の条件が満足されるか否
かを判別する。判別がYESであればステップ2に進み
、X軸又はY軸上の指定された領域のり分に位置する画
素情報を抽出する。この機能によって画像のフレーム毎
の転送ができる。
Such two-point position specification can be performed for any arbitrary position. Therefore, the relative positional relationship between the two points on the screen is determined and controlled by the display control section 24 as follows. Fifth
The figure is a flowchart showing this determination and control. In the figure, the first position designation input is (Xl, Yl), and the next position designation input is (X2.Y2). These position designation input operations are performed by moving a cursor (not shown) in response to a signal from the PD 4 and pressing a designated function key at a desired position. Step 1
Then, it is determined whether the conditions X1=X2 or Y1=Y2 are satisfied. If the determination is YES, the process proceeds to step 2, and pixel information located in the designated area on the X-axis or Y-axis is extracted. This function allows images to be transferred frame by frame.

また判別がNOであればステップ3,5,7,9の伺れ
かに分岐する。分岐の条件はステップ3,5゜7.9内
に示されている、例えばステップ9に分岐するときは、
XI<X2.yt>Y2の条件であってさらにステップ
10に進んで走査線のY2からYlについてX1番目か
らX2番目の画素情報を抽出、転送する。他も同様であ
ってどの場合でも矩形が形成され、指定された2点は矩
形の対角位置に相当する。
If the determination is NO, the process branches to steps 3, 5, 7, and 9. The branching conditions are shown in steps 3, 5, and 7.9. For example, when branching to step 9,
XI<X2. If the condition is yt>Y2, the process further proceeds to step 10 to extract and transfer the X1-th to X2-th pixel information for scanning lines Y2 to Yl. The rest is the same, a rectangle is formed in any case, and the two specified points correspond to diagonal positions of the rectangle.

この様な位置指定入力は3点以上あっても良い。There may be three or more such position designation inputs.

例えば4点指定の場合の操作を述べると、第4図0にお
いて点R(Xl、Yl)、5(X2.Y2)。
For example, to describe the operation when specifying 4 points, in FIG. 4 0, points R (Xl, Yl), 5 (X2.Y2).

T (X3.Y3 ) 、 U (X4.Y4 )の順
で位置指定入力を行なう。次にPD4からの抽出コマン
ドによって画像Cと画像りの画像情報が抽出される。
Position designation input is performed in the order of T (X3.Y3) and U (X4.Y4). Next, the image information of image C and image 2 is extracted by an extraction command from PD4.

後に操作者はCPU 1においてこれら画像C及びDを
どのように組合せても良い。
Later, the operator may combine these images C and D in any way in the CPU 1.

第2実施例 上述実施例の操作では可視像をDU2に表示し、カーソ
ル表示を見ながらPD4からの位置指定情報入力を行な
った。本発明の第2実施例のシステム構成図は第6図に
示されている。こ゛こではPD4の代シにX−Yタブレ
ット(TAB) 8が、またDU2の代シに画像プリン
タ(PU) 9が用いられる。尚、図示のディスプレイ
ユニツ) (DU) 10はモモタ表示用途に用いられ
る。システムの概略を説明すると、CPUIの有する画
像情報の可視像はPU9から普通紙に出力される。次に
画像の印刷された紙はTAB 8の所定の位置に置かれ
、ここで入力ペンの先が画像の任意の位置を指定する。
Second Embodiment In the operation of the above embodiment, a visible image was displayed on the DU2, and position designation information was input from the PD4 while looking at the cursor display. A system configuration diagram of a second embodiment of the present invention is shown in FIG. Here, an X-Y tablet (TAB) 8 is used in place of the PD4, and an image printer (PU) 9 is used in place of the DU2. The illustrated display unit (DU) 10 is used for display purposes. To explain the outline of the system, a visible image of image information held by the CPUI is outputted from the PU 9 onto plain paper. Next, the paper on which the image is printed is placed at a predetermined position on TAB 8, and the tip of the input pen specifies an arbitrary position on the image.

紙の下にあるタブレット板はペン先の位置情報をCPU
Iに知らせるから第5図のフローチャートに従って同様
に画像情報の抽出が可能となる。
The tablet board under the paper transmits the position information of the pen tip to the CPU.
Since the information is notified to I, image information can be similarly extracted according to the flowchart of FIG.

効果 以上述べた如く本発明によれば、簡単な操作で、可視岱
出力から任意部位の画1家情報を抽出することが可能で
ある。可視像出力はCRTによる表示出力であっても、
また画像プリンタへの印刷出力であっても良い。表示出
力を利用すれは実時間での抽出作業の効率が良い。一方
、印刷出力を利用する場合は予め多種、多数の画像出力
をしておき、机上において抽出部位の検討をする等、十
分なる前処理が行なえるという効果がある。
Effects As described above, according to the present invention, it is possible to extract stroke information of an arbitrary part from the visible image output with a simple operation. Even if the visible image output is a display output from a CRT,
Alternatively, it may be printed out to an image printer. Using the display output makes extraction work more efficient in real time. On the other hand, when using print output, there is an advantage that sufficient pre-processing can be performed, such as outputting a large number of various types of images in advance and examining the extraction site on a desk.

また本発明によれば、原画像採取時の視野の制限を受け
ない。つまシ採取した原画像から複数の( 任意部位を抽出して、後にこれらを組合せ、目的に応じ
た画像編集を容易に可能とするところの抽出画像情報を
提供できる。
Further, according to the present invention, there is no restriction on the field of view when acquiring the original image. It is possible to extract multiple (arbitrary parts) from the sampled original image and later combine them to provide extracted image information that makes it easy to edit the image according to the purpose.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例のシステム構成を示すブロック図、 第2図は実施例のディスプレイユニットの構成ブロック
図、 第3図は表示画面の説明図、 第4図Qは表示例の説明図、 第4図(ト)は表示例の説明図、 第4図C)は表示例の説明図、 。 第5図は表示制御部の判別、制御を示すフローチャ
ート、 第6図は第2笑施例のシステム構成を示すブロック図で
ある。 ここで 1・・・セントラルプロセシングユニット2・・・ディ
スプレイユニット 3・・・イメージリーダ 4・・・ボインテイングデノ々イス 5・・・キーボード ロ・・・ディスクユニット 7・・・システムバス 8・・・X−Yタブレット 9・・・画像プリンタ 10・・・ディスプレイユニット である。
FIG. 1 is a block diagram showing the system configuration of the embodiment, FIG. 2 is a block diagram of the configuration of the display unit of the embodiment, FIG. 3 is an explanatory diagram of the display screen, FIG. 4 Q is an explanatory diagram of the display example, Figure 4 (G) is an explanatory diagram of a display example, and Figure 4C) is an explanatory diagram of a display example. FIG. 5 is a flowchart showing the discrimination and control of the display control section, and FIG. 6 is a block diagram showing the system configuration of the second embodiment. Here, 1...Central processing unit 2...Display unit 3...Image reader 4...Bointing device chair 5...Keyboard controller...Disk unit 7...System bus 8... ...XY tablet 9...image printer 10...display unit.

Claims (1)

【特許請求の範囲】 1、 メモリに記憶されたイメージの画像情報を可視像
に出力する画像出力手段と、前記可視像に対する少なく
とも2点の位置情報を入力する位置入力手段と、前記少
なくとも2点を対角位置とする矩形で囲まれる部位の前
記可視像に対応する前記画像情報を抽出する画像情報抽
出手段を備えることを特徴とする画像情報の抽出装置。 2、 メモリに記憶されたイメージの画像情報を可視像
に出力する画像出力手段と、前記可視像に対する少なく
とも2点の位置情報を入力する位置人、力手段と、前記
少なくとも2点を対角位置とする矩形で囲まれる部位の
前記可視像に対応する前記画像情報を抽出する画像情報
抽出手段を備える画像情報の抽出装置において1、前記
位置入力手段からの第1の位置指定入力によって指定さ
れる第1の点上に直焚する線分を2辺とし、次に第2の
位置指定入力によって指定される第2の点上に直焚する
線分を残シの2辺とする矩形を構成し、この矩形で囲ま
れる部位の前記可視像に対応する前記画像情報を抽出す
ることを特徴とする画像情報の抽出方法。
[Scope of Claims] 1. Image output means for outputting image information of an image stored in a memory as a visible image; position input means for inputting position information of at least two points with respect to the visible image; An image information extraction device comprising an image information extraction means for extracting the image information corresponding to the visible image of a region surrounded by a rectangle having two points as diagonal positions. 2. An image output means for outputting image information of an image stored in a memory as a visible image; a position person and force means for inputting position information of at least two points with respect to the visible image; In an image information extraction device comprising image information extraction means for extracting the image information corresponding to the visible image of a region surrounded by a rectangle defined as a corner position, 1, by a first position designation input from the position input means; The line segment that is directly fired on the first point specified is the two sides, and the line segment that is directly fired on the second point specified by the second position designation input is the remaining two sides. A method for extracting image information, comprising the step of extracting the image information corresponding to the visible image of a region that forms a rectangle and is surrounded by the rectangle.
JP58060863A 1983-04-08 1983-04-08 Method and apparatus for extracting picture information Granted JPS59186065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58060863A JPS59186065A (en) 1983-04-08 1983-04-08 Method and apparatus for extracting picture information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58060863A JPS59186065A (en) 1983-04-08 1983-04-08 Method and apparatus for extracting picture information

Publications (2)

Publication Number Publication Date
JPS59186065A true JPS59186065A (en) 1984-10-22
JPH0559471B2 JPH0559471B2 (en) 1993-08-31

Family

ID=13154646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58060863A Granted JPS59186065A (en) 1983-04-08 1983-04-08 Method and apparatus for extracting picture information

Country Status (1)

Country Link
JP (1) JPS59186065A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61136374A (en) * 1984-12-07 1986-06-24 Ricoh Co Ltd Image editing device
JPH03156685A (en) * 1989-11-15 1991-07-04 Sanyo Electric Co Ltd Picture input device
US7170531B2 (en) 1998-02-03 2007-01-30 Seiko Epson Corporation Projection display apparatus, display method for same and image display apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5725033A (en) * 1980-07-23 1982-02-09 Matsushita Electric Ind Co Ltd Picture input device
JPS57137970A (en) * 1981-02-18 1982-08-25 Ricoh Co Ltd Picture area designating method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5725033A (en) * 1980-07-23 1982-02-09 Matsushita Electric Ind Co Ltd Picture input device
JPS57137970A (en) * 1981-02-18 1982-08-25 Ricoh Co Ltd Picture area designating method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61136374A (en) * 1984-12-07 1986-06-24 Ricoh Co Ltd Image editing device
JPH0574984B2 (en) * 1984-12-07 1993-10-19 Ricoh Kk
JPH03156685A (en) * 1989-11-15 1991-07-04 Sanyo Electric Co Ltd Picture input device
US7170531B2 (en) 1998-02-03 2007-01-30 Seiko Epson Corporation Projection display apparatus, display method for same and image display apparatus
US7176850B1 (en) 1998-02-03 2007-02-13 Seiko Epson Corporation Overlay process of images

Also Published As

Publication number Publication date
JPH0559471B2 (en) 1993-08-31

Similar Documents

Publication Publication Date Title
JPH08123658A (en) Method and device for registering icon pattern or icon, and method and device for displaying icon
JPS59186065A (en) Method and apparatus for extracting picture information
JP3334021B2 (en) Image processing method and image processing system using the method
JP2720807B2 (en) Scenario editing device
JPS6098489A (en) Image data processor
JP2936599B2 (en) Color image processing equipment
US6282329B1 (en) Pattern editing system
KR101280840B1 (en) Method of identifying the laser point position on screen of presentation system
EP0627701A2 (en) Image processing method and apparatus therefor
JPS63146168A (en) Picture editing method
JPH02103680A (en) Picture information processor
JP3118915B2 (en) Image recognition device
JP2511953B2 (en) Image processing method and apparatus
JP2878730B2 (en) Image display device
JPH05128225A (en) Device and method for color designating/extracting
JP3092269B2 (en) Visual recognition device
JPS61206389A (en) Pattern discriminator
JPH0215100B2 (en)
JPH05282442A (en) Image processing device
JP2024024863A (en) Image analysis device, control method of image analysis device, program, and image analysis system
JPS63241625A (en) Line drawing input device
JPS60194689A (en) Auxiliary equipment for positioning
JPH0789217B2 (en) Layout equipment for printing plate making
JPH0438517B2 (en)
JPH06337939A (en) Method and device for identifying picture