JPH04310997A - Image display device - Google Patents

Image display device

Info

Publication number
JPH04310997A
JPH04310997A JP3104796A JP10479691A JPH04310997A JP H04310997 A JPH04310997 A JP H04310997A JP 3104796 A JP3104796 A JP 3104796A JP 10479691 A JP10479691 A JP 10479691A JP H04310997 A JPH04310997 A JP H04310997A
Authority
JP
Japan
Prior art keywords
image
edge
menu
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3104796A
Other languages
Japanese (ja)
Other versions
JP3120469B2 (en
Inventor
Takashi Ijiri
隆史 井尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP03104796A priority Critical patent/JP3120469B2/en
Publication of JPH04310997A publication Critical patent/JPH04310997A/en
Application granted granted Critical
Publication of JP3120469B2 publication Critical patent/JP3120469B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE:To drastically improve operability by minimizing the superimposing of a character such as a letter and an object image part on a display screen. CONSTITUTION:An image processor is provided with a control main body 10, a video monitor 12, and a microcomputer 22, and the control main body 10 is provided with an edge extracting part 15 and a density measuring part 16. The above-mentioned edge extracting part 15 inputs image data from an A/D converter 14, to produce an edge image. The density measuring part 16 divides the edge image into plural regions, to measure the sum total of the density of the edge image at each divided region. The microcomputer 22 fetches the measurement value at each divided region by the density measuring part 16, to compare the height of the measurement value, and selectively sets the divided region of the minimum measurement value to display the image of a menu therein.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は、例えば工場などの検
査ラインに設けられる視覚センサに関連し、殊にこの発
明は、視覚センサで得られた入力画像を画像処理装置で
処理する際、ビデオモニタなどの表示部の表示画面上に
、メニューを構成する文字などのキャラクタを入力画像
と重ねて表示するための画像表示装置に関する。
FIELD OF INDUSTRIAL APPLICATION This invention relates to a visual sensor installed in an inspection line in a factory, for example, and in particular, this invention relates to a visual sensor installed in an inspection line in a factory or the like. The present invention relates to an image display device for displaying characters such as characters constituting a menu on a display screen of a display unit such as a monitor, superimposing them on an input image.

【0002】0002

【従来の技術】従来、FA向けの視覚センサでは、ビデ
オモニタの画面上に操作メニューを表示し、そのメニュ
ーに従って各種の設定操作を行うような操作方式が採用
されている。画像処理装置は、フレームメモリとキャラ
クタメモリとを備えており、フレームメモリにはカメラ
からの入力画像の1フレーム分の画像データが、またキ
ャラクタメモリには操作メニューを構成する文字などの
キャラクタの画像データが、それぞれ記憶される。
2. Description of the Related Art Conventionally, visual sensors for factory automation have adopted an operation method in which an operation menu is displayed on the screen of a video monitor and various setting operations are performed according to the menu. The image processing device is equipped with a frame memory and a character memory. The frame memory stores image data for one frame of an input image from the camera, and the character memory stores images of characters such as letters that make up the operation menu. Data is stored respectively.

【0003】電源が投入されると、まずキャラクタメモ
リの内容が読み出され、ビデオモニタの画面には図7に
示すような操作メニュー1が表示される。この操作メニ
ュー1を見て操作者が特定の項目を選択すると、画面が
切り換わり、必要に応じてフレームメモリの内容が読み
出されて、ビデオモニタの画面上に、図8に示す如く対
象物の濃淡画像2が表示される。なお図7において、3
はキー操作などでメニュー選択される項目を示すカーソ
ルである。
When the power is turned on, the contents of the character memory are first read out, and an operation menu 1 as shown in FIG. 7 is displayed on the screen of the video monitor. When the operator selects a specific item while looking at this operation menu 1, the screen changes, the contents of the frame memory are read out as necessary, and the object is displayed on the video monitor screen as shown in Figure 8. A gray scale image 2 is displayed. In addition, in Figure 7, 3
is a cursor that indicates an item selected from a menu by key operation or the like.

【0004】もし入力画像と操作メニューとを同一画面
上に同時に表示させる必要があるときは、ビデオモニタ
の画面上に入力画像を表示し、その画像上の特定位置に
直接操作メニューの内容、すなわちキャラクタを重ねて
表示している。
If it is necessary to simultaneously display an input image and an operation menu on the same screen, display the input image on the screen of a video monitor, and display the contents of the operation menu directly at a specific position on the image. Characters are displayed overlapping each other.

【0005】[0005]

【発明が解決しようとする課題】例えば濃淡画像を2値
化するための2値化しきい値を設定するような場合、入
力画像(濃淡画像)の濃度を画面上で確認しつつ設定操
作を行うことが必要となるが、その場合にはその都度メ
ニュー選択を行って表示内容を切り換える必要があるた
め、操作が煩雑であり、特に初心者にとって操作方法が
容易に理解できないという問題がある。しかも入力画像
とメニューの画像とは別画面として表示されるから、設
定操作を行いがたく、操作の迅速性を欠く。
[Problem to be solved by the invention] For example, when setting a binarization threshold for binarizing a grayscale image, the setting operation is performed while checking the density of the input image (shaded image) on the screen. However, in this case, it is necessary to make a menu selection each time to switch the display contents, which makes the operation complicated, and there is a problem that the operation method is not easy to understand, especially for beginners. Furthermore, since the input image and the menu image are displayed on separate screens, it is difficult to perform setting operations and the operations lack speed.

【0006】また入力画像上にキャラクタを重ねて表示
すると、入力画像の濃度状態によってはキャラクタが見
づらく、特に物体画像部分とキャラクタとが重なった場
合、視認性が著しく低下するという問題がある。
[0006] Furthermore, when characters are displayed in an overlapping manner on an input image, the characters may be difficult to see depending on the density of the input image, and in particular, when the object image portion and the character overlap, there is a problem in that visibility is significantly reduced.

【0007】このキャラクタの視認性を改善するため、
発明者は先般、図9に示すように、対象物の濃淡画像4
を表示する表示画面上の特定位置に、メニュー表示領域
の画像5を濃淡画像4に重ねて形成して、前記メニュー
表示領域内にメニュー内容を表す文字などのキャラクタ
6を表示する方法を開発した。
[0007] In order to improve the visibility of this character,
The inventor recently developed a grayscale image 4 of an object, as shown in FIG.
A method has been developed in which an image 5 of a menu display area is superimposed on a grayscale image 4 at a specific position on a display screen to display characters 6 such as letters representing menu contents in the menu display area. .

【0008】しかしながらこの表示方法では、物体画像
部分7の大きさや位置によっては、メニュー表示領域の
画像5が物体画像部分7の大部分を隠してしまったり、
物体画像部分7のうち着目したい画像部分を隠してしま
ったりする虞があり、操作性が大幅に低下するという問
題がある。
However, in this display method, depending on the size and position of the object image portion 7, the image 5 in the menu display area may hide most of the object image portion 7.
There is a risk that a desired image part of the object image part 7 may be hidden, and there is a problem that the operability is significantly reduced.

【0009】この発明は、上記問題に着目してなされた
もので、文字などのキャラクタと物体画像部分との表示
画面上での重なりを最小限に抑えることにより、操作性
を大幅に向上させた画像表示装置を提供することを目的
とする。
[0009] This invention was made with attention to the above problem, and it greatly improves operability by minimizing the overlap between characters such as letters and object image parts on the display screen. The purpose is to provide an image display device.

【0010】0010

【課題を解決するための手段】この発明の画像表示装置
は、表示部の表示画面上に、キャラクタを入力画像と重
ねて表示するのに、前記入力画像を入力してエッジ画像
を生成するエッジ抽出手段と、前記エッジ画像を複数の
領域に分割して各分割領域毎にエッジ画像の濃度の総和
を計測する濃度計測手段と、前記濃度計測手段による各
計測値を比較して計測値が最小の分割領域を前記キャラ
クタを表示する領域として選定する制御手段とを具備す
るものである。
[Means for Solving the Problems] The image display device of the present invention displays a character superimposed on an input image on the display screen of a display unit. an extracting means, a density measuring means for dividing the edge image into a plurality of regions and measuring the sum of the density of the edge image for each divided region, and comparing each measured value by the density measuring means and determining that the measured value is the smallest. and control means for selecting the divided area as the area for displaying the character.

【0011】[0011]

【作用】入力画像のエッジ画像につき分割領域毎の濃度
計測を行ってその計測値から入力画像の位置を求めた後
、その位置から外れた画像領域にキャラクタを表示する
領域を設定するので、その領域にキャラクタを表示した
とき、キャラクタと物体画像部分との重なりが最も少な
くなり、操作性が向上する。
[Operation] After measuring the density of each divided area of the edge image of the input image and finding the position of the input image from the measured value, the area where the character is displayed is set in the image area outside of that position. When a character is displayed in the area, the overlap between the character and the object image portion is minimized, improving operability.

【0012】0012

【実施例】図1は、この発明が実施されたFA用の視覚
センサの概略構成を示す。この視覚センサは、カメラ8
と画像処理装置9とで構成され、画像処理装置9は制御
本体10と入力装置11とビデオモニタ12とを備えて
いる。前記カメラ8はCCDカメラなどで構成され、例
えば検査ラインの真上に下向きに配備して、対象物13
の画像を生成する。前記入力装置11はキーボード,マ
ウス,コンソールボックスなどを含み、データの入力や
メニュー選択などに供される。。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a schematic configuration of a visual sensor for FA in which the present invention is implemented. This visual sensor is the camera 8
and an image processing device 9, and the image processing device 9 includes a control main body 10, an input device 11, and a video monitor 12. The camera 8 is composed of a CCD camera, etc., and is placed facing downward, for example, directly above the inspection line to capture the object 13.
Generate an image of The input device 11 includes a keyboard, a mouse, a console box, etc., and is used for data input, menu selection, etc. .

【0013】図2は、前記制御本体10の構成例を示し
、A/D変換器14,エッジ抽出部15,濃度計測部1
6,フレームメモリ17,グラフィックメモリ18,キ
ャラクタメモリ19,表示制御部20,D/A変換器2
1,マイクロコンピュータ22などを構成として含んで
いる。
FIG. 2 shows an example of the configuration of the control main body 10, which includes an A/D converter 14, an edge extraction section 15, and a concentration measurement section 1.
6, frame memory 17, graphic memory 18, character memory 19, display control section 20, D/A converter 2
1. It includes a microcomputer 22 and the like.

【0014】前記A/D変換器14は、カメラ8からの
濃淡画像の画像信号を入力し、この画像信号をディジタ
ル量の画像データ(以下「入力画像データ」という)に
変換して、表示制御部20およびエッジ抽出部15へ出
力する。
The A/D converter 14 inputs an image signal of a grayscale image from the camera 8, converts this image signal into digital image data (hereinafter referred to as "input image data"), and performs display control. 20 and the edge extractor 15.

【0015】前記エッジ抽出部15は、入力画像データ
に対し、ラプラシアンオペレータやソーベルオペレータ
などを用いたフィルタリング処理を施して、エッジ抽出
された画像(以下「エッジ画像」という)を生成する。 また濃度計測部16は、前記エッジ画像を複数の領域に
分割して、各分割領域毎にエッジ画像の濃度の総和を計
測する。
The edge extraction unit 15 performs filtering processing on the input image data using a Laplacian operator, a Sobel operator, etc., and generates an edge-extracted image (hereinafter referred to as an "edge image"). Further, the density measurement unit 16 divides the edge image into a plurality of regions and measures the sum of the density of the edge image for each divided region.

【0016】図3は、画像領域の分割方法の一例に示し
たもので、矩形状をなす中央の分割領域A0と、その周
囲に4個の分割領域A1〜A4とが形成されている。こ
の実施例では、各分割領域A0〜A4の面積は一定値に
設定してある。図4は、エッジ画像30の分割例を示し
ており、図中、31はエッジ画像部分を、32は背景画
像部分を、それぞれ示している。このエッジ画像30を
前記5個の分割領域A0〜A4に分割するとき、エッジ
画像部分31の大部分が0番目の分割領域A0と4番目
の分割領域A4とに含まれ、残りの部分が2番目の分割
領域A2と3番目の分割領域A3とに含まれており、1
番目の分割領域A1にはエッジ画像部分31は含まれて
いない。
FIG. 3 shows an example of a method for dividing an image area, in which a rectangular central divided area A0 and four divided areas A1 to A4 are formed around the central divided area A0. In this embodiment, the area of each divided area A0 to A4 is set to a constant value. FIG. 4 shows an example of dividing the edge image 30, and in the figure, 31 indicates an edge image portion, and 32 indicates a background image portion. When this edge image 30 is divided into the five divided areas A0 to A4, most of the edge image portion 31 is included in the 0th divided area A0 and the fourth divided area A4, and the remaining part is It is included in the th divided area A2 and the third divided area A3, and 1
The edge image portion 31 is not included in the th divided area A1.

【0017】図2に戻って、フレームメモリ17は入力
画像の1フレーム分の画像データ(以下「フレーム画像
データ」という)を記憶する。グラフィックメモリ18
は後記するメニュー表示領域の画像を形成するための画
像データ(以下「エリア画像データ」という)を記憶す
る。キャラクタメモリ19は操作メニューを構成する文
字などのキャラクタの画像データ(以下「キャラクタ画
像データ」という)を記憶する。
Returning to FIG. 2, the frame memory 17 stores image data for one frame of the input image (hereinafter referred to as "frame image data"). Graphic memory 18
stores image data (hereinafter referred to as "area image data") for forming an image of a menu display area to be described later. The character memory 19 stores image data (hereinafter referred to as "character image data") of characters such as letters constituting the operation menu.

【0018】表示制御部20は表示用LSIをもって構
成され、A/D変換器14より直接与えられる入力画像
データと、フレームメモリ17から読み出されたフレー
ム画像データと、グラフィックメモリ18から読み出さ
れたエリア画像データと、キャラクタメモリ19から読
み出されたキャラクタ画像データとを入力し、所定の優
先順位に従ってこれら画像データをD/A変換器21へ
出力する。前記優先順位は、1番がキャラクタ画像デー
タであり、2番がエリア画像データ、3番が入力画像デ
ータおよびフレーム画像データである。
The display control unit 20 is constituted by a display LSI, and receives input image data directly provided from the A/D converter 14, frame image data read from the frame memory 17, and frame image data read from the graphic memory 18. area image data and character image data read from the character memory 19 are input, and these image data are output to the D/A converter 21 in accordance with a predetermined priority order. In the priority order, the first priority is character image data, the second priority is area image data, and the third priority is input image data and frame image data.

【0019】D/A変換器21は、ディジタル量の各画
像データをアナログ量の画像信号に変換してビデオモニ
タ12へ出力し、ビデオモニタ12は前記優先順位に基
づく合成画像を画面上に生成する。
The D/A converter 21 converts each digital image data into an analog image signal and outputs it to the video monitor 12, and the video monitor 12 generates a composite image on the screen based on the priority order. do.

【0020】前記マイクロコンピュータ22は、演算・
制御の主体であるCPU23と、プログラムやデータを
格納するためのROM24およびRAM25と、入出力
インターフェイス26とがCPUバスを介して接続され
たもので、前記入出力インターフェイス26にはメニュ
ー選択などを行うためのキーボード27が接続されてい
る。
[0020] The microcomputer 22 performs arithmetic and
A CPU 23 which is the main body of control, a ROM 24 and a RAM 25 for storing programs and data, and an input/output interface 26 are connected via a CPU bus, and the input/output interface 26 is used for menu selection, etc. A keyboard 27 is connected.

【0021】このマイクロコンピュータ22は、前記濃
度計測部16より各分割領域A0〜A4毎の計測値を取
り込んで大小比較し、計測値が最小の分割領域(図5の
例では1番目の分割領域A1)を選定して、その分割領
域A1内の定位置にメニューの画像を表示させる。
The microcomputer 22 takes in the measured values of each of the divided areas A0 to A4 from the density measuring section 16, compares the sizes, and selects the divided area with the smallest measured value (in the example of FIG. 5, the first divided area). A1) is selected and a menu image is displayed at a fixed position within the divided area A1.

【0022】図5は、表示画面に表示された濃淡画像3
3上の1番目の分割領域A1にメニューの画像36を表
示した状態を示している。図中、34は物体画像部分を
、35は背景画像部分を、それぞれ示すもので、白地を
なすメニュー表示領域の画像37を濃淡画像33上に重
ねて形成し、さらに前記メニュー表示領域内にメニュー
内容を表す文字などのキャラクタ38を表示している。
FIG. 5 shows a grayscale image 3 displayed on the display screen.
3 shows a state in which a menu image 36 is displayed in the first divided area A1 on the top of the screen. In the figure, reference numeral 34 indicates an object image portion, and reference numeral 35 indicates a background image portion. An image 37 of a menu display area with a white background is formed by superimposing it on the grayscale image 33, and a menu is further displayed in the menu display area. Characters 38 such as letters representing contents are displayed.

【0023】図6は、上記制御本体10によるメニュー
表示に関する処理手順を示す。まず同図のステップ1(
図中「ST1」で示す)において、マイクロコンピュー
タ22には画像領域を複数の分割領域A0〜A4に分割
するためのデータが初期設定され、そのデータがRAM
25に記憶される。
FIG. 6 shows a processing procedure regarding menu display by the control main body 10. First, step 1 (
In the microcomputer 22 (indicated by "ST1" in the figure), data for dividing the image area into a plurality of divided areas A0 to A4 is initially set, and the data is stored in the RAM.
25.

【0024】つぎのステップ2では、カメラ8からの濃
淡画像信号が制御本体10に取り込まれ、A/D変換器
14はその濃淡画像信号をディジタル量の入力画像デー
タに変換する。
In the next step 2, the grayscale image signal from the camera 8 is taken into the control main body 10, and the A/D converter 14 converts the grayscale image signal into digital input image data.

【0025】つぎにステップ3では、エッジ抽出部15
が入力画像データを入力してエッジ画像を生成し、その
エッジ画像を濃度計測部16へ出力する。一方、前記入
力画像データは表示制御部20およびD/A変換器21
を経てビデオモニタ12へ出力され、ビデオモニタ12
の画面には、濃淡画像33が表示される。
Next, in step 3, the edge extraction section 15
inputs input image data, generates an edge image, and outputs the edge image to the density measurement section 16. On the other hand, the input image data is transmitted to the display control section 20 and the D/A converter 21.
is output to the video monitor 12 via
A grayscale image 33 is displayed on the screen.

【0026】つぎにステップ4では、前記濃度計測部1
6は前記エッジ画像を5個の分割領域A0〜A4に分割
して、各分割領域毎にエッジ画像の濃度の総和を計測し
、その計測値はCPUバスを経てCPU23に取り込ま
れる。
Next, in step 4, the concentration measuring section 1
6 divides the edge image into five divided areas A0 to A4, measures the sum of the density of the edge image for each divided area, and the measured value is taken into the CPU 23 via the CPU bus.

【0027】つぎにCPU23は、各分割領域A0〜A
4毎のエッジ画像の濃度の総和を各分割領域の面積で割
って濃度比率を算出した後、濃度比率が最小となる1番
目の分割領域A1を選定する(ステップ5,6)。
Next, the CPU 23 selects each of the divided areas A0 to A.
After calculating the density ratio by dividing the sum of the densities of the four edge images by the area of each divided area, the first divided area A1 with the minimum density ratio is selected (steps 5 and 6).

【0028】つぎにステップ7において、CPU23は
グラフィックメモリ18およびキャラクタメモリ19に
表示すべきメニューにかかるエリア画像データおよびキ
ャラクタ画像データを書き込むと共に、前記分割領域A
1にメニュー表示するためのタイミングで各画像データ
を読み出して表示制御部20へ出力させる。
Next, in step 7, the CPU 23 writes area image data and character image data related to the menu to be displayed in the graphic memory 18 and the character memory 19, and also writes the area image data and character image data related to the menu to be displayed in the divided area A.
Each image data is read out and output to the display control section 20 at the timing for displaying the menu in 1.

【0029】その結果、ビデオモニタ12の表示画面上
の1番目の分割領域A1には、図5に示す如く、白地に
塗り潰されたメニュー表示領域の画像37が前記濃淡画
像33に重ねて形成され、さらにこのメニュー表示領域
内にメニュー内容を表す文字などのキャラクタ38が表
示される。このメニュー表示領域の画像37の外側には
濃淡画像33中の物体画像部分34の全体が現れており
、操作者はこの濃淡画像33を見ながらキーボード27
を操作してメニュー選択が可能である。
As a result, in the first divided area A1 on the display screen of the video monitor 12, as shown in FIG. Furthermore, characters 38 such as letters representing menu contents are displayed within this menu display area. The entire object image portion 34 in the grayscale image 33 appears outside the image 37 in the menu display area, and the operator can press the keyboard 2 while looking at this grayscale image 33.
Menu selection is possible by operating .

【0030】なおフレーム画像データをビデオモニタ1
2へ出力させるときも、そのフレーム画像上の所定の分
割領域にメニューの画像36が重ねて表示されることは
勿論である。またこの発明にかかるメニュー表示は、こ
の実施例の表示方法に限らず、例えばキャラクタを濃淡
画像に直接重ねて表示するものであってもよい。
Note that the frame image data is displayed on the video monitor 1.
2, it goes without saying that the menu image 36 is displayed superimposed on a predetermined divided area on the frame image. Furthermore, the menu display according to the present invention is not limited to the display method of this embodiment, but may be one in which, for example, characters are directly superimposed on a grayscale image.

【0031】[0031]

【発明の効果】この発明は上記の如く、入力画像のエッ
ジ画像を複数の領域に分割し、分割領域毎の濃度計測を
行ってその計測値から入力画像の位置を求めた後、その
位置から外れた画像領域にキャラクタを表示する領域を
設定するようにしたから、その領域にキャラクタを表示
したとき、キャラクタと物体画像部分との重なりが最も
少なくなり、操作性が向上するという、発明目的を達成
した顕著な効果を奏する。
Effects of the Invention As described above, the present invention divides the edge image of an input image into a plurality of regions, measures the density of each divided region, determines the position of the input image from the measured value, and then Since the area where the character is displayed is set in the off-center image area, when the character is displayed in that area, the overlap between the character and the object image part is minimized, which improves the operability. Achieve remarkable effects.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】この発明が実施された視覚センサの全体構成を
示す説明図である。
FIG. 1 is an explanatory diagram showing the overall configuration of a visual sensor in which the present invention is implemented.

【図2】画像処理装置の構成例を示すブロック図である
FIG. 2 is a block diagram showing a configuration example of an image processing device.

【図3】画像領域の分割方法の一例を示す説明図である
FIG. 3 is an explanatory diagram showing an example of a method for dividing an image area.

【図4】エッジ画像の分割例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of dividing an edge image.

【図5】選定された分割領域にメニューを表示した状態
を示す説明図である。
FIG. 5 is an explanatory diagram showing a state in which a menu is displayed in a selected divided area.

【図6】メニュー表示に関する制御本体の制御手順を示
すフローチャートである。
FIG. 6 is a flowchart showing a control procedure of the control main body regarding menu display.

【図7】従来のメニューの画像の表示状態を示す説明図
である。
FIG. 7 is an explanatory diagram showing a display state of a conventional menu image.

【図8】対象物の画像の表示状態を示す説明図である。FIG. 8 is an explanatory diagram showing a display state of an image of a target object.

【図9】対象物の画像にメニューを重ねて表示する方法
を示す説明図である。
FIG. 9 is an explanatory diagram illustrating a method of displaying a menu superimposed on an image of an object.

【符号の説明】[Explanation of symbols]

8    カメラ 10  制御本体 12  ビデオモニタ 15  エッジ抽出部 16  濃度計測部 18  グラフィックメモリ 19  キャラクタメモリ 20  表示制御部 22  マイクロコンピュータ 23  CPU 8 Camera 10 Control body 12 Video monitor 15 Edge extraction part 16 Concentration measurement section 18 Graphic memory 19 Character memory 20 Display control section 22 Microcomputer 23 CPU

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  対象物を撮像して得た入力画像を表示
する表示部を備え、前記表示部の表示画面上に、キャラ
クタを前記入力画像と重ねて表示する画像表示装置であ
って、前記入力画像を入力してエッジ画像を生成するエ
ッジ抽出手段と、前記エッジ画像を複数の領域に分割し
て各分割領域毎にエッジ画像の濃度の総和を計測する濃
度計測手段と、前記濃度計測手段による各計測値を比較
して計測値が最小の分割領域を前記キャラクタを表示す
る領域として選定する制御手段とを備えて成る画像表示
装置。
1. An image display device comprising a display unit that displays an input image obtained by imaging an object, and displays a character on a display screen of the display unit overlapping the input image, the image display device comprising: an edge extractor that inputs an input image and generates an edge image; a density measurement device that divides the edge image into a plurality of regions and measures the sum of densities of the edge image for each divided region; and the density measurement device an image display device comprising: control means for comparing measurement values obtained by the above-mentioned methods and selecting a divided area having the smallest measurement value as an area for displaying the character.
JP03104796A 1991-04-09 1991-04-09 Image display method and apparatus Expired - Fee Related JP3120469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03104796A JP3120469B2 (en) 1991-04-09 1991-04-09 Image display method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03104796A JP3120469B2 (en) 1991-04-09 1991-04-09 Image display method and apparatus

Publications (2)

Publication Number Publication Date
JPH04310997A true JPH04310997A (en) 1992-11-02
JP3120469B2 JP3120469B2 (en) 2000-12-25

Family

ID=14390412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03104796A Expired - Fee Related JP3120469B2 (en) 1991-04-09 1991-04-09 Image display method and apparatus

Country Status (1)

Country Link
JP (1) JP3120469B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161086A1 (en) * 2012-04-27 2013-10-31 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium
WO2013171857A1 (en) * 2012-05-16 2013-11-21 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161086A1 (en) * 2012-04-27 2013-10-31 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium
US9489361B2 (en) 2012-04-27 2016-11-08 Rakuten, Inc. Image processing device, image processing device control method, program, and information storage medium
EP2843624A4 (en) * 2012-04-27 2018-05-23 Rakuten, Inc. Image processing device, image processing device control method, program, and information storage medium
WO2013171857A1 (en) * 2012-05-16 2013-11-21 楽天株式会社 Image processing device, image processing device control method, program, and information storage medium
JP5753945B2 (en) * 2012-05-16 2015-07-22 楽天株式会社 Image processing apparatus, image processing apparatus control method, program, and information storage medium
US9996516B2 (en) 2012-05-16 2018-06-12 Rakuten, Inc. Image processing device for determining a display position of an annotation

Also Published As

Publication number Publication date
JP3120469B2 (en) 2000-12-25

Similar Documents

Publication Publication Date Title
JPH06309426A (en) Method for inputting threshold
JPH0591411A (en) Image processor
JP3120469B2 (en) Image display method and apparatus
TWI482147B (en) Image processing method and image display apparatus
JP7572762B1 (en) Inspection device, inspection method, and program
JP2002140695A (en) Inspection method and its device
JP2018097563A (en) Image processing apparatus
JP3882427B2 (en) Image processing apparatus and image processing method
JPH04343180A (en) Method for displaying picture at time of setting binarizing threshold
JP2853343B2 (en) Image processing method and apparatus
JP3175946B2 (en) Object position measuring method and device
JP2004280271A (en) Graphic processor
JPH08221244A (en) Document preparing device and method for controlling cursor
JP2513528Y2 (en) Gray image processor
JPH05135171A (en) Processor for color image and border part detecting method
JPH0981735A (en) Visual inspection support device for printed matter
JPH07121701A (en) Method and device for displaying/setting spratial filter and method for displaying/setting image processing environment
JP2606565B2 (en) Display device
JPH11308438A (en) Image processor
JPH04242822A (en) Menu display method
JPH09193360A (en) Image display device
JPH05242245A (en) Color picture extracting device
JPH0793524A (en) Picture processor
JPH11142182A (en) Sampling method of measured data
JPH04326850A (en) Image reader

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees