JPH07282280A - Method for automatic character composition into image - Google Patents

Method for automatic character composition into image

Info

Publication number
JPH07282280A
JPH07282280A JP6066843A JP6684394A JPH07282280A JP H07282280 A JPH07282280 A JP H07282280A JP 6066843 A JP6066843 A JP 6066843A JP 6684394 A JP6684394 A JP 6684394A JP H07282280 A JPH07282280 A JP H07282280A
Authority
JP
Japan
Prior art keywords
composition
original image
character
characters
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6066843A
Other languages
Japanese (ja)
Inventor
Noboru Nagasawa
登 長澤
Naoki Kamo
尚樹 加茂
Junichi Nakanishi
順一 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Electronics Services Co Ltd
Original Assignee
Hitachi Electronics Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Electronics Services Co Ltd filed Critical Hitachi Electronics Services Co Ltd
Priority to JP6066843A priority Critical patent/JPH07282280A/en
Publication of JPH07282280A publication Critical patent/JPH07282280A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To perform composition accurately in a short time by automatically generating composition parameters, interpreting specification contents in the composition parameters and performing the composition, and outputting a composite image. CONSTITUTION:The composition parameters are read out of a composition parameter file 2. Then the coordinate position of a composition destination image, column positions of composition characters, the number of the characters, etc., among the read composition parameters are decoded and on the basis of the decoded contents, an object original image is read out of an original image file 1. Further, the object composition characters are read out of a composition character file 3 on the basis of the decoded contents. Then the read composition characters are converted from a text format to a bit map format so that they can be put in the original image. Then the composition characters which are converted to the bit map format are put (superposed) at the coordinate position of the original image specified with the composition parameters and the composition result is written in a composite image file 7.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、地図等の原画像にワー
ドプロセサ等で作成した文字を合成する場合に、特に合
成位置やサイズ等の合成方法が一定の場合に、あらかじ
め用意した合成パラメータの指定内容により、自動的に
合成を行なう方法に関する。
BACKGROUND OF THE INVENTION The present invention relates to a combination parameter prepared in advance when a character created by a word processor or the like is combined with an original image such as a map, particularly when the combination method such as a combination position or size is constant. Relates to a method of automatically synthesizing according to the designated contents of.

【0002】[0002]

【従来の技術】図4に示すような、地図の利用者にとっ
て必要な情報、例えば、通常の一般的な地図には表示さ
れていない、特定の会社の名称と所在地、建屋入出時の
注意事項などを、同じ地図内の上記特定の利用目的に対
しては不要な個所を利用し、その個所の地図としての表
示を消去して、其処に合成表示を行なうと、例えば上記
会社と新規に取引を始めた業者が、同じ業者の内部の別
の人に情報を伝える場合などに便利である。
2. Description of the Related Art Information necessary for a user of a map as shown in FIG. 4, for example, the name and address of a specific company, which is not displayed on a general map, and precautions for entering and exiting a building. For example, if you use a part of the same map that is not needed for the above-mentioned specific purpose, delete the display of that part as a map, and perform a composite display there, for example, make a new transaction with the above company. This is useful when the business operator who started the method communicates information to another person inside the same business operator.

【0003】従来、このような地図を作成する場合に
は、ワードプロセサ等で作成した情報を地図上の合成位
置、サイズに応じて適当な大きさに切り、地図に直接貼
り付けたりしていた。また、パーソナルコンピュータで
編集する場合には、地図をイメージスキャナから読み込
んでおき、その読み込んだ地図をパーソナルコンピュー
タの画面上に表示させて、合成位置やサイズを考えなが
ら、合成したい情報を入力していた。このとき、一般に
パーソナルコンピュータの表示画面はサイズが小さく一
度に表示できる地図の範囲が狭いため、画面の上下左右
のスクロール操作を繰り返しながら合成したい範囲を入
力するのが実情であって、手間がかかる。
Conventionally, in the case of creating such a map, the information created by a word processor or the like was cut into an appropriate size according to the composite position and size on the map and directly pasted on the map. . When editing with a personal computer, the map is read from the image scanner, the read map is displayed on the screen of the personal computer, and the information to be combined is input while considering the combination position and size. It was At this time, since the display screen of a personal computer is generally small and the range of a map that can be displayed at one time is narrow, it is a fact that it is the actual situation to input the range to be combined by repeating the scroll operation of the screen up, down, left and right, which is troublesome. .

【0004】また、このような場合には、画面の操作に
慣れるのに時間を要する。従って、従来から種々の工夫
提案がなされており、例えば特開平4−273585号
公報には、合成枠と称する合成方法を指定した情報をイ
メージスキャナから読み込んだり、またはあらかじめ用
意しておいたりして、合成処理を実施する方法が開示さ
れている。
In such a case, it takes time to get used to the operation of the screen. Therefore, various proposals have been made in the past, for example, in Japanese Unexamined Patent Publication No. 4-273585, information designating a synthesizing method called a synthesizing frame is read from an image scanner or prepared in advance. , A method of performing a compositing process is disclosed.

【0005】[0005]

【発明が解決しようとする課題】しかし、上記従来の方
法では、例えば合成方法を指定した情報をイメージスキ
ャナから読み込む方法では、合成枠を人手により作成し
なければならず、更にイメージスキャナという特別なハ
ードウェアを必要とする。また、例えば合成枠を予め用
意する場合には、合成座標位置や合成文字の文字位置な
どの合成方法を人手により作成しなければならず、手間
や時間がかかるという問題が生ずる。
However, in the above-mentioned conventional method, for example, in the method of reading the information designating the synthesizing method from the image scanner, the synthesizing frame has to be created manually, and the special image scanner is required. Requires hardware. In addition, for example, when a composition frame is prepared in advance, a composition method such as a composition coordinate position and a character position of a composition character has to be manually created, which causes a problem that it takes time and effort.

【0006】本発明は、従来生じていた上記のような問
題を解決し、画像と文字の合成を短時間で且つ正確に行
ない、特に原画像や合成する情報は変わるが、合成位置
やサイズ等の合成方法が一定の場合に効率の良い合成方
法を提供することを課題とする。
The present invention solves the above-mentioned problems that have occurred in the related art, and allows images and characters to be combined accurately in a short time. In particular, although the original image and the information to be combined are changed, the combining position, size, etc. An object of the present invention is to provide an efficient synthesizing method when the synthesizing method is constant.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に本発明においては、ビットマップ形式で表現された原
画像の予め定められている特定の座標位置に、ワードプ
ロセサやパーソナルコンピュータのワープロ機能等で作
成したビットマップ形式で表現されていない文字を合成
する場合に、原画像と合成文字ならびに合成する原画像
の座標位置および合成文字の中の合成する文字の位置を
指定する合成パラメータを本発明に係る合成パラメータ
生成手段により自動的に生成し、その合成パラメータ内
の指定内容を解釈して合成を行なって、合成文字を自動
的に原画像に合成させた合成画像を出力するようにし
た。なお、上記合成パラメータは一度作成しておけば良
く、また、合成パラメータの変更も勿論可能である。
In order to solve the above problems, according to the present invention, a word processor or a word processor function of a personal computer is provided at a predetermined specific coordinate position of an original image expressed in a bitmap format. When synthesizing a character that is not represented in the bitmap format created with the etc., specify the synthesis parameter that specifies the coordinate position of the original image and the synthetic character, the coordinate position of the original image to be synthesized, and the position of the character to be synthesized in the synthetic character. The synthetic parameter generating means according to the present invention automatically generates, interprets the designated contents in the synthetic parameter, synthesizes, and outputs a synthetic image in which synthetic characters are automatically synthesized in the original image. . Note that the above-mentioned combination parameter only needs to be created once, and the combination parameter can of course be changed.

【0008】[0008]

【作用】上記手段をとることによって、原画像や合成文
字は其の都度変わるが、合成位置やサイズ等の合成方法
が一定の場合には、合成対象の夫々の原画像と夫々の合
成文字を入力しておき、一度、パーソナルコンピュータ
上で合成操作を行ない、合成パラメータを生成させてや
れば、後の操作は自動的にできるため、短時間かつ正確
に合成ができ、従来のように、人手により手間と時間を
かけて合成する必要がなくなり、また、自動的、機械的
に処理されるため正確である。
By the above means, the original image and the composite character are changed each time, but when the composition method such as the composition position and size is constant, each original image to be composed and each composite character are combined. If you input the data, perform the composition operation once on the personal computer, and generate the composition parameters, the subsequent operations can be performed automatically, so that the composition can be done accurately in a short time. This eliminates the need for time-consuming and time-consuming synthesis, and is accurate because it is processed automatically and mechanically.

【0009】[0009]

【実施例】図1は、本発明による合成処理実施例のシス
テム構成図である。原画像入力手段8から合成する原画
像を入力して、ビットマップ形式で格納している原画像
ファイル1、合成パラメータ生成手段4から合成のやり
方を記述した合成パラメータを入力されてテキスト形式
(キャラクタコード形式)で格納している合成パラメー
タファイル2、合成する文字を入力(作成)するために
ワードプロセサやパーソナルコンピュータのワープロ機
能等の合成文字入力手段5から入力して合成する文字を
テキスト形式で格納している合成文字ファイル3、パー
ソナルコンピュータ9の表示手段10の画面上で、合成
処理を入力手段11を介して手操作で行ない、其の操作
履歴を基に合成パラメータを自動的に生成するための合
成パラメータ生成手段4、合成パラメータに基づき原画
像と合成文字の合成処理を行なう合成手段6、合成後の
合成画像をビットマップ形式で格納する合成画像ファイ
ル7より構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a system configuration diagram of a composition processing embodiment according to the present invention. The original image to be combined is input from the original image input means 8, the original image file 1 stored in the bitmap format, and the combination parameter describing the combination method are input from the combination parameter generation means 4 to the text format (character The combination parameter file 2 stored in code format, the characters to be combined by inputting from the combined character input means 5 such as a word processor or word processor function of a personal computer for inputting (creating) characters to be combined are in text format. On the screen of the stored composite character file 3 and the display means 10 of the personal computer 9, the composite processing is manually performed through the input means 11, and the composite parameters are automatically generated based on the operation history. For synthesizing the original image and the synthesized character based on the synthesizing parameter Stage 6, and a composite image after synthesis is constructed from the composite image file 7 to be stored in the bitmap format.

【0010】図2は合成パラメータ生成手段4の処理の
流れを示す図である。なお、原画像ファイル1、合成文
字ファイル3は、それぞれ、原画像入力手段8、合成文
字入力手段5によりあらかじめ作成されているものとす
る。まず、原画像を原画像ファイル1から読み込む(ス
テップ21)。さらに、合成文字を合成文字ファイル3
から読み込む(ステップ22)。次に、パーソナルコン
ピュータ9の表示手段10の画面を原画像の合成したい
位置へ入力手段11を介して人手操作でスクロールさせ
(ステップ23)、合成する文字を原画像上の合成した
い位置へ人手操作により移動させる(ステップ24)。
次に、前述の人手操作の履歴を基に、それを解釈して、
合成先原画像の座標位置および合成文字のカラム位置、
文字数などを作成し、合成パラメータを生成し(ステッ
プ25)、生成した合成パラメータを合成パラメータフ
ァイル2に書き込み(ステップ26)、合成手段6に制
御を渡す。
FIG. 2 is a diagram showing a processing flow of the synthesis parameter generating means 4. The original image file 1 and the composite character file 3 are preliminarily created by the original image input means 8 and the composite character input means 5, respectively. First, the original image is read from the original image file 1 (step 21). Furthermore, the composite character file 3
Is read from (step 22). Next, the screen of the display means 10 of the personal computer 9 is manually scrolled to the position where the original image is to be combined via the input means 11 (step 23), and the character to be combined is manually operated to the position on the original image where it is desired to combine. To move (step 24).
Next, interpret it based on the history of human operation described above,
Coordinate position of the composite destination original image and column position of composite character,
The number of characters or the like is created, a synthesis parameter is generated (step 25), the generated synthesis parameter is written to the synthesis parameter file 2 (step 26), and control is passed to the synthesis means 6.

【0011】図3は合成手段6の処理の流れを示す図で
ある。先ず合成パラメータを合成パラメータファイル2
から読み込む(ステップ31)。次に、読み込んだ合成
パラメータ内の合成先原画像の座標位置および合成文字
のカラム位置、文字数などを解読し、解読した内容に基
づき原画像ファイル1から対象となる原画像を読み込む
(ステップ32)。更に解読した内容に基づき合成文字
ファイル3から対象となる合成文字を読み込む(ステッ
プ33)。次に、読み込んだ合成文字を原画像に合成で
きるようにテキスト形式からビットマップ形式にデータ
変換する(ステップ34)。次に、ビットマップ形式に
データ変換した合成文字を、合成パラメータで指定して
ある原画像の座標位置に合成(重ね合わせ)し(ステッ
プ35)、合成した結果を合成画像ファイル7に書き込
む(ステップ36)。次に、処理すべき合成文字ファイ
ルがなくなったか否かの終了判定を行ない(ステップ3
7)、なくなっていれば処理を終了し、もし未だ残って
いればステップ32からの処理を繰り返す。
FIG. 3 is a diagram showing a processing flow of the synthesizing means 6. First, the synthesis parameter is set to synthesis parameter file
Is read from (step 31). Next, the coordinate position of the original image to be combined, the column position of the combined character, the number of characters, etc. in the read combination parameter are decoded, and the target original image is read from the original image file 1 based on the decoded contents (step 32). . Further, the target synthetic character is read from the synthetic character file 3 based on the decoded contents (step 33). Next, data conversion from the text format to the bitmap format is performed so that the read composite character can be composited with the original image (step 34). Next, the synthesized character data converted into the bitmap format is synthesized (superposed) at the coordinate position of the original image designated by the synthesis parameter (step 35), and the synthesized result is written in the synthesized image file 7 (step 36). Next, it is judged whether or not there is no composite character file to be processed (step 3).
7) If it is not present, the process is terminated, and if it is still present, the process from step 32 is repeated.

【0012】図4は本発明により合成した地図の例を示
す図である。
FIG. 4 is a diagram showing an example of a map synthesized by the present invention.

【0013】[0013]

【発明の効果】以上説明したように本発明によれば、原
画像や合成文字は変わるが、合成位置やサイズ等の合成
方法(指定)が一定の場合に、予め合成対象のそれぞれ
の原画像とそれぞれの合成文字を入力しておき、一度、
合成操作を行なっておけば、自動的に生成された合成パ
ラメータの内容に従って、それぞれの原画像にそれぞれ
の合成文字を合成するため、短時間で、かつ正確に、合
成ができる。
As described above, according to the present invention, although the original image and the combined character are changed, when the combining method (designation) such as the combining position and size is constant, each original image to be combined is preliminarily set. Enter each synthetic character and, once,
If the combining operation is performed, the respective combined characters are combined with the respective original images according to the contents of the automatically generated combining parameter, so that the combining can be accurately performed in a short time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による合成処理実施例のシステム構成図
である。
FIG. 1 is a system configuration diagram of a synthesis processing embodiment according to the present invention.

【図2】本発明に係る合成パラメータ生成手段4の処理
の流れを示す図である。
FIG. 2 is a diagram showing a processing flow of a synthesis parameter generation means 4 according to the present invention.

【図3】本発明に係る合成手段6の処理の流れを示す図
である。
FIG. 3 is a diagram showing a processing flow of a synthesizing means 6 according to the present invention.

【図4】本発明による合成画像の例を示す図である。FIG. 4 is a diagram showing an example of a composite image according to the present invention.

【符号の説明】[Explanation of symbols]

1…原画像ファイル、 2…合成パラメータファイル、
3…合成文字ファイル、 4…合成パラメータ生成手
段、 5…合成文字入力手段、 6…合成手段、 7…
合成画像ファイル、 8…原画像入力手段、 9…パー
ソナルコンピュータ、 10…表示手段、 11…入力
手段、 21〜26…合成パラメータ生成手段の各処理
ステップ、 31〜37…合成手段の各処理ステップ。
1 ... Original image file, 2 ... Synthesis parameter file,
3 ... Synthetic character file, 4 ... Synthetic parameter generating means, 5 ... Synthetic character input means, 6 ... Synthetic means, 7 ...
Synthetic image file, 8 ... Original image input means, 9 ... Personal computer, 10 ... Display means, 11 ... Input means, 21-26 ... Each processing step of synthesis parameter generation means, 31-37 ... Each processing step of synthesis means.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G09B 29/10 G06F 15/66 450 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G09B 29/10 G06F 15/66 450

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】ビットマップ形式で表現された原画像の予
め定められている特定の座標位置に、ワードプロセサ等
で作成したビットマップ形式で表現されていない文字を
合成する場合に、原画像と合成文字ならびに合成する原
画像の座標位置および合成文字の中の合成する文字の位
置を指定する合成パラメータを自動的に生成し、その合
成パラメータ内の指定内容を解釈して合成を行なって、
合成画像を出力するようにしたことを特徴とする画像へ
の文字自動合成方法。
1. When synthesizing a character, which is created by a word processor or the like, and which is not expressed in a bitmap format, at a predetermined specific coordinate position of the original image expressed in the bitmap format, Automatically generate a synthesis parameter that specifies the coordinate position of the synthetic character and the original image to be synthesized and the position of the character to be synthesized in the synthetic character, interpret the specified contents in the synthetic parameter, and perform synthesis.
A method for automatically synthesizing characters on an image, which is characterized by outputting a synthesized image.
JP6066843A 1994-04-05 1994-04-05 Method for automatic character composition into image Pending JPH07282280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6066843A JPH07282280A (en) 1994-04-05 1994-04-05 Method for automatic character composition into image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6066843A JPH07282280A (en) 1994-04-05 1994-04-05 Method for automatic character composition into image

Publications (1)

Publication Number Publication Date
JPH07282280A true JPH07282280A (en) 1995-10-27

Family

ID=13327541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6066843A Pending JPH07282280A (en) 1994-04-05 1994-04-05 Method for automatic character composition into image

Country Status (1)

Country Link
JP (1) JPH07282280A (en)

Similar Documents

Publication Publication Date Title
US4864516A (en) Method for implementing an on-line presentation in an information processing system
EA000271B1 (en) Method and apparatus for processing a table
JP3191266B2 (en) Image simulation system
JP2002207725A (en) Processor for concealing electronic document
JPH06274307A (en) Screen display system
JPH07282280A (en) Method for automatic character composition into image
GB2233800A (en) Text processing with framing
JP3154790B2 (en) Optical character reader
JP2978178B2 (en) Document creation apparatus and control method thereof
JP2973906B2 (en) Character user interface device
JPH0239323A (en) Producing device for form design information
JP3020883B2 (en) Information processing apparatus and control method thereof
JPH06243226A (en) Screen information storing method/device
JPS6019231A (en) Document producing system
JP2003296316A (en) Document preparation support device, document preparation support method and program therefor
JPH05307550A (en) Document preparing device
JPH05197722A (en) Document preparing device
JPH07121512A (en) Document preparing device
JPH05188909A (en) Device and method for font generation
JPH05252493A (en) Teletext image producing device
JPH08212206A (en) Document generation device
JPH0635643A (en) Screen output method for data
JPH0756906A (en) Storage system for document information in word processor
JPH03203769A (en) Map information processor
JPH01236354A (en) Document preparation supporting device